JP2004069583A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2004069583A
JP2004069583A JP2002230993A JP2002230993A JP2004069583A JP 2004069583 A JP2004069583 A JP 2004069583A JP 2002230993 A JP2002230993 A JP 2002230993A JP 2002230993 A JP2002230993 A JP 2002230993A JP 2004069583 A JP2004069583 A JP 2004069583A
Authority
JP
Japan
Prior art keywords
target
interest
imaging
image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002230993A
Other languages
Japanese (ja)
Other versions
JP3988574B2 (en
Inventor
Shogo Watanabe
渡辺 省吾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2002230993A priority Critical patent/JP3988574B2/en
Publication of JP2004069583A publication Critical patent/JP2004069583A/en
Application granted granted Critical
Publication of JP3988574B2 publication Critical patent/JP3988574B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To avoid mismatch problem in a parallax image for quickly finding a distance to a target object. <P>SOLUTION: In this image processing device, sequential parallax images of the target object are found by means of a photographing device 13 via an optical shutter 12 having an aperture part moving at a high speed, and on the basis of the image information about the found sequential parallax images, a distance to the target object is computed by a distance computing part 152 in a computing device 15. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、連続して撮像された視差画像に基づいて、追跡する注目対象までの距離を測定する画像処理装置に関する。
【0002】
【従来の技術】
複数の画像を用いて観測対象の奥行き方向の情報を求める画像処理は、コンピュータビジョンやマシンビジョンの分野において、対象の立体構造を復元し、外界認識の一助を担っている人工的な視覚機能を実現するための重要な手法の一つである。異なる視差画像を用いて対象の奥行き情報を抽出、復元する手法の代表的なものとしては、ステレオ画像処理がある。ここで、視差画像とは、異なる場所に設置した2台以上のカメラによって、同一物体あるいは同一シーンを撮影した画像である。ステレオ画像処理とは、複数の視差画像を用いて、観測対象までの距離や奥行き情報を抽出する処理である。
【0003】
複数のカメラを用いる従来のステレオ画像処理では、それぞれのカメラで撮影した画像の中から、同一の対象物の結像位置を特定し、三角測量の原理に基づき対象までの距離を測定する。ここでは、簡単のために2台のカメラにより撮像した2枚の視差画像を用いる二眼のステレオ視について説明する。
【0004】
距離を測定したい注目対象OBJを異なる視点より2台のカメラ1およびカメラ2で撮像する。このとき、カメラ1およびカメラ2の相対位置関係等のカメラ・パラメータは既知である。カメラ1により撮像した画像I1中における注目対象OBJを含む領域W1に対応する領域W2を、カメラ1とは異なる視点から注目対象OBJを撮像するカメラ2の画像I2中より求める。これにより、それぞれの画像I1、I2中における領域W1の位置と領域W2の位置、およびカメラ・パラメータから、注目対象OBJまでの距離を三角測量の原理に基づいて算出する。
【0005】
画像I1中の注目対象OBJを含む領域W1に対応した領域W2を、画像I2上で特定するために、ブロックマッチング等のマッチング処理が用いられる。マッチング処理は、複数の視差画像間の画素、あるいは領域毎の対応関係を決定する処理である。このマッチング処理では、相関値やSAD(Sum of
Absolute Difference、差の絶対値和)がマッチングの度合いを示す指標として用いられる。
【0006】
一方、視差画像を取得する他の方法としては、単眼カメラを移動させることにより視差画像を獲得する手法がある。この単眼カメラの移動により視差画像を獲得する手法は、モーションステレオと呼ばれている。
【0007】
【発明が解決しようとする課題】
上記複眼式のステレオ画像処理では、複数の視差画像において、比較的視差が小さく、エッジやパターン等の特徴点の出現順序などに変化の少ない場合は、画像I1中の領域W1に対応した領域W2を画像I2中より求めることは比較的容易である。また、画像I2中において領域W2を探索する際の探索範囲を小さくすることができるので、距離を算出する際の演算量を抑えることが可能となる。
【0008】
しかしながら、画像I1と画像I2間の視差が大きい場合は、特徴点が一方の画像にはあるが、他方の画像には無いというオクルージョンに代表される不対応問題が生じていた。さらに、画像間の視差が大きいゆえに、対応領域の探索範囲が大きくなるため、特徴点の対応付けが困難になっていた。特に、注目する領域が繰り返しパターンの一部となる場合には、探索領域内に繰り返しパターンが含まれることがあった。このため、探索領域内で注目対象を一意に決定できない場合や、誤った対応付けをしてしまうといった誤対応が生じるおそれがあった。
【0009】
このような場合には、特開2001−184497号公報、特開2001−153633号公報、特開2000−121319号公報、特開平10−289316号公報等に記載されたような、誤対応を防ぐ、あるいは誤対応を検出する付加処理が必要になっていた。もしくは、柔軟な対応付けを行う複雑なエラスティック・マッチングアルゴリズムの付加処理が必要になっていた。このような付加処理を行うことは、注目対象までの距離を算出する上記一連の画像処理が煩雑化し、負荷が増大するといった不具合を招いていた。
【0010】
一方、単眼式のモーションステレオにおいては、カメラを移動させながら、順次視差画像を取得していくことで、画像間変化の少ない連続的な視差画像を得ることができる。しかしその反面、カメラを移動させる機構が必要になるため、装置が大きくなるという問題があった。
【0011】
さらに、動く注目対象までの距離や奥行き情報を取得する際には、注目対象の移動速度よりも速いオーダで視点を移動させなければならなかった。このため、移動する注目対象までの正確な距離や奥行き情報が得られなかった。
【0012】
また、距離、奥行き情報を例えば車両の運転制御等に用いる場合は、制御周期内で距離情報を獲得しなくてはならないので、高速に連続視差画像を取得するとともに、視差画像の取得周期内におさまるように迅速に距離を演算しなければならないといった不具合を招いていた。
【0013】
そこで、本発明は、上記に鑑みてなされたものであり、その目的とするところは、視差画像の不対応問題を回避し、注目対象までの距離を迅速に求める画像処理装置を提供することにある。
【0014】
【課題を解決するための手段】
上記目的を達成するために、本発明の課題を解決するための手段は、画像を撮像する撮像手段と、前記撮像手段が撮像する方向を制御する撮像方向制御手段と、前記撮像手段が撮像するタイミングと、前記撮像手段が撮像する方向の変化量を制御するタイミング制御手段と、前記撮像手段が撮像した第1の画像の中から追跡する注目対象を抽出する第1の抽出手段と、前記撮像手段が撮像する方向の変化量に基づいて、前記撮像手段が撮像した第2の画像から追跡する前記注目対象を抽出する領域を決定する領域決定手段と、前記撮像手段が撮像した前記第2の画像における、前記領域決定手段により決定された領域の中から、追跡する前記注目対象を抽出する第2の抽出手段と、前記第1の抽出手段により前記第1の画像から抽出された前記注目対象の画像情報と、前記第2の抽出手段により前記第2の画像から抽出された前記注目対象の画像情報とに基づいて、前記撮像手段と前記注目対象との距離を算出する距離算出手段とを有することを特徴とする。
【0015】
【発明の効果】
以上説明したように、本発明によれば、視差画像の不対応問題を回避し、注目対象までの距離を迅速に求める画像処理装置を提供することができる。
【0016】
【発明の実施の形態】
以下、図面を用いて本発明の実施形態を説明する。
【0017】
図1は本発明の一実施形態に係る画像処理装置の構成を示す図である。図1に示す実施形態の画像処理装置は、レンズ11、液晶シャッターやPLZT光シャッターのように開口部の位置を電気的に任意に制御することができる光シャッター12、CMOS、CCDのように光電変換を行う撮像装置13、撮像装置13により撮像された画像を記憶するフレームメモリ14、演算装置15、光シャッター12の開口部の位置、撮像装置13の画像読み出し位置、ならびに距離演算部152の演算タイミングを制御する駆動装置16を備えて構成されている。
【0018】
演算部15は、距離を算出しようとする注目対象を追跡して十分な視差が得られた連続視差画像を取得するために必要となる処理を行う追跡処理部151と、追跡処理部151で取得された連続視差画像間における像位置の変化量、焦点距離、ならびに眼距離に基づいて注目対象までの3次元位置情報として距離を算出する距離算出部152を備えて構成されている。
【0019】
撮像装置13は、画像を撮像する撮像手段として機能する。光シャッター12は、撮像装置13が撮像する方向を制御する撮像方向制御手段として機能する。駆動装置16は、撮像装置13が撮像するタイミングと、撮像装置13が撮像する方向の変化量を制御するタイミング制御手段として機能する。演算装置15の追跡処理部151は、撮像装置13が撮像した第1の画像の中から追跡する注目対象を抽出する第1の抽出手段、撮像装置13が撮像する方向の変化量に基づいて、撮像装置13が撮像した第2の画像から追跡する注目対象を抽出する領域を決定する領域決定手段、ならびに撮像装置13が撮像した第2の画像における、領域決定手段により決定された領域の中から、追跡する注目対象を抽出する第2の抽出手段として機能する。演算装置16の距離演算部152は、追跡処理部151により第1の画像から抽出された注目対象の画像情報と、追跡処理部151により第2の画像から抽出された注目対象の画像情報とに基づいて、撮像装置13と注目対象との距離を算出する距離算出手段として機能する。
【0020】
次に、モーションステレオの原理を用いて、注目対象までの距離を測定する例を、モーションステレオの原理を説明するための図2、及びステレオ画像処理における対応点探索処理を説明するための図3を参照して説明する。
【0021】
図2に示すように、カメラ位置C1において画像I1を得た後、位置C1からカメラを移動し、位置C2において画像I2を得る。異なる視差画像I1、I2から注目する対象(領域)の対応関係を求め、対象までの距離を算出する過程を、図3における画像I1内の領域W1までの距離を算出する場合を一例として説明する。
【0022】
図3において、画像I1における領域W1に対応する領域W2を画像I2中に求めるためには、例えば領域W1をテンプレートとし、画像I2中の探索領域S内に領域W1に対応する領域Wを仮定する。そして、探索領域S内で領域Wを左から右へと微少量(例えば1画素づつ)走査しながら、領域Wと領域W1の相関値を算出し、相関値の一致度(あるいはマッチングエラー)を定量化して図3(c)に示す相関図を得る。
【0023】
図3(c)において、一致度が最も高い領域Wを、画像I1中の注目領域W1に対応する画像I2中の領域W2であるとする。領域W1の画像I1上での画素位置を(x1、y1)、領域W2の画像I2上での位置を(x2、y2)とすると、カメラを光軸に垂直な方向に距離Hだけ移動させた際に、注目領域W1の3次元空間での座標(x、y、z)は、
【数1】
x=x1・H/(x1−x2)
y=y1・H/(x1−x2)
=y2・H/(x1−x2)
z=f・H/(x1−x2)
として算出される。ここで、fは焦点距離である。
【0024】
視差画像を得る手法としては、上述したようにカメラ位置を移動させて視差画像を得る手法の他に、図4に示すように、異なるシャッター開口位置と画像の読み出し位置により実現する手法がある。図4においては、光シャッター12の開口部B1を開いたときの撮像装置13上での結像領域C1と、開口部B2を開いたときの撮像装置13上での結像領域C2の画像をそれぞれ読み出し、読み出した画像から異なる視差画像を得ている。
【0025】
一方、光シャッター12の複数の開口部を開き、撮像装置13上の異なる位置に結像された画像をそれぞれ読み出す場合には、複眼式のステレオ画像処理と同様な視差画像の取得方法となる。光シャッター12の開口部を走査させて異なる視差画像を得る場合には、モーションステレオによる視差画像の取得方法と同様となる。
【0026】
ステレオ画像処理において、観測点からの注目対象までの距離等の相対的な3次元位置情報を取得するためには、視差画像間における注目対象の対応関係を求める処理が必須である。この異なる視差画像間の対応関係を求める処理は、視差を少しずつ変化させて連続的に得た連続視差画像を用いることで、対応関係の信頼性を向上させることができるとともに、処理負荷を低減させることができる。
【0027】
図3に示すように、参照領域W1に対応する領域W2を画像I2中に求める場合であって、カメラの光軸方向が常に平行である場合には、視差が大きいと注目する対象の特徴(領域)の見え方、および画像上の位置が画像間で大きく異なる。このため、対応領域W2を探索する探索領域Sを大きく設定する必要がある。探索領域Sが大きくなると、注目する対象の特徴と類似の特徴の双方が探索領域S内に含まれる場合が生じる。このため、誤対応の可能性が出てくるとともに、マッチング処理の繰り返し回数が増加し、演算量が増加してしまう。
【0028】
一方、視差が比較的小さく、注目する特徴の出現順序や変形が少ない場合には、対応領域W2を探索する探索領域Sを比較的小さく設定することで、探索領域S内に注目する対象の特徴と類似の特徴が含まれる可能性を排除することが可能となる。また、マッチング処理の回数も少なく抑えられるので、比較的容易に対応付けを行うことができる。このような理由により、連続視差画像を用いることがステレオ画像処理においては、有用であることが分かる。
【0029】
複眼のステレオ方式により連続視差画像を取得するためには、図5に示すように、視差が小さくなるように位置をずらして複数台のカメラB1、B2、B3を配置し、画像を取得する必要がある。一方、モーションステレオ方式により連続視差画像を取得するためには、図6に示すように、ひとつのカメラユニットを用いて、カメラ位置をB1→B2→B3へと連続的に移動させながら画像を取得する。あるいは、図7に示すように、駆動装置16の制御の下に、光シャッター12の開口部を開口部B1から開口部B2へと開口部を少しずつ連続的に移動させ、開口部の位置と同期して、駆動装置16の制御の下に撮像装置13の画像の読出し位置を結像領域C1から結像領域C2へと走査することにより連続視差画像を取得する。
【0030】
このような連続視差画像の取得方法において、注目対象が移動しない場合には、取得した連続視差画像に対して、対応点検出処理を行い、特徴点の対応付けを行った後に、特徴点の3次元座標を算出すればよい。このため、各視差画像を取得する時間的なずれは問題とはならない。
【0031】
一方、対象が移動する場合には、対象の移動速度よりも高速に連続視差画像を取得することが求められる。したがって、連続視差画像を取得する過程で、対象の動きが無視できない状態では、対象までの距離の算出に誤差を生じる。あるいは、距離が求められない場合が発生する。
【0032】
例えば図8(a)に示すように、撮像位置がB1からB2、B3へと移動する間に、注目対象がA1からA2、A3へと移動する場合には、連続視差画像と撮像位置の関係から算出される注目対象Aの位置は、実際の位置よりも遠くの位置に算出される。逆に、連続視差画像を得る速さよりも、画像上における注目対象Aの結像の移動速度が速い場合は、負の距離が算出されことになる。また、撮像位置の変化に伴い図8(b)に示すように、注目対象がA1からA2、A3へと変化する場合、すなわち連続視差画像間における注目対象Aの結像位置が変化しない場合には、注目対象Aの3次元位置を算出できなくなる。
【0033】
このような状態は、注目対象が移動していないと近似できる程度に速く連続視差画像を得ながら、注目対象を追跡することにより回避することができる。図9に示すように、注目対象Aが位置A1からA2、A3へと移動する速度よりも速く、撮像位置がC1からC2、C3へと移動することにより、算出される注目対象の位置は、実際の注目対象Aの位置とほぼ同じとなる。このように、視差の移動が速くなればなるほど、算出位置の誤差は小さくなる。
【0034】
視差の移動を速くするために、カメラ位置を高速で走査することは、その機構からも現実的ではない。しかし、この実施形態に使用する光シャッター12の場合には、電気的に開口位置を任意に制御することができるので、開口位置を高速に走査することが可能となる。
【0035】
光シャッター12の開口部を高速に走査しながら連続視差画像を取得するには、光シャッター12の開口部の走査速度と同期した高いフレームレートでの画像の読出しが必要となる。注目対象の移動が無視できる(静止している状態と近似できる)フレームレートでの撮像は、注目対象の追跡処理にも多大な効果がある。撮像装置13のフレームレートを高くすることで、注目対象の像上における移動量は少なくなる。これは、時間的に連続する視差画像間において、注目対象を探索する探索領域が極めて狭い範囲に限定できることを意味する。
【0036】
図10に光シャッター12の開口部の移動量と、撮像装置13の撮像面における結像位置の関係を示す。光シャッター12の開口部が固定の場合に、フレームレートが注目対象の移動速度と比較して十分に高いときは、撮像面における注目対象の移動に伴う結像位置の変化は微小であり、ほぼ無視できる。
【0037】
次に、図10(a)に示すように、連続する時間で光シャッター12の開口部をC(t)からC(t+Δt)へと移動させた場合に、注目対象の撮像面上における結像位置Pは、P(t)からP(t+Δt)へと移動する。このとき、フレームレートは十分に高いのでΔtは微小であり、結像位置Pの変化は微小である。これにより、結像位置P(t+Δt)を探索する探索範囲S(t+Δt)をP(t)の周囲近傍に限定することができる。この探索範囲S(t+Δt)が小さくできるほど、視差画像間において対応点を探索するマッチング処理の回数が減少する。さらに、余分な情報が探索領域S(t+Δt)に入らないことから誤対応の発生を回避することができる。
【0038】
上述したことは、光シャッター12の開口部と撮像装置13の読出し位置を高速に走査し、連続視差画像を得るモーションステレオについても同様に成り立つ。このため、注目対象の追跡による連続視差画像間の対応関係について、その一意性が保証されることになる。
【0039】
次に、注目対象の距離を算出する過程を、図11に示すフローチャートを参照して説明する。
【0040】
図11において、ステップS1では、注目対象を撮像装置13で撮像する。続いてステップS2では、撮像した画像中から注目する領域を規定する。注目する領域は、画像全体を等サイズで矩形領域に分割した個々の領域(複数)でもよい。次に、ステップS3では、ステップS2で規定した個々の領域を、後述するステップS7のマッチング処理の際に用いる参照画像としてパターン登録する。参照画像は、濃淡画像でもよいし、エッジ抽出処理を行った画像、あるいは2値化画像でもかまわない。次に、ステップS4では、続いて取得される視差画像内における各参照領域に対応する領域を探索するための探索領域を規定する。高速で連続視差画像を取得する場合は、連続する視差画像間での注目領域の移動が少ないことから、例えばステップS2で規定した各注目領域を近傍数画素拡大した領域に拡大して設定してもよいし、あるいは走査方向のみに数画素拡大した領域を探索領域としてもよい。
【0041】
次に、ステップS5では、光シャッター12の開口部を微少量(光シャッター12が例えば液晶シャッターの場合は数ピクセル分)だけ移動させ、続いてステップS6にて撮像する。ステップS6では、撮像範囲を光シャッター12の開口位置に連動させて画像を読み出し、フレームメモリ14に記憶する。次に、ステップS7では、ステップS3で登録した個々の対象パターンについて、ステップS4にて規定した各対象パターンに対応する探索領域中から、一致度が最も高くなる位置を検出し、各注目する領域がステップS6で獲得した画像中のどの位置に対応しているかを求める。全ての対応領域について対応関係が求まると、ステップS8にて、ステップS4と同様に、続いて取得される視差画像内における各参照領域に対応する領域を探索するための探索領域を新たに規定する。
【0042】
次に、ステップS9では、各注目する領域について十分な視差が得られているか否かを判定する。十分な視差が得られていると判定された領域については、連続視差画像間における像位置の変化量および焦点距離、眼距離に基づき対象領域の3次元位置情報として注目対象までの距離を算出する。十分な視差が得られていないと判定された領域については、ステップS5へ戻り、光シャッター12の開口位置をさらに微少量だけ移動する。その後、ステップS9までの処理を繰り返し行う。ステップS9において、光シャッター12の開口部の走査範囲が限界に到達している場合は、それまで得られた情報を用いて各領域の3次元位置情報として注目対象までの距離を算出する。
【0043】
(上記第1の実施形態は、請求項1,2又は3のいずれか1項に記載された発明に対応した実施形態である。)
上記第1の実施形態においては、十分な視差が得られた連続視差画像が取得されるので、注目対象までの距離を正確かつ迅速に求めることができる。また、光シャッター12の開口部を高速に移動させ、光シャッター12の開口部の移動と同期して高速に撮像装置13の画像読み出し位置を移動させることで、注目対象の追跡において、連続する視差画像間における対応領域の探索範囲が小さくなり、探索範囲内に含まれる余分な情報が減少する。これにより、連続視差画像間における誤対応を回避することができる。
【0044】
上記効果は、請求項1,2又は3のいずれか1項に記載された技術内容によって達成される効果に相当する。
【0045】
次に、この発明の第2の実施形態について説明する。
【0046】
この第2の実施形態の特徴とするところは、上述したようにして取得された連続視差画像において、画像上の特徴として、エッジ情報を用いる場合に、そのエッジの向き(方向)に対応して光シャッター12の開口部を走査する方向を設定するようにしたことにある。注目するエッジが1次元方向にしか分布を持たない場合には、エッジに平行な移動成分を検出することは困難である。
【0047】
図12に示すように、例えば車両のルーフ部の横エッジを特徴点として着目したときに、横エッジがy方向のみの分布を持つ場合は、横エッジと平行な方向に光シャッター12の開口部を走査すると、図12(a)ならびに同図(b)の視差画像が得られる。得られた視差画像間において、注目領域W1およびW2の対応付けを行うことは、注目しているエッジが単一方向にしか分布を持たないので、エッジと平行な方向に対して位置を限定する特徴がなく、対応関係を一意に求めることは困難である。このように、注目対象の特徴が1次元の分布しか持たず、その特徴の一部しか捉えていない場合には、分布方向の移動成分を抽出できないという「窓問題」が生じる。
【0048】
この窓問題を回避するためには、2次元の分布を持つ特徴のみを用いることが考えられる。しかし、特徴が1次元分布しか持たない箇所においては、追跡できる部位と追跡できない部位が生じる。光シャッター12の開口部の走査方向は、追跡する注目対象の特徴(エッジ)に関して視差画像間での視差を生じさせる方向に対応する。したがって、窓問題を回避するためには、特徴が持つ1次元分布と直交する方向に光シャッター12の開口部を走査し、または撮像装置13を移動する必要がある。そして、走査方向あるいは移動方向に対応した視差画像を得て、視差画像間における注目する特徴(エッジ)に対して直交する方向の移動量を求めればよいことになる。すなわち、視差画像間における特徴の対応付け処理は、その特徴について視差が生じる方向についてのみ行えばよい。
【0049】
これにより、光シャッター12の開口部および画像の読み出し位置の走査方向を、特徴の持つ1次元分布に直交する方向に設定することで、注目する特徴(エッジ)までの距離を得ることができる。したがって、図13に示すように、着目する特徴が縦エッジの場合は横方向に走査し、着目する特徴が横エッジの場合には縦方向に走査する。このようにして視差画像を得ることで、注目する特徴(エッジ)までの距離を算出しやすくすることが可能となる。
【0050】
(上記第2の実施形態は、請求項4に記載された発明に対応した実施形態である。)
上記第2の実施形態においては、注目対象の特徴として、縦エッジが強く観測される場合は、光シャッター12の開口部および撮像装置13の画像読み出し位置を横方向に移動し、横エッジが強く観測される場合には、光シャッター12の開口部および撮像装置13の画像読み出し位置を縦方向に移動させる。すなわち、強い特徴の分布(主軸)方向とは直交する方向に光シャッター12の開口部および撮像装置13の画像の読み出し位置を走査する。これにより、注目する特徴の走査方向の変化を追跡する性能が向上し、注目する特徴の位置をより正確に観測することが可能となる。したがって、注目対象までの距離を正確に算出することができる。
【0051】
上記効果は、請求項4に記載された技術内容によって達成される効果に相当する。
【0052】
次に、この発明の第3の実施形態について説明する。
【0053】
追跡する注目対象を一定のステップ幅で走査するモーションステレオにおいて、異なる位置にある複数の注目対象を追跡する際に、注目対象までの距離に応じて注目対象の撮像面上での移動量が異なる。比較的観測点に近いところに存在する注目対象の像上での移動量は大きくなり、遠いところに存在する対象の像上での移動量は小さくなる。図5にその様子を示す。
【0054】
図5において、一定の移動幅HでカメラをB1からB3まで走査する。このとき、注目対象A1、A2の像上での位置はそれぞれ、C11→C12→C13、C21→C22→C23へと移動する。注目対象A1、A2までの距離を測定したい場合に、注目対象A2の移動量が少なくなるように光シャッター12の開口部の走査幅を設定すると、注目対象A1の像上での移動量は微小となる。このため、算出される注目対象A1までの距離を精度良く検出できる視差が得られるまで走査を繰り返さなくてはならない。
【0055】
注目対象A2までの距離を精度良く算出できる視差が得られた後は、走査幅を注目対象A1の像上での移動量が探索領域S中に収まる範囲で最大に設定する。これにより、注目対象A1までの距離を迅速に算出することができる。すなわち、観測する注目対象がひとつの場合は、走査幅を対象の像上での移動量が探索領域S中に収まる範囲で最大になるように設定する。一方、観測する注目対象が複数の場合には、観測点に近い対象ほど像上での移動量が大きくなるので、最初は観測点に近い対象の像上の移動量が探索領域S中に納まるように設定して近い対象までの距離を算出する。続いて、次に近い対象の移動量が探索領域S中に納まるように走査幅を設定して、注目対象までの距離を算出していく。このように、近い位置に存在する注目対象から遠い位置に存在する注目対象へと順次注目対象を変更しながら走査幅を最適化していくことにより、注目対象までの距離を迅速に算出することができる。
【0056】
(上記第3の実施形態は、請求項5に記載された発明に対応した実施形態である。)
上記第3の実施形態においては、光シャッター12の開口部および画像読み出し位置の走査ステップ幅に応じて、注目対象の像上での移動量を観測する。走査ステップ幅が小さく注目対象の移動量が極めて小さい場合は、走査ステップ幅を大きくすることで走査速度を向上させるように、像上での対象の移動量に応じて走査ステップ幅を変化させる。これにより、注目対象の追跡処理を高速化することができ、注目対象までの距離を迅速に算出することが可能となる。
【0057】
上記効果は、請求項5に記載された技術内容によって達成される効果に相当する。
【0058】
次に、この発明の第4の実施形態について説明する。
【0059】
この第4の実施形態の特徴とするところは、視差の変化に伴い、注目対象が隠蔽される場合、ならびに新たに注目対象が出現する場合に、注目対象の位置を正確に検出するようにしたことにある。視差の変化に伴い、注目対象が隠蔽される過程、新たに注目対象が出現する過程での注目対象の検出について、図14を参照して説明する。
【0060】
図14において、撮像位置B1にて取得した画像をI1、撮像位置B2にて取得した画像をI2、撮像位置B3にて取得した画像をI3とする。注目領域Wについて、撮像位置をB3→B2→B1と移動させながら撮像する場合に、注目領域Wは撮像位置がB2からB1に変化する際に車両A1に隠蔽される。注目領域Wをマッチング処理で追跡することにより、一致度が閾値よりも低くなった時点で注目領域Wが隠蔽されたことにより消失したと判定できる。
【0061】
逆に、撮像位置がB1からB2に変化することで注目領域Wは新たに出現することになる。特に注目領域を限定せず、全画像上を均等にブロックに区分し、各ブロックについて連続視差画像間で追跡処理を行う場合は、視差画像を得る途中で新たに出現した領域には新たに監視領域を設定する。新たに設定された監視領域についても続く連続視差画像間で追跡処理を行うことにより、視差画像間の対応関係より距離を算出することが可能となる。すなわち、注目対象が隠蔽される場合ならびに新たに出現する場合の双方ともに、対象が見えている視差画像I2、I3を用いることによって注目領域Wまでの距離を得ることができる。
【0062】
(上記第4の実施形態は、請求項6又は7に記載された発明に対応した実施形態である。)
上記第4の実施形態においては、注目対象を連続的に追跡し、注目対象が隠蔽される直前までの画像情報を用いて注目対象までの距離を算出している。これにより、複眼スレテオ視で発生する、一方の画像で観測される特徴が他方の画像中には存在しないといった不対応問題を回避することが可能となる。
【0063】
また、走査の過程で新たに出現した注目対象を最大走査範囲内で追跡するようにしているので、複眼スレテオ視で発生する、一方の画像で観測される特徴が他方の画像中には存在しないといった不対応問題を回避することが可能となる。
【0064】
上記効果は、請求項6又は7に記載された技術内容によって達成される効果に相当する。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る画像処理装置の構成を示す図である。
【図2】モーションステレオの原理を説明するための図である。
【図3】ステレオ画像処理における対応点探索処理を説明するための図である。
【図4】開口部の走査によりモーションステレオの原理を説明するための図である。
【図5】モーションステレオにより得られる連続視差画像を説明するための図である。
【図6】モーションステレオのステップ幅の変更を説明するための図である。
【図7】連続視差画像の取得原理を説明するための図である。
【図8】注目対象の移動により測定位置に誤りを生じる場合を説明するための図である。
【図9】走査速度を速くすることにより測定位置誤差を小さくなる場合を説明するための図である。
【図10】注目対象の追跡処理を説明するための図である。
【図11】注目対象までの距離を算出する処理を示すフローチャートである。
【図12】窓問題を説明するための図である。
【図13】特徴方向と走査方向の関係を示す図である。
【図14】対象が隠蔽、出現する場合について説明するための図である。
【符号の説明】
11 レンズ
12 光シャッター
13 撮像装置
14 フレームメモリ
15 演算装置
16 駆動装置
151 追跡処理部
152 距離算出部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus that measures a distance to a target to be tracked based on parallax images captured continuously.
[0002]
[Prior art]
Image processing for obtaining information on the depth direction of an observation target using multiple images is an artificial visual function that restores the three-dimensional structure of the target in the field of computer vision and machine vision and helps to recognize the outside world. It is one of the important methods to realize. A representative method of extracting and restoring depth information of a target using different parallax images is stereo image processing. Here, the parallax image is an image obtained by photographing the same object or the same scene by two or more cameras installed in different places. The stereo image processing is a process of extracting distance and depth information to an observation target using a plurality of parallax images.
[0003]
In conventional stereo image processing using a plurality of cameras, an image formation position of the same object is specified from images taken by each camera, and a distance to the object is measured based on the principle of triangulation. Here, for the sake of simplicity, a two-lens stereoscopic view using two parallax images captured by two cameras will be described.
[0004]
The object of interest OBJ whose distance is to be measured is imaged by two cameras 1 and 2 from different viewpoints. At this time, camera parameters such as the relative positional relationship between camera 1 and camera 2 are known. A region W2 corresponding to the region W1 including the target OBJ in the image I1 captured by the camera 1 is obtained from the image I2 of the camera 2 capturing the target OBJ from a viewpoint different from that of the camera 1. Thus, the distance to the target OBJ is calculated based on the principle of triangulation from the position of the region W1 and the position of the region W2 in the images I1 and I2, and the camera parameters.
[0005]
A matching process such as block matching is used to specify an area W2 corresponding to the area W1 including the target OBJ in the image I1 on the image I2. The matching process is a process of determining a correspondence between pixels or regions between a plurality of parallax images. In this matching process, the correlation value or the SAD (Sum of
Absolute Difference (sum of absolute values of differences) is used as an index indicating the degree of matching.
[0006]
On the other hand, as another method of acquiring a parallax image, there is a method of acquiring a parallax image by moving a monocular camera. This method of acquiring a parallax image by moving the monocular camera is called motion stereo.
[0007]
[Problems to be solved by the invention]
In the above-described compound-eye stereo image processing, when a plurality of parallax images have relatively small parallax and little change in the order of appearance of feature points such as edges and patterns, an area W2 corresponding to the area W1 in the image I1. Is relatively easy to obtain from the image I2. Further, since the search range when searching for the region W2 in the image I2 can be reduced, it is possible to suppress the amount of calculation when calculating the distance.
[0008]
However, when the parallax between the image I1 and the image I2 is large, there is a problem of incompatibility typified by occlusion that feature points are present in one image but not in the other image. Furthermore, since the parallax between the images is large, the search range of the corresponding area is large, and it has been difficult to associate feature points. In particular, when the region of interest is a part of the repetition pattern, the repetition pattern may be included in the search region. For this reason, there is a possibility that an erroneous correspondence such as a case where the target of interest cannot be uniquely determined in the search area or an erroneous correspondence may occur.
[0009]
In such a case, an erroneous response as described in JP-A-2001-184497, JP-A-2001-153633, JP-A-2000-121319, and JP-A-10-289316 is prevented. Or additional processing for detecting an erroneous response has been required. Alternatively, it is necessary to add a complicated elastic matching algorithm for performing flexible association. Performing such additional processing has caused a problem that the above-described series of image processing for calculating the distance to the target becomes complicated and the load increases.
[0010]
On the other hand, in a monocular motion stereo, by sequentially acquiring parallax images while moving the camera, a continuous parallax image with little change between images can be obtained. However, on the other hand, a mechanism for moving the camera is required, and there has been a problem that the device becomes large.
[0011]
Furthermore, when acquiring distance and depth information to a moving target of interest, the viewpoint must be moved in an order faster than the moving speed of the target of interest. For this reason, accurate distance and depth information to the moving target of interest could not be obtained.
[0012]
Further, when using the distance and depth information for, for example, driving control of a vehicle, the distance information must be acquired within a control cycle, so that a continuous parallax image is acquired at a high speed, and the distance and depth information are acquired within the acquisition cycle of the parallax image. This caused a problem that the distance had to be calculated as quickly as possible.
[0013]
Therefore, the present invention has been made in view of the above, and an object of the present invention is to provide an image processing apparatus that avoids the problem of disparity of a parallax image and quickly obtains a distance to a target. is there.
[0014]
[Means for Solving the Problems]
In order to achieve the above object, means for solving the problems of the present invention include: an imaging unit for imaging an image; an imaging direction control unit for controlling a direction of imaging by the imaging unit; A timing control unit for controlling a timing and a change amount of a direction in which the imaging unit captures an image; a first extraction unit for extracting a target to be tracked from the first image captured by the imaging unit; Area determining means for determining an area for extracting the target of interest to be tracked from the second image captured by the image capturing means based on the amount of change in the direction in which the image capturing means captures the second image captured by the image capturing means A second extraction unit for extracting the target of interest to be tracked from an area of the image determined by the area determination unit; and a second extraction unit for extracting the target of interest from the first image by the first extraction unit. Distance calculating means for calculating a distance between the image pickup means and the target of interest based on image information of the target of interest and the image information of the target of interest extracted from the second image by the second extracting means And characterized in that:
[0015]
【The invention's effect】
As described above, according to the present invention, it is possible to provide an image processing apparatus that avoids a problem of disparity in a parallax image and quickly obtains a distance to a target.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0017]
FIG. 1 is a diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention. The image processing apparatus according to the embodiment shown in FIG. 1 includes a lens 11, an optical shutter 12 such as a liquid crystal shutter or a PLZT optical shutter that can electrically control the position of an opening arbitrarily, and a photoelectric converter such as a CMOS or a CCD. The imaging device 13 that performs the conversion, the frame memory 14 that stores the image captured by the imaging device 13, the arithmetic device 15, the position of the opening of the optical shutter 12, the image reading position of the imaging device 13, and the arithmetic operation of the distance arithmetic unit 152 The driving device 16 for controlling the timing is provided.
[0018]
The calculation unit 15 tracks the target of interest for which the distance is to be calculated, and performs a process required to obtain a continuous parallax image with sufficient parallax, and the tracking processing unit 151 And a distance calculating unit 152 that calculates a distance as three-dimensional position information to a target of interest based on the amount of change in the image position between the obtained continuous parallax images, the focal length, and the eye distance.
[0019]
The imaging device 13 functions as an imaging unit that captures an image. The optical shutter 12 functions as an imaging direction control unit that controls the imaging direction of the imaging device 13. The driving device 16 functions as timing control means for controlling the timing at which the imaging device 13 captures an image and the amount of change in the direction in which the imaging device 13 captures an image. The tracking processing unit 151 of the arithmetic device 15 includes a first extraction unit that extracts a target of interest to be tracked from the first image captured by the imaging device 13, based on a change amount in a direction in which the imaging device 13 captures an image. An area determining unit that determines an area for extracting a target of interest to be tracked from the second image captured by the imaging device 13, and an area that is determined by the area determining unit in the second image captured by the imaging device 13. , Functions as a second extraction unit for extracting a target to be tracked. The distance calculation unit 152 of the calculation device 16 converts the attention target image information extracted from the first image by the tracking processing unit 151 and the attention target image information extracted from the second image by the tracking processing unit 151. Based on this, it functions as a distance calculation unit that calculates the distance between the imaging device 13 and the target of interest.
[0020]
Next, FIG. 2 for explaining the principle of motion stereo, and FIG. 3 for explaining the corresponding point search processing in stereo image processing, show an example of measuring the distance to the target using the principle of motion stereo. This will be described with reference to FIG.
[0021]
As shown in FIG. 2, after obtaining the image I1 at the camera position C1, the camera is moved from the position C1 to obtain the image I2 at the position C2. The process of obtaining the correspondence of the target (region) of interest from the different parallax images I1 and I2 and calculating the distance to the target will be described as an example of calculating the distance to the region W1 in the image I1 in FIG. .
[0022]
In FIG. 3, in order to obtain an area W2 corresponding to the area W1 in the image I1 in the image I2, for example, the area W1 is used as a template, and an area W corresponding to the area W1 is assumed in the search area S in the image I2. . Then, while scanning the area W in the search area S from left to right in a very small amount (for example, one pixel at a time), the correlation value between the area W and the area W1 is calculated, and the degree of coincidence (or matching error) of the correlation values is calculated. It is quantified to obtain a correlation diagram shown in FIG.
[0023]
In FIG. 3C, it is assumed that the region W having the highest matching degree is a region W2 in the image I2 corresponding to the region of interest W1 in the image I1. Assuming that the pixel position of the region W1 on the image I1 is (x1, y1) and the position of the region W2 on the image I2 is (x2, y2), the camera is moved by a distance H in a direction perpendicular to the optical axis. At this time, the coordinates (x, y, z) of the attention area W1 in the three-dimensional space are:
(Equation 1)
x = x1 · H / (x1-x2)
y = y1 · H / (x1-x2)
= Y2 · H / (x1-x2)
z = fH / (x1-x2)
Is calculated as Here, f is the focal length.
[0024]
As a method of obtaining a parallax image, in addition to the method of obtaining a parallax image by moving the camera position as described above, there is a method of realizing a different shutter opening position and an image reading position as shown in FIG. In FIG. 4, the image of the imaging region C1 on the imaging device 13 when the opening B1 of the optical shutter 12 is opened and the image of the imaging region C2 on the imaging device 13 when the opening B2 is opened are shown. A different parallax image is obtained from each of the read images.
[0025]
On the other hand, when a plurality of openings of the optical shutter 12 are opened and images formed at different positions on the imaging device 13 are read out, a parallax image acquisition method similar to that of the compound-eye stereo image processing is used. When a different parallax image is obtained by scanning the opening of the optical shutter 12, the method is the same as the method of obtaining a parallax image by motion stereo.
[0026]
In the stereo image processing, in order to obtain relative three-dimensional position information such as a distance from an observation point to a target of interest, a process of obtaining a correspondence of the target of interest between parallax images is essential. In the process of obtaining the correspondence between the different parallax images, the reliability of the correspondence can be improved and the processing load can be reduced by using the continuous parallax images obtained continuously by changing the parallax little by little. Can be done.
[0027]
As shown in FIG. 3, when a region W2 corresponding to the reference region W1 is obtained in the image I2, and when the optical axis directions of the cameras are always parallel, the feature of the target to be noted that the parallax is large ( The appearance of the region) and the position on the image differ greatly between the images. Therefore, it is necessary to set a large search area S for searching the corresponding area W2. When the search region S becomes large, a case may occur in which both the feature of the target object and the similar feature are included in the search region S. For this reason, there is a possibility of an erroneous response, and the number of repetitions of the matching process increases, thereby increasing the amount of calculation.
[0028]
On the other hand, when the parallax is relatively small and the order of appearance or deformation of the feature of interest is small, the search region S for searching the corresponding region W2 is set relatively small, so that the feature of the target of interest in the search region S is set. It is possible to exclude the possibility that features similar to are included. Further, since the number of times of the matching process can be reduced, the association can be performed relatively easily. For these reasons, it is understood that the use of continuous parallax images is useful in stereo image processing.
[0029]
In order to acquire a continuous parallax image by the compound-eye stereo method, as shown in FIG. 5, it is necessary to arrange a plurality of cameras B1, B2, and B3 at different positions so as to reduce the parallax, and to acquire an image. There is. On the other hand, in order to acquire a continuous parallax image by the motion stereo method, as shown in FIG. 6, an image is acquired while continuously moving the camera position from B1 to B2 to B3 using one camera unit. I do. Alternatively, as shown in FIG. 7, under the control of the driving device 16, the opening of the optical shutter 12 is continuously moved little by little from the opening B1 to the opening B2, and the position of the opening is determined. Synchronously, a continuous parallax image is obtained by scanning the image reading position of the imaging device 13 from the imaging region C1 to the imaging region C2 under the control of the driving device 16.
[0030]
In such a continuous parallax image acquisition method, when the target of interest does not move, the acquired continuous parallax images are subjected to corresponding point detection processing, and after the feature points are associated with each other, 3 The dimensional coordinates may be calculated. For this reason, the time lag for acquiring each parallax image is not a problem.
[0031]
On the other hand, when the target moves, it is required to acquire a continuous parallax image faster than the moving speed of the target. Therefore, in the process of acquiring a continuous parallax image, if the movement of the target cannot be ignored, an error occurs in calculating the distance to the target. Alternatively, a case occurs where the distance is not obtained.
[0032]
For example, as shown in FIG. 8A, when the target of interest moves from A1 to A2 and A3 while the imaging position moves from B1 to B2 and B3, the relationship between the continuous parallax image and the imaging position Is calculated at a position farther than the actual position. Conversely, if the moving speed of the image of the target A on the image is faster than the speed at which the continuous parallax image is obtained, a negative distance is calculated. Further, as shown in FIG. 8B, when the target of interest changes from A1 to A2 and A3 with the change of the imaging position, that is, when the imaging position of the target of interest A between the continuous parallax images does not change. Cannot calculate the three-dimensional position of the target A.
[0033]
Such a state can be avoided by tracking the target while obtaining a continuous parallax image as fast as the target can be approximated as not moving. As shown in FIG. 9, the position of the target of interest calculated by moving the imaging position from C1 to C2 and C3 faster than the speed at which the target of interest A moves from the position A1 to A2 and A3 is: It is almost the same as the actual position of the target A. Thus, the faster the parallax moves, the smaller the error in the calculated position.
[0034]
It is not realistic to scan the camera position at high speed in order to speed up the movement of parallax, even from the mechanism thereof. However, in the case of the optical shutter 12 used in this embodiment, since the opening position can be arbitrarily controlled electrically, the opening position can be scanned at high speed.
[0035]
In order to acquire a continuous parallax image while scanning the opening of the optical shutter 12 at high speed, it is necessary to read the image at a high frame rate synchronized with the scanning speed of the opening of the optical shutter 12. Imaging at a frame rate at which the movement of the target of interest can be ignored (it can be approximated to a stationary state) has a great effect on the tracking process of the target of interest. By increasing the frame rate of the imaging device 13, the amount of movement on the image of the target of interest decreases. This means that a search area for searching for a target of interest can be limited to an extremely narrow range between temporally consecutive parallax images.
[0036]
FIG. 10 shows the relationship between the amount of movement of the opening of the optical shutter 12 and the image forming position on the imaging surface of the imaging device 13. When the aperture of the optical shutter 12 is fixed and the frame rate is sufficiently higher than the moving speed of the target, the change in the imaging position due to the movement of the target on the imaging surface is very small, and I can ignore it.
[0037]
Next, as shown in FIG. 10A, when the opening of the optical shutter 12 is moved from C (t) to C (t + Δt) in a continuous time, an image is formed on the imaging surface of the target object. The position P moves from P (t) to P (t + Δt). At this time, since the frame rate is sufficiently high, Δt is minute, and the change in the imaging position P is minute. Thus, the search range S (t + Δt) for searching the imaging position P (t + Δt) can be limited to the vicinity of P (t). As the search range S (t + Δt) can be reduced, the number of matching processes for searching for a corresponding point between the parallax images decreases. Further, since extra information does not enter the search area S (t + Δt), it is possible to avoid occurrence of an erroneous response.
[0038]
The above description also holds true for a motion stereo that obtains a continuous parallax image by scanning the opening of the optical shutter 12 and the reading position of the imaging device 13 at high speed. Therefore, the uniqueness of the correspondence between the continuous parallax images obtained by tracking the target of interest is guaranteed.
[0039]
Next, the process of calculating the distance of the target of interest will be described with reference to the flowchart shown in FIG.
[0040]
In FIG. 11, in step S1, the target of interest is imaged by the imaging device 13. Subsequently, in step S2, a region of interest is defined from the captured image. The region of interest may be individual regions (plural regions) obtained by dividing the entire image into rectangular regions of equal size. Next, in step S3, the individual regions defined in step S2 are registered as patterns as reference images used in the matching process in step S7 described later. The reference image may be a grayscale image, an image on which edge extraction processing has been performed, or a binarized image. Next, in step S4, a search area for searching for an area corresponding to each reference area in the subsequently acquired parallax image is defined. When acquiring a continuous parallax image at a high speed, since the movement of the attention area between consecutive parallax images is small, for example, each attention area defined in step S2 is set by enlarging it to an area obtained by enlarging a few pixels in the vicinity. Alternatively, an area enlarged by several pixels only in the scanning direction may be set as the search area.
[0041]
Next, in step S5, the opening of the optical shutter 12 is moved by a very small amount (for example, several pixels when the optical shutter 12 is a liquid crystal shutter), and then an image is captured in step S6. In step S 6, the image is read out by linking the imaging range with the opening position of the optical shutter 12 and stored in the frame memory 14. Next, in step S7, for each of the target patterns registered in step S3, the position where the degree of coincidence is highest is detected from the search regions corresponding to each of the target patterns defined in step S4, and each target region Corresponds to the position in the image acquired in step S6. When the correspondences are obtained for all the corresponding regions, in step S8, a search region for searching for a region corresponding to each reference region in a subsequently acquired parallax image is newly defined, similarly to step S4. .
[0042]
Next, in step S9, it is determined whether sufficient parallax has been obtained for each region of interest. For an area for which it has been determined that sufficient parallax has been obtained, the distance to the target of interest is calculated as three-dimensional position information of the target area based on the amount of change in image position between continuous parallax images, the focal length, and the eye distance. . For the region where it is determined that sufficient parallax has not been obtained, the process returns to step S5, and the opening position of the optical shutter 12 is further moved by a very small amount. Thereafter, the processing up to step S9 is repeatedly performed. In step S9, when the scanning range of the opening of the optical shutter 12 has reached the limit, the distance to the target of interest is calculated as three-dimensional position information of each region using the information obtained so far.
[0043]
(The first embodiment is an embodiment corresponding to the invention described in any one of claims 1, 2, and 3.)
In the first embodiment, since a continuous parallax image with sufficient parallax is obtained, the distance to the target of interest can be accurately and quickly obtained. In addition, by moving the opening of the optical shutter 12 at high speed and moving the image reading position of the imaging device 13 at high speed in synchronization with the movement of the opening of the optical shutter 12, continuous parallax is achieved in tracking the target of interest. The search range of the corresponding region between the images is reduced, and extra information included in the search range is reduced. Thereby, it is possible to avoid an erroneous correspondence between the continuous parallax images.
[0044]
The above effects correspond to the effects achieved by the technical contents described in any one of claims 1, 2 and 3.
[0045]
Next, a second embodiment of the present invention will be described.
[0046]
The feature of the second embodiment is that, in the continuous disparity image acquired as described above, when edge information is used as a feature on the image, it corresponds to the direction (direction) of the edge. The direction in which the opening of the optical shutter 12 is scanned is set. If the edge of interest has a distribution only in the one-dimensional direction, it is difficult to detect a moving component parallel to the edge.
[0047]
As shown in FIG. 12, for example, when attention is paid to the horizontal edge of the roof portion of the vehicle as a feature point, if the horizontal edge has a distribution only in the y direction, the opening of the optical shutter 12 is parallel to the horizontal edge. Is scanned, the parallax images shown in FIGS. 12A and 12B are obtained. When the regions of interest W1 and W2 are associated with each other between the obtained parallax images, since the edge of interest has a distribution only in a single direction, the position is limited in a direction parallel to the edge. It has no features and it is difficult to uniquely determine the correspondence. As described above, when the feature of interest has only a one-dimensional distribution and only a part of the feature is captured, a “window problem” occurs in which a moving component in the distribution direction cannot be extracted.
[0048]
In order to avoid this window problem, it is conceivable to use only features having a two-dimensional distribution. However, at a location where the feature has only a one-dimensional distribution, there are portions that can be tracked and portions that cannot be tracked. The scanning direction of the opening of the optical shutter 12 corresponds to the direction in which parallax is generated between the parallax images with respect to the feature (edge) of the target to be tracked. Therefore, in order to avoid the window problem, it is necessary to scan the opening of the optical shutter 12 or move the imaging device 13 in a direction orthogonal to the one-dimensional distribution of the feature. Then, a parallax image corresponding to the scanning direction or the moving direction is obtained, and the amount of movement in the direction orthogonal to the feature (edge) of interest between the parallax images may be obtained. That is, the process of associating a feature between parallax images may be performed only in a direction in which parallax occurs in the feature.
[0049]
By setting the scanning direction of the opening of the optical shutter 12 and the image reading position to a direction orthogonal to the one-dimensional distribution of the feature, the distance to the feature (edge) of interest can be obtained. Therefore, as shown in FIG. 13, when the feature of interest is a vertical edge, scanning is performed in the horizontal direction, and when the feature of interest is a horizontal edge, scanning is performed in the vertical direction. By obtaining a parallax image in this manner, it is possible to easily calculate a distance to a feature (edge) of interest.
[0050]
(The second embodiment is an embodiment corresponding to the invention described in claim 4.)
In the second embodiment, when a vertical edge is strongly observed as a feature of interest, the opening of the optical shutter 12 and the image reading position of the imaging device 13 are moved in the horizontal direction, and the horizontal edge becomes strong. When it is observed, the opening of the optical shutter 12 and the image reading position of the imaging device 13 are moved in the vertical direction. In other words, the opening of the optical shutter 12 and the image reading position of the image pickup device 13 are scanned in a direction orthogonal to the strong feature distribution (principal axis) direction. As a result, the performance of tracking the change in the scanning direction of the feature of interest is improved, and the position of the feature of interest can be more accurately observed. Therefore, the distance to the target can be accurately calculated.
[0051]
The above effects correspond to the effects achieved by the technical contents of the fourth aspect.
[0052]
Next, a third embodiment of the present invention will be described.
[0053]
In motion stereo that scans a tracked target at a fixed step width, when tracking multiple targets at different positions, the amount of movement of the target on the imaging surface differs depending on the distance to the target. . The amount of movement on the image of the target of interest located relatively close to the observation point is large, and the amount of movement on the image of the object located far away is small. FIG. 5 shows this state.
[0054]
In FIG. 5, the camera scans from B1 to B3 with a constant moving width H. At this time, the positions of the attention targets A1 and A2 on the image move in the order of C11 → C12 → C13 and C21 → C22 → C23, respectively. When it is desired to measure the distances to the attention targets A1 and A2, if the scanning width of the opening of the optical shutter 12 is set so as to reduce the movement amount of the attention target A2, the movement amount of the attention target A1 on the image is minute. It becomes. Therefore, scanning must be repeated until a parallax that can accurately detect the calculated distance to the target A1 is obtained.
[0055]
After a parallax that can accurately calculate the distance to the target A2 is obtained, the scanning width is set to a maximum value within a range where the movement amount of the target A1 on the image falls within the search area S. As a result, the distance to the target A1 can be quickly calculated. That is, when there is only one target to be observed, the scanning width is set so that the movement amount of the target on the image falls within the search area S. On the other hand, when there are a plurality of target objects to be observed, the movement amount on the image becomes larger as the object is closer to the observation point, so that the movement amount on the image of the object closer to the observation point is initially included in the search area S. And calculate the distance to the close target. Subsequently, the scanning width is set so that the moving amount of the next closest target falls within the search area S, and the distance to the target of interest is calculated. As described above, by optimizing the scanning width while sequentially changing the target of interest from the target of interest located at a close position to the target of interest located at a position far from the target, it is possible to quickly calculate the distance to the target of interest. it can.
[0056]
(The third embodiment is an embodiment corresponding to the invention described in claim 5.)
In the third embodiment, the movement amount on the image of the target of interest is observed according to the opening of the optical shutter 12 and the scanning step width of the image reading position. When the scanning step width is small and the moving amount of the target of interest is extremely small, the scanning step width is changed according to the moving amount of the target on the image so as to improve the scanning speed by increasing the scanning step width. As a result, the tracking process of the target of interest can be speeded up, and the distance to the target of interest can be calculated quickly.
[0057]
The above effects correspond to the effects achieved by the technical contents described in claim 5.
[0058]
Next, a fourth embodiment of the present invention will be described.
[0059]
The feature of the fourth embodiment is that the position of the target of interest is accurately detected when the target of interest is concealed due to a change in parallax and when a new target of interest appears. It is in. With reference to FIG. 14, a description will be given of a process in which the target of interest is concealed with a change in parallax and a process of detecting the target of interest in a process in which a new target of interest appears.
[0060]
In FIG. 14, the image acquired at the imaging position B1 is I1, the image acquired at the imaging position B2 is I2, and the image acquired at the imaging position B3 is I3. When the image of the attention area W is captured while the imaging position is moved from B3 to B2 to B1, the attention area W is hidden by the vehicle A1 when the imaging position changes from B2 to B1. By tracking the attention area W by the matching process, it can be determined that the attention area W has disappeared due to the concealment of the attention area W when the degree of coincidence becomes lower than the threshold value.
[0061]
Conversely, when the imaging position changes from B1 to B2, the attention area W newly appears. If the entire image is equally divided into blocks without particularly limiting the area of interest, and tracking processing is performed between continuous parallax images for each block, areas that newly appear during the acquisition of parallax images are newly monitored. Set the area. By performing tracking processing between successive continuous parallax images for the newly set monitoring area, it is possible to calculate the distance from the correspondence between the parallax images. That is, in both the case where the target of interest is concealed and the case where the target of interest newly appears, the distance to the target region W can be obtained by using the parallax images I2 and I3 in which the target is visible.
[0062]
(The fourth embodiment is an embodiment corresponding to the invention described in claim 6 or 7).
In the fourth embodiment, the target of interest is continuously tracked, and the distance to the target of interest is calculated using the image information immediately before the target of interest is hidden. This makes it possible to avoid the incompatibility problem that occurs in compound-eye stereo vision and in which the feature observed in one image does not exist in the other image.
[0063]
In addition, since the target of interest newly appearing in the scanning process is tracked within the maximum scanning range, the feature observed in one image, which occurs in compound-eye stereo vision, does not exist in the other image. This makes it possible to avoid such unresponsive problems.
[0064]
The above effects correspond to the effects achieved by the technical contents described in claim 6 or 7.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram for explaining the principle of motion stereo.
FIG. 3 is a diagram for explaining a corresponding point search process in stereo image processing.
FIG. 4 is a diagram for explaining the principle of motion stereo by scanning an opening.
FIG. 5 is a diagram illustrating a continuous parallax image obtained by motion stereo.
FIG. 6 is a diagram for explaining a change in the step width of the motion stereo.
FIG. 7 is a diagram for explaining a principle of acquiring a continuous parallax image.
FIG. 8 is a diagram illustrating a case where an error occurs in a measurement position due to movement of a target of interest.
FIG. 9 is a diagram for explaining a case where a measurement position error is reduced by increasing a scanning speed.
FIG. 10 is a diagram illustrating a tracking process of a target of interest.
FIG. 11 is a flowchart illustrating a process of calculating a distance to a target of interest.
FIG. 12 is a diagram for explaining a window problem.
FIG. 13 is a diagram illustrating a relationship between a feature direction and a scanning direction.
FIG. 14 is a diagram illustrating a case where a target is hidden and appears.
[Explanation of symbols]
11 lenses
12 Optical shutter
13 Imaging device
14 Frame memory
15 Arithmetic unit
16 Drive
151 tracking processing unit
152 Distance calculator

Claims (7)

画像を撮像する撮像手段と、
前記撮像手段が撮像する方向を制御する撮像方向制御手段と、
前記撮像手段が撮像するタイミングと、前記撮像手段が撮像する方向の変化量を制御するタイミング制御手段と、
前記撮像手段が撮像した第1の画像の中から追跡する注目対象を抽出する第1の抽出手段と、
前記撮像手段が撮像する方向の変化量に基づいて、前記撮像手段が撮像した第2の画像から追跡する前記注目対象を抽出する領域を決定する領域決定手段と、
前記撮像手段が撮像した前記第2の画像における、前記領域決定手段により決定された領域の中から、追跡する前記注目対象を抽出する第2の抽出手段と、
前記第1の抽出手段により前記第1の画像から抽出された前記注目対象の画像情報と、前記第2の抽出手段により前記第2の画像から抽出された前記注目対象の画像情報とに基づいて、前記撮像手段と前記注目対象との距離を算出する距離算出手段と
を有することを特徴とする画像処理装置。
Imaging means for capturing an image;
Imaging direction control means for controlling a direction in which the imaging means performs imaging,
Timing of imaging by the imaging means, timing control means for controlling the amount of change in the direction of imaging by the imaging means,
First extraction means for extracting a target of interest to be tracked from the first image captured by the imaging means;
An area determining unit that determines an area for extracting the target of interest to be tracked from the second image captured by the imaging unit, based on a change amount of a direction in which the imaging unit captures the image;
A second extraction unit that extracts the target of interest to be tracked from among the regions determined by the region determination unit in the second image captured by the imaging unit;
Based on the image information of the target of interest extracted from the first image by the first extraction unit, and the image information of the target of interest extracted from the second image by the second extraction unit An image processing apparatus comprising: a distance calculation unit that calculates a distance between the imaging unit and the target of interest.
前記撮像方向制御手段は、
開口部の位置を電気的に任意に移動させることにより、前記撮像手段が撮像する方向を変える光シャッターである
ことを特徴とする請求項1記載の画像処理装置。
The imaging direction control means,
The image processing apparatus according to claim 1, wherein the image processing device is an optical shutter that changes a direction in which the imaging unit captures an image by arbitrarily moving the position of the opening.
前記撮像装置の撮像速度、ならびに前記撮像方向制御手段が撮像方向を変化させる速度は、前記撮像装置に対して前記注目対象が静止している状態に近似できる速度である
ことを特徴とする請求項1又は2記載の画像処理装置。
The imaging speed of the imaging device and the speed at which the imaging direction control unit changes the imaging direction are speeds that can approximate a state where the target of interest is stationary with respect to the imaging device. 3. The image processing device according to 1 or 2.
前記注目対象として縦エッジ情報が強い場合は、前記撮像方向制御手段の撮像方向を横方向に走査し、前記撮像方向制御手段の撮像方向の走査位置およびタイミングに同期して前記撮像装置の読み出し位置を変化させ、前記注目対象までの距離を算出し、
前記注目対象として横エッジ情報が強い場合は、前記撮像方向制御手段の撮像方向を縦方向に走査し、前記撮像方向制御手段の撮像方向の走査位置およびタイミングに同期して前記撮像装置の読み出し位置を変化させ、前記注目対象までの距離を算出する
ことを特徴とする請求項1,2又は3のいずれか1項に記載の画像処理装置。
When the vertical edge information is strong as the target of interest, the imaging direction of the imaging direction control unit is scanned in the horizontal direction, and the reading position of the imaging device is synchronized with the scanning position and timing of the imaging direction control unit in the imaging direction. To calculate the distance to the target of interest,
When the horizontal edge information is strong as the target of interest, the imaging direction of the imaging direction control unit is scanned in the vertical direction, and the reading position of the imaging device is synchronized with the scanning position and timing of the imaging direction control unit in the imaging direction. The image processing apparatus according to claim 1, wherein the distance to the target of interest is calculated by changing the distance.
前記撮像装置に最も近い位置の前記注目対象から最も遠い前記注目対象へと順次注目対象を変え、それぞれの前記注目対象との距離に応じて前記撮像方向制御手段における撮像方向の移動量を最適化する
ことを特徴とする請求項1,2,3又は4のいずれか1項に記載の画像処理装置。
The target of interest is sequentially changed from the target of interest closest to the imaging device to the target of interest farthest, and the amount of movement of the image capturing direction in the image capturing direction control unit is optimized according to the distance to each of the target of interest. The image processing apparatus according to claim 1, wherein the image processing is performed.
前記撮像方向制御手段の走査による視線の変化に伴い、前記注目対象が隠蔽される場合は、前記注目対象が隠蔽されるまでに得られた視差画像に基づいて前記注目対象までの距離を算出する
ことを特徴とする請求項1,2,3,4又は5のいずれか1項に記載の画像処理装置。
When the target of interest is concealed due to a change in the line of sight caused by the scanning of the imaging direction control unit, the distance to the target of interest is calculated based on the parallax image obtained until the target of interest is concealed. The image processing apparatus according to claim 1, wherein:
前記撮像方向制御手段の走査による視線の変化に伴い、前記注目対象が出現する場合は、前記注目対象が出現した位置における前記撮像方向制御手段の撮像方向から、前記撮像方向制御手段の最大走査位置までに得られた視差画像、もしくは前記注目対象が隠蔽されるまでに得られた視差画像に基づいて前記注目対象までの距離を算出する
ことを特徴とする請求項1,2,3,4,5又は6のいずれか1項に記載の画像処理装置。
When the target of interest appears along with a change in the line of sight due to the scanning of the imaging direction control unit, the maximum scanning position of the imaging direction control unit is determined from the imaging direction of the imaging direction control unit at the position where the target of interest appears. The distance to the target of interest is calculated based on the parallax image obtained up to or the parallax image obtained until the target of interest is concealed. The image processing device according to any one of claims 5 and 6.
JP2002230993A 2002-08-08 2002-08-08 Image processing device Expired - Fee Related JP3988574B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002230993A JP3988574B2 (en) 2002-08-08 2002-08-08 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002230993A JP3988574B2 (en) 2002-08-08 2002-08-08 Image processing device

Publications (2)

Publication Number Publication Date
JP2004069583A true JP2004069583A (en) 2004-03-04
JP3988574B2 JP3988574B2 (en) 2007-10-10

Family

ID=32016887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002230993A Expired - Fee Related JP3988574B2 (en) 2002-08-08 2002-08-08 Image processing device

Country Status (1)

Country Link
JP (1) JP3988574B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006033282A (en) * 2004-07-14 2006-02-02 Olympus Corp Image forming device and method thereof
JP2006035416A (en) * 2004-07-06 2006-02-09 Commiss Energ Atom Method for gripping object by means of robot arm equipped with camera
JP2006318271A (en) * 2005-05-13 2006-11-24 Nissan Motor Co Ltd On-vehicle image processor and image processing method
JP2007272668A (en) * 2006-03-31 2007-10-18 Toyota Motor Corp Image processing apparatus and method
JP2007278845A (en) * 2006-04-06 2007-10-25 Topcon Corp Image processing apparatus and its processing method
JP2007322357A (en) * 2006-06-05 2007-12-13 Fujitsu Ltd Program, apparatus and method for measuring distance
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
WO2010044127A1 (en) * 2008-10-16 2010-04-22 三菱電機株式会社 Device for detecting height of obstacle outside vehicle
JP2011064427A (en) * 2009-09-18 2011-03-31 Mitsubishi Electric Corp Environment measuring device, equipment control system, environment measuring method and environment measuring program
JP2011211386A (en) * 2010-03-29 2011-10-20 Fujifilm Corp Multi-eye photographing apparatus and program
WO2014046213A1 (en) * 2012-09-21 2014-03-27 株式会社タダノ Periphery-information acquisition device for vehicle
WO2017056821A1 (en) * 2015-09-30 2017-04-06 ソニー株式会社 Information acquiring device and information acquiring method
CN114877974A (en) * 2022-06-08 2022-08-09 广州计量检测技术研究院 Automatic liquid level setting method, device and equipment of measuring glass measuring device

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006035416A (en) * 2004-07-06 2006-02-09 Commiss Energ Atom Method for gripping object by means of robot arm equipped with camera
JP2006033282A (en) * 2004-07-14 2006-02-02 Olympus Corp Image forming device and method thereof
JP4545503B2 (en) * 2004-07-14 2010-09-15 オリンパス株式会社 Image generating apparatus and method
JP4544028B2 (en) * 2005-05-13 2010-09-15 日産自動車株式会社 In-vehicle image processing apparatus and image processing method
JP2006318271A (en) * 2005-05-13 2006-11-24 Nissan Motor Co Ltd On-vehicle image processor and image processing method
JP2007272668A (en) * 2006-03-31 2007-10-18 Toyota Motor Corp Image processing apparatus and method
JP2007278845A (en) * 2006-04-06 2007-10-25 Topcon Corp Image processing apparatus and its processing method
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
JP2007322357A (en) * 2006-06-05 2007-12-13 Fujitsu Ltd Program, apparatus and method for measuring distance
WO2010044127A1 (en) * 2008-10-16 2010-04-22 三菱電機株式会社 Device for detecting height of obstacle outside vehicle
JP2011064427A (en) * 2009-09-18 2011-03-31 Mitsubishi Electric Corp Environment measuring device, equipment control system, environment measuring method and environment measuring program
JP2011211386A (en) * 2010-03-29 2011-10-20 Fujifilm Corp Multi-eye photographing apparatus and program
WO2014046213A1 (en) * 2012-09-21 2014-03-27 株式会社タダノ Periphery-information acquisition device for vehicle
US9300954B2 (en) 2012-09-21 2016-03-29 Tadano Ltd. Surrounding information-obtaining device for working vehicle
WO2017056821A1 (en) * 2015-09-30 2017-04-06 ソニー株式会社 Information acquiring device and information acquiring method
JPWO2017056821A1 (en) * 2015-09-30 2018-07-19 ソニー株式会社 Information acquisition apparatus and information acquisition method
US10839248B2 (en) 2015-09-30 2020-11-17 Sony Corporation Information acquisition apparatus and information acquisition method
CN114877974A (en) * 2022-06-08 2022-08-09 广州计量检测技术研究院 Automatic liquid level setting method, device and equipment of measuring glass measuring device
CN114877974B (en) * 2022-06-08 2022-12-23 广州计量检测技术研究院 Automatic liquid level setting method, device and equipment of measuring glass measuring device

Also Published As

Publication number Publication date
JP3988574B2 (en) 2007-10-10

Similar Documents

Publication Publication Date Title
JP6271609B2 (en) Autofocus for stereoscopic cameras
KR101862199B1 (en) Method and Fusion system of time-of-flight camera and stereo camera for reliable wide range depth acquisition
US7825948B2 (en) 3D video conferencing
KR100513055B1 (en) 3D scene model generation apparatus and method through the fusion of disparity map and depth map
KR100799990B1 (en) Device and Method for transforming 2-D Image into 3-D Image
CN104685513A (en) Feature based high resolution motion estimation from low resolution images captured using an array source
JP3988574B2 (en) Image processing device
JP2016152027A (en) Image processing device, image processing method and program
US20140192163A1 (en) Image pickup apparatus and integrated circuit therefor, image pickup method, image pickup program, and image pickup system
JP2006226965A (en) Image processing system, computer program and image processing method
JP2003304561A (en) Stereo image processing apparatus
JP2001266128A (en) Method and device for obtaining depth information and recording medium recording depth information obtaining program
JPH0814861A (en) Method of measuring three-dimensional shape and device therefor
JP4337203B2 (en) Distance image generating apparatus, distance image generating method, and program providing medium
JPH07181024A (en) Method and apparatus for measuring three-dimensional profile
JP6602286B2 (en) Image processing apparatus, image processing method, and program
JP2003296740A (en) Object monitoring method and object monitoring camera device
Sato et al. Efficient hundreds-baseline stereo by counting interest points for moving omni-directional multi-camera system
JPH08329110A (en) Method for processing picture
US20130076868A1 (en) Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same
JP2007233487A (en) Pedestrian detection method, device, and program
Alqahtani et al. 3d face tracking using stereo camera
Kollmitzer Object detection and measurement using stereo images
JP3525712B2 (en) Three-dimensional image capturing method and three-dimensional image capturing device
JP2006338203A (en) Image processor and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070709

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees