JP3655065B2 - Position / attitude detection device, position / attitude detection method, three-dimensional shape restoration device, and three-dimensional shape restoration method - Google Patents
Position / attitude detection device, position / attitude detection method, three-dimensional shape restoration device, and three-dimensional shape restoration method Download PDFInfo
- Publication number
- JP3655065B2 JP3655065B2 JP23785597A JP23785597A JP3655065B2 JP 3655065 B2 JP3655065 B2 JP 3655065B2 JP 23785597 A JP23785597 A JP 23785597A JP 23785597 A JP23785597 A JP 23785597A JP 3655065 B2 JP3655065 B2 JP 3655065B2
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- image input
- input means
- image
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、連続する複数枚の画像から撮影したときのカメラの位置,姿勢を検出する位置・姿勢検出装置と方法及び撮影した対象物の3次元形状を復元する3次元形状復元装置及び方法、特に精度が高い3次元形状の復元を少ない計算量で実現することに関するものである。
【0002】
【従来の技術】
対象物の3次元形状を復元する研究は自律移動ロボットの視覚をはじめとして様々な分野で進められている。特に近年は電子技術の飛躍的な進歩による計算機や電子機器の普及が急速に進み、手軽に3次元情報の立体表示が楽しめるようになった。それに対して実世界の対象物や情景の3次元構造を復元する技術の発展が期待されている。
【0003】
実世界の対象物の3次元構造を復元するため対象物までの距離や形状を測定する方法は、対象物に光波や超音波を照射する能動的な方法と、ステレオ画像法に代表される受動的な方法とがある。能動的な方法は、光や電波,音波等の波動を対象物に照射し、対象物からの反射波の伝播時間を計測して対象物までの距離を求める方法や、カメラと位置関係が既知の光源から特定パターンを持ったスリット光やスポット光等を対象物に照射し、その歪を観測して対象物の形状を求める光投影法などがある。この能動的な手法は一般的に装置の小型化に問題がある反面、高速でかつ高精度に距離を測定できるという特徴がある。
【0004】
一方、受動的な方法は、多眼立体視による方法と運動立体視による方法に大別される。多眼立体視による方法は、互いの位置と姿勢が既知である複数のカメラを用いて対象物を撮影し、撮影した画像から各画像間の特徴点又は領域の対応付けを行い、三角測量の原理により対象物の3次元形状を計算するという手順で行われる。この方法では画像に重畳されたノイズ等により対応付けの誤差が存在したり視差が十分にとれない場合に、大きな距離測定誤差を生じやすいという問題点がある。運動立体視による方法は、1台のカメラを移動させながら対象物を撮影し、連続する画像間の対応付けを行い、カメラの位置と姿勢及び対象物の3次元形状を計算するという手順で行われる。この方法も多眼立体視による方法と同様の問題点があるほか、多眼立体視とは異なり画像間のカメラ位置や姿勢情報が未知であり、一般的に複雑な非線形方程式を反復演算で解く必要がある。そのため計算量が膨大であり、その解も不安定になりやすい。この受動的な方法の問題点に対して画像以外に距離センサや加速度センサ,角速度センサ,磁気センサなどを併用して、小さな計算コストで3次元形状を復元する装置が、例えば特開平5−196437号公報や特開平7−181024号公報,特開平9−81790号公報等に示されている。
【0005】
特開平5-196437号公報に示された装置は、被写体の1点を直交投影のカメラで撮影し、そのときのカメラの姿勢を3軸ジャイロで求め、ボーティング法により被写体の3次元情報を抽出している。また、特開平7−181024号公報に示された装置は、カメラの移動量を検出する移動量検出手段を設け、移動量検出手段で得たカメラの移動量を基線長とし、この基線長と画像データによる対応点検策結果より被写体の3次元形状復元を行い、大規模になりがちな3次元形状測定装置の小型,軽量化を図っている。移動量検出手段としては慣性力を利用した角速度センサで画像入力手段の移動量を直接計測したり、計測者の動きを磁気センサや超音波センサ,光ファイバセンサ,圧力センサ等で検出して画像入力手段の移動量を算出している。特開平9−81790号公報等に示された装置は、カメラの動きを角度センサと加速度センサにより検出し、異なる視点からの光軸が任意の点で交わるように各視点における光軸方向を調整して、撮影時の視点を自由に選択できるようにするとともに各視点からの画像の座標軸が共通となるようにして、各画像間の対応付けを容易に行えるようにし、3次元形状を復元するときの処理の負担を軽減して処理速度を上げるようにしている。
【0006】
【発明が解決しようとする課題】
しかしながら特開平5-196437号公報に示されているように、直交投影を前提としていると、中心射影モデルのカメラで撮影した画像から3次元情報を抽出するには精度が不十分である。また、特開平7−181024号公報に示されているように、角速度センサ等の各種センサでカメラの移動量を算出する場合は、移動量を計算するときに各種センサからの信号を分析する必要があるため、移動量の誤差成分が累積的に蓄積されるという問題点がある。また、特開平9−81790号公報に示された装置ではカメラの動きを示すセンサ情報とあらかじめ設定された対象物とカメラの距離により算出した動きベクトルの推定値と画像処理により求めた動きベクトルの比較により被写体の検出を行っているが、対象物とカメラの距離があらかじめ設定されているため、特定の撮影条件のもとでのみ3次元形状の復元が可能である。さらに、光軸の向きを変えるための駆動機構が必要なため、装置の構造が複雑になってしまう。
【0007】
この発明はかかる問題点を解消するためになされたものであり、任意の撮影条件下で、カメラの位置,姿勢を検出する位置・姿勢検出装置と方法及び計算の負荷を少なくし、かつ精度の高い3次元形状復元を実現することができる3次元形状復元装置及び方法を得ることを目的とするものである。
【0008】
【課題を解決するための手段】
この発明に係る位置・姿勢検出装置は、画像入力手段と距離検出手段と姿勢検出手段及び並進成分演算手段を有し、画像入力手段は撮影位置と視点を変えて被写体の画像を入力し、距離検出手段は画像入力手段から得られた複数枚の画像上の特定のある1点に対応する被写体の注視点までの各視点からの距離を検出し、姿勢検出手段は各視点における画像入力手段の姿勢を算出し、並進成分演算手段は各視点における画像情報と注視点までの距離情報と画像入力手段の姿勢情報より、視点を変えたときの画像入力手段の並進成分を算出することを特徴とする。
【0009】
この発明に係る位置・姿勢検出方法は、撮影位置と視点を変えて画像入力手段で被写体の画像を入力し、視点を変えて得られた複数枚の画像上の特定のある1点に対応する被写体の注視点までの各視点からの距離を検出し、各視点における画像入力手段の姿勢を算出し、各視点における画像情報と注視点までの距離情報と画像入力手段の姿勢情報より、視点を変えたときの画像入力手段の並進成分を算出することを特徴とする。
【0010】
この発明に係わる3次元形状復元装置は、画像入力手段と距離検出手段と姿勢検出手段と並進成分演算手段と対応検出手段及び3次元演算手段を有し、画像入力手段は撮影位置と視点を変えて被写体の画像を入力し、距離検出手段は画像入力手段から得られた複数枚の画像上の特定のある1点又は複数点に対応する被写体の注視点までの各視点からの距離を検出し、姿勢検出手段は各視点における画像入力手段の姿勢を算出し、画像入力手段から得られた複数枚の画像上の特定のある1点又は複数点に対応する被写体の注視点までの各視点からの距離を検出し、並進成分演算手段は各視点における画像情報と注視点までの距離情報と画像入力手段の姿勢情報より、視点を変えたときの画像入力手段の並進成分を算出し、対応検出手段は画像入力手段の並進成分と姿勢情報より視点を変えて得られた複数枚の画像間の対応付けを行い、3次元演算手段は対応付け結果と画像入力手段の位置,姿勢情報により被写体の3次元形状を算出することを特徴とする。
【0011】
この発明に係る他の3次元形状復元装置は、画像入力手段と距離検出手段と姿勢検出手段と注視領域検定手段と並進成分演算手段と対応検出手段及び3次元演算手段を有し、画像入力手段は撮影位置と視点を変えて被写体の画像を入力し、距離検出手段は画像入力手段から得られた複数枚の画像上の特定の注視領域内のある1点に対応する被写体の注視点までの各視点からの距離を検出し、姿勢検出手段は各視点における画像入力手段の姿勢を算出し、注視領域検定手段は視点を変えて撮影した画像の注視領域内の被写体の変位量があらかじめ定めた閾値以下であることを確認し、並進成分演算手段は各視点における画像情報と注視点までの距離情報と画像入力手段の姿勢情報より視点を変えたときの画像入力手段の並進成分を算出し、対応検出手段は画像入力手段の並進成分と姿勢情報より視点を変えて得られた複数枚の画像間の対応付けを行い、3次元演算手段は対応付け結果と画像入力手段の位置,姿勢情報により被写体の3次元形状を算出することを特徴とする。
【0012】
上記注視領域検定手段における閾値を画像入力手段の光学系パラメーターにより調整する注視領域調整手段を有することが望ましい。
【0013】
また、上記姿勢検出手段に加速度センサや磁気センサ又は角速度センサを単独あるいは併用して使用すると良い。
【0014】
この発明に係る3次元形状復元方法は、撮影位置と視点を変えて画像入力手段で被写体の画像を入力し、視点を変えて得られた複数枚の画像上の特定のある1点又は複数点に対応する被写体の注視点までの各視点からの距離を検出し、各視点における画像入力手段の姿勢を算出し、各視点における画像情報と 1 又は複数の注視点までの距離情報と画像入力手段の姿勢情報より、視点を変えたときの画像入力手段の並進成分を算出し、画像入力手段の並進成分と姿勢情報より視点を変えて得られた複数枚の画像間の対応付けを行い、対応付け結果と画像入力手段の位置,姿勢情報により被写体の3次元形状を算出することを特徴とする3次元形状復元方法。
【0015】
この発明に係る他の3次元形状復元方法は、撮影位置と視点を変えて画像入力手段で被写体の画像を入力し、視点を変えて得られた複数枚の画像上の特定の注視領域内のある点に対応する被写体の注視点までの各視点からの距離を検出し、各視点における画像入力手段の姿勢を算出し、視点を変えて撮影した画像の注視領域内の被写体の変位量があらかじめ定めた閾値以下であることを確認し、各視点における画像情報と注視点までの距離情報と画像入力手段の姿勢情報より視点を変えたときの画像入力手段の並進成分を算出し、画像入力手段の並進成分と姿勢情報より視点を変えて得られた複数枚の画像間の対応付けを行い、対応付け結果と画像入力手段の位置,姿勢情報により被写体の3次元形状を算出することを特徴とする。上記閾値を画像入力手段の光学系パラメーターにより調整することが望ましい。
【0016】
【発明の実施の形態】
この発明の3次元形状復元装置は、画像入力手段と距離検出手段と直交する3軸方向の加速度センサから姿勢検出手段と並進成分演算手段と対応検出手段及び3次元演算手段を有する。そして同一の被写体を異なる2つの視点で撮影して被写体の3次元形状を復元するとき、撮影者が第1の視点と第2の視点から被写体のある1点までの距離を測定する注視点を決定する。注視点を決定したら第1の視点で画像入力手段により被写体を撮影し、距離検出手段で第1の視点から注視点までの距離を測定し、姿勢検出手段で第1の視点における画像入力手段の姿勢を測定する。次に画像入力手段を移動して第2の視点で被写体を撮影し、距離検出手段で第2の視点から注視点までの距離を測定し、姿勢検出手段で第2の視点における画像入力手段の姿勢を測定する。並進成分演算手段は各視点で撮影した画像データと各視点から注視点までの距離及び各視点における画像入力手段の姿勢情報から視点を変えたときの画像入力手段2の並進成分を算出する。対応検出手段は画像入力手段の並進成分と姿勢情報を利用して異なる視点で撮影した2枚の画像間の特徴点の対応付けを行う。3次元演算手段は対応検出手段の対応付け結果と並進成分及び姿勢情報より三角測量の原理で被写体の3次元構造を算出して復元する。
【0017】
このように第1の視点から注視点までの距離と第2の視点から注視点までの距離及び各視点における画像入力手段の姿勢情報から視点を変えたときの画像入力手段の並進成分を算出するから、少ない計算容量で精度良く3次元形状を復元することができる。
【0018】
また、姿勢検出手段として直交する3軸方向の加速度を測定する加速度センサを用いるから、静止した状態で2視点で被写体を撮影するときに、重力方向を検出することができ、重力方向に対する画像入力手段の姿勢を高精度で検出することができる。
【0019】
また、被写体に複数の注視点を設定して、各注視点から計算される複数の並進成分を用いて最終的な並進成分を決定し、決定した並進成分により被写体の3次元構造を復元すると、より精度の高い3次元形状を復元することができる。
【0020】
さらに、画像入力手段で撮影する画面の一定の領域を注視領域として固定し、異なる視点で被写体を撮影したときに、被写体の同じ位置が注視領域に入るようにすると、視点を変えたときの画像入力手段の並進成分をより少ない計算処理で算出することができる。
【0021】
【実施例】
図1はこの発明の一実施例の構成を示すブロック図である。図に示すように、3次元形状復元装置1は例えばデジタルカメラからなる画像入力手段2と距離検出手段3と姿勢検出手段4と並進成分演算手段5と対応検出手段6及び3次元演算手段7を有する。距離検出手段3は3角測量の原理を利用した赤外線ステレオ法、超音波等の波動を投射し被写体からの反射の伝播時間より距離を計測する方法、合焦時の距離情報を光学系に設置したエンコーダより得る方法などを利用して画像入力手段2から被写体のある1点の注視点までの距離を検出する。姿勢検出手段4は、例えば直交する3軸方向の加速度センサからなり、画像入力手段2が静止した状態で被写体を撮影するときの重力方向を検出して画像入力手段2の姿勢を測定する。並進成分演算手段5は被写体の注視点までの距離情報と画像入力手段2の姿勢情報より、視点を変えたときの画像入力手段2の並進成分を算出する。対応検出手段6は画像入力手段2の並進成分と姿勢情報より視点を変えて得られた複数枚の画像間の特定のある1点の対応付けを行う。3次元演算手段7は対応検出手段6の対応付け結果と画像入力手段2の位置,姿勢情報により被写体の3次元形状を算出し、ハードディスク等の記憶手段8等に出力する。
【0022】
上記のように構成された3次元形状復元装置1で、図2に示すように、同一の被写体9を第1の視点11と第2の視点12で撮影して被写体9の3次元形状を復元するときの動作を図3のフローチャートを参照して説明する。
【0023】
画像入力手段2で被写体9を撮影する前に、撮影者が第1の視点11と第2の視点12から被写体9のある1点までの距離を測定する注視点13を決定する(ステップS1)。この注視点13は、例えば図2に示すように、被写体9の特徴的な濃度分布を示すエッジ部等の小領域を自動選択する等各種の手法が利用される。注視点13を決定したら第1の視点11で画像入力手段2により被写体9を撮影し、図4の画面図に示すように、第1の視点11で撮影した画像面14で注視点13の位置に対応する対応点16aを特定する。また、距離検出手段3で第1の視点11から注視点13までの距離L1を測定し、姿勢検出手段4で第1の視点11における画像入力手段2の姿勢を測定する(ステップS2)。次に画像入力手段2を移動して第2の視点12で被写体9を撮影し、図4に示すように、第2の視点12で撮影した画像面15で注視点13の位置に対応する対応点16bを特定し、距離検出手段3で第2の視点12から注視点13までの距離L2を測定し、姿勢検出手段4で第2の視点12における画像入力手段2の姿勢を測定する(ステップS3)。
【0024】
ここで図5の説明図に示すように、第1の視点11において、画像面14上に互いに直交する向きにx軸とy軸をとり、光軸方向にz軸をとって、画像面14の対応点16aの座標を(x,y)とし画像面15の対応点16bの座標を(x1,y1)とすると、このxyz座標系を基準とした第1の視点11と第2の視点12との間の画像入力手段2の相対的な姿勢を表す回転行列Rは、画像入力装置2を第1の視点11から第2の視点12に移動したときのx軸とy軸及びz軸周りの回転角をそれぞれα,β,γとすると下記(1)式で表せる。
【0025】
【数1】
【0026】
この回転行列Rは姿勢検出手段4で検出した画像入力手段2の姿勢情報から得ることができ、第1の視点11から注視点13までの距離L1と第2の視点12から注視点13までの距離L2は距離検出手段3により得ることができる。したがって画像入力装置2の焦点距離f等の光学系パラメータが既知であれば、第1の視点11から画像面14の対応点16a(x,y)に対する視線の向きと第2の視点12から画像面15の対応点16b(x1,y1)に対する視線の向きを求めることができる。例えば図6に示すように、画像入力手段2が中心射影モデルの場合、第1の視点11を基準に3次元座標系をとり、回転行列Rの逆行列をIRとすると、第1の視点11から注視点13への単位視線ベクトルmと第2の視点12から注視点13への単位視線ベクトルIRm1は、それぞれ下記(2)式で表せる。
【0027】
【数2】
【0028】
したがって第1の視点11から注視点13までの距離L1と第2の視点12から注視点13までの距離L2と回転行列Rを得ることにより、画像入力手段2を第1の視点11から第2の視点12に移動したときの並進成分Dを下記(3)式で算出することができる。
【0029】
【数3】
【0030】
そこで並進成分演算手段5は第1の視点11と第2の視点12で撮影した画像データと、各視点11,12から注視点13までの距離L1,L2及び各視点11,12における画像入力手段2の姿勢情報から第1の視点11から第2の視点12に視点を変えたときの画像入力手段2の並進成分Dを算出する(ステップS4)。対応検出手段6は画像入力手段2の並進成分Dと姿勢情報を利用して、図4に示す第1の視点11と第2の視点12で撮影した2枚の画像面14,15の画像間の特徴点の対応付けを行う(ステップS5)。画像間の対応付けは、画像入力手段11の相対的な位置,姿勢情報が求められているので、2台のカメラで物体の像を捕らえるステレオ法における対応問題解法の基礎的拘束条件としてよく使用されるエピ極線拘束(epipolar constraint)を用いることができ、相関法,特徴照合法,疎密法等の局所的な画像特徴を用いる方法,時空間微分法を用いて移動領域を算出する方法等の一般的な手法により対応付けを行うことができる。3次元演算手段7は対応検出手段6の対応付け結果と並進成分D及び姿勢情報より三角測量の原理で被写体9の3次元構造を算出して復元する(ステップS6)。このようにして得られた位置,姿勢情報と3次元情報及び各画像データは必要に応じて記憶手段8に記録して保存する(ステップS7,S8)。
【0031】
このように第1の視点11から注視点13までの距離L1と第2の視点12から注視点13までの距離L2及び各視点11,12における画像入力手段2の姿勢情報から第1の視点11から第2の視点12に視点を変えたときの画像入力手段2の並進成分Dを算出するから、画像入力手段2の撮影位置と姿勢を精度良く検出することができるとともに少ない計算容量で精度良く3次元形状を復元することができる。
【0032】
また、姿勢検出手段4として直交する3軸方向の加速度を測定する加速度センサを用いるから、図2に示すように静止した状態で2視点11,12で被写体9を撮影するときに、重力方向を検出することができ、重力方向に対する画像入力手段2の姿勢を高精度で検出することができる。また、画像入力手段2を動かしながら被写体を撮影する場合には、加速度センサが出力する加速度信号を積分することにより、画像入力手段2の加速と位置情報(並進成分)を求めることができ、各視点から注視点までの距離情報と画像入力手段2の姿勢情報から算出した画像入力手段2の並進成分Dとの比較や両者の融合処理を行うこともできる。
【0033】
上記実施例は第1の視点11と第2の視点12から被写体9の1点の注視点13までの距離L1,L2と画像入力手段2の姿勢情報から第1の視点11から第2の視点12に視点を変えたときの画像入力手段2の並進成分Dを算出し、算出した並進成分Dと姿勢情報を利用して第1の視点11と第2の視点12で撮影した2枚の画像面14,15の画像間の特徴点の対応付けを行う場合について説明したが、各視点11,12から注視点13までの距離測定の誤差や2枚の画像面14,15における対応点16a,16bの対応付けの誤差により、演算により算出した各視点11,12から注視点13への視線ベクトルL1m,視線ベクトルL2IRm1の終点131,132が、図7に示すように一致しない場合があり、単一の注視点13のみから求めた並進成分Dに誤差が含まれる可能性がある。これを解消するためには被写体9に複数の注視点13を設定して、各注視点13から計算される並進成分を用いて最終的な並進成分を求めと良い。
【0034】
図8は被写体9に複数の注視点13a〜13nを設定して、各注視点13a〜13nから計算される並進成分を用いて最終的な並進成分を求める第2の実施例の3次元形状復元装置1aの構成を示すブロック図である。図に示すように、3次元形状復元装置1aには画像入力手段2と距離検出手段3と姿勢検出手段4と並進成分演算手段5と対応検出手段6及び3次元演算手段7のほかに並進成分演算手段5の後段に設けた並進成分決定手段21を有する。
【0035】
上記のように構成された3次元形状復元装置1aで図9に示すように被写体9に複数の注視点13a〜13nを設定して同一の被写体9を第1の視点11と第2の視点12で撮影して被写体9の3次元形状を復元するときの動作を図10のフローチャートを参照して説明する。
【0036】
画像入力手段2で被写体9を撮影する前に、撮影者が第1の視点11と第2の視点12から被写体9の複数の注視点13a〜13nを決定する(ステップS11)。注視点13a〜13nを決定したら第1の視点11で画像入力手段2により被写体9を撮影し、距離検出手段3で第1の視点11から各注視点13a〜13nまでの距離を測定し、姿勢検出手段4で第1の視点11における画像入力手段2の姿勢を測定する(ステップS12)。距離検出手段12は複数の注視点13a〜13nまでの距離を測定するため、能動的手法や合焦時の距離検出による方法等が利用して任意の点までの距離を測定できる構成になっている。第1の視点11における撮影と測定が終了したら画像入力手段2を移動して第2の視点12で被写体9を撮影し、距離検出手段3で第2の視点12から各注視点13a〜13nまでの距離を測定し、姿勢検出手段4で第2の視点12における画像入力手段2の姿勢を測定する(ステップS13)。並進成分演算手段5は第1の視点11と第2の視点12で撮影した画像データと、第1の視点11と第2の視点12から各注視点13a〜13nまでの距離情報と画像入力手段2の姿勢情報により、(3)式に基づき2視点11,12間の画像入力手段2の並進成分D1〜Dnを算出する(ステップS14)。並進成分決定手段21は算出した複数の並進成分D1〜Dnより最終的な並進成分Dを決定する(ステップS15)。この最終的な並進成分Dを決定するにあたっては、例えば各注視点13a〜13nの2画像間の対応付けの正確さを表す指標(重み)をS1〜Snとし、下記(4)式に示すように重み付き平均処理により決定する手法などが適用される。
【0037】
【数4】
【0038】
ここで指標S1〜Snは通常の画像処理で用いられる相互相関の値等が用いられる。例えば図11に示すように第1の視点11で撮影した画像面14における被写体9のi番目目の注視点13iの対応点16ai(xi0,yi0)と、第2の視点12で撮影した画像面14における被写体9のi番目目の注視点13iの対応点16bi(xi0+dx,yi0+dy)の対応付けを、(2N+1)×(2P+1)の相関窓17を用いたブロックマッチング(テンプレートマッチング)で行う場合、指標Siは下記(5)式で計算される。
【0039】
【数5】
【0040】
上記(5)式においてI1(x,y)は画像面14における対応点16a(x,y)における濃度、I2(x,y)は画像面15における対応点16b(x,y)における濃度、I1d(x,y)は画像面14における対応点16a(x,y)を中心とする(2N+1)×(2P+1)の相関窓17における平均の濃度、I2d(x,y)は画像面15における対応点16b(x,y)を中心とする(2N+1)×(2P+1)の相関窓17における平均の濃度をそれぞれ示し、Kは定数である。
【0041】
対応検出手段6は上記(5)式と(4)式により求めた並進成分Dと各視点11,12における画像入力手段2の姿勢情報を利用して2枚の画像間の特徴点の対応付けを行う(ステップS16)。3次元演算手段7は対応検出手段6の対応付け結果と並進成分D及び姿勢情報より三角測量の原理で被写体9の3次元構造を算出して復元する(ステップS17)。このようにして得られた位置,姿勢情報と3次元情報及び各画像データは必要に応じて記憶手段8に記録して保存する(ステップS18,S19)。
【0042】
このように被写体9に複数の注視点13a〜13nを設定して、各注視点13a〜13nから計算される並進成分D1〜Dnを用いて最終的な並進成分Dを決定し、決定した並進成分Dにより被写体の3次元構造を復元するから、より精度の高い3次元形状を復元することができる。
【0043】
なお、複数の注視点13a〜13nの対応付けや指標Sの計算方法は上記内容に限定されず、各種方法を採用することができる。
【0044】
上記各実施例は被写体9の注視点13の対応付けを行ってから距離検出手段3で注視点13までの距離を測定した場合について説明したが、画像入力手段2で撮影する画面の一定の領域を注視領域として固定するようにしても良い。
【0045】
図12は画面の一定の領域を注視領域として固定して並進成分を算出する第3の実施例の3次元形状復元装置1bの構成を示すブロック図である。図に示すように、3次元形状復元装置1bは画像入力手段2と距離検出手段3と姿勢検出手段4と並進成分演算手段5と対応検出手段6及び3次元演算手段7のほかに注視領域検定手段22を有する。注視領域検定手段22は第1の視点11で撮影した画像面14と第2の視点12で撮影した画像面15の一定の位置である注視領域内に写った被写体9が同一で、かつほぼ同じ位置に写されたことを検出する。
【0046】
上記のように構成された3次元形状復元装置1aで図2に示すように同一の被写体9を第1の視点11と第2の視点12で撮影して被写体9の3次元形状を復元するときの動作を図13のフローチャートを参照して説明する。
【0047】
まず、第1の視点11で図14に示すように画像入力手段2の画像面14のほぼ中心に被写体9が写るように画像入力手段2の向きを調整して被写体9を撮影し、撮影した被写体9の画像の画像面14の中心に対応する位置を注視点とし、距離検出手段3で第1の視点11から注視点までの距離を測定し、姿勢検出手段4で第1の視点11における画像入力手段2の姿勢を測定する(ステップS21)。注視領域検定手段22は撮影した画像面14の中心を含む一定範囲である注視領域18内の被写体9の画像を記憶する(ステップS22)。次に画像入力手段2を移動して第2の視点12で被写体9を撮影し、距離検出手段3で第2の視点12から撮影した被写体9の画像の画像面15の中心に対応する位置を注視点とし、距離検出手段3で第2の視点12から注視点までの距離を測定し、姿勢検出手段4で第2の視点12における画像入力手段2の姿勢を測定する(ステップS23)。注視領域検定手段22は第2の視点12で撮影した画像を確認し、第1の視点11で撮影した画像面14の注視領域18内の被写体9の画像が第2の視点12で撮影した画像面15の注視領域18内に含まれているかどうかと、その変位量を検出する。例えば画像面14と画像面15の注視領域18内の画像の相互相関をとって被写体9の変位量を測定し、変位量があらかじめ定めた閾値以上であれば画像面14と画像面15の注視領域18内の画像の一致度が少ないとして、第2の視点12における画像入力手段2の向きを変更して撮り直すことを指示する(ステップS24,S25)。第1の視点11で撮影した画像面14の注視領域18内の被写体9の画像が第2の視点12で撮影した画像面15の注視領域18内に含まれているとき、並進成分演算手段5は第1の視点11と第2の視点12における画像データと距離情報及び画像入力手段2の姿勢情報により視点11,12間の画像入力手段2の並進成分Dを算出する(ステップS26)。この並進成分Dを算出するときに、第1の視点11から注視点への単位視線ベクトルmと第2の視点12から注視点への単位視線ベクトルIRm1は、下記(6)式で表せるから並進成分Dを少ない計算処理で算出することができる。
【0048】
【数6】
【0049】
対応検出手段6は算出した並進成分Dと各視点11,12における画像入力手段2の姿勢情報を利用して2枚の画像間の特徴点の対応付けを行う(ステップS27)。3次元演算手段7は対応検出手段6の対応付け結果と並進成分D及び姿勢情報より三角測量の原理で被写体9の3次元構造を算出して復元する(ステップS28)。得られた位置,姿勢情報と3次元情報及び各画像データは必要に応じて記憶手段8に記録して保存する(ステップS29,S30)。
【0050】
上記実施例では第1の視点11で撮影した画像面14の注視領域18内の被写体9の画像が第2の視点12で撮影した画像面15の注視領域18内に含まれていないときに警告して撮り直しを指示した場合について説明したが、第2の視点12で撮影する前にファインダーに注視領域18における画像の相関が高いことや低いことを示すインジケータを設置したりしても良い。また、注視領域18を画像面の中心以外の任意の領域に設定しても良い。
【0051】
上記実施例は第1の視点11で撮影した画像面14の注視領域18内の被写体9の画像が第2の視点12で撮影した画像面15の注視領域18内に含まれているかどうかを判定するときに、画像面14と画像面15の注視領域18内の画像の相互相関をとって被写体9の変位量を測定し、測定した変位量をあらかじめ定めた閾値と比較する場合について説明したが、この変位量の閾値を画像入力手段2の焦点距離等の光学系パラメータに応じて可変することにより撮影条件を柔軟に設定することができる。このように変位量の閾値を画像入力手段2の光学系パラメータに応じて可変する第4の実施例の3次元形状復元装置1cの構成を図15に示す。図15に示すように、3次元形状復元装置1cには画像入力手段2と距離検出手段3と姿勢検出手段4と並進成分演算手段5と対応検出手段6と3次元演算手段7と注視領域検定手段22及び注視領域18内の画像の変位量の閾値を可変設定する注視領域調節手段23を有する。画像入力手段2で被写体9を撮影するとき、例えば焦点距離が長くなると視野角が狭くなるので、画像入力手段2の向きを少し変えただけでも画像面上の変位量が大きくなる。そこで注視領域調節手段23は画像入力手段2で被写体9を撮影するとき、焦点距離が長い場合には画像面14と画像面15の注視領域18内の画像の変位量の閾値を大きく設定し、焦点距離が短いときは変位量の閾値を小さく設定するなど光学系パラメータに応じて変位量の閾値の調節を行う。このようにして最適な閾値で画像面14と画像面15の注視領域18内の画像を比較することができ、3次元形状を復元する精度をより高めることができる。
【0052】
上記各実施例は姿勢検出手段4として直交する3軸方向の加速度を測定する加速度センサを用い、第1の視点11と第2の視点12で被写体9を撮影するときに、重力方向に対する画像入力手段2の姿勢を検出する場合について説明したが、姿勢検出手段4に磁気センサを用いても良い。そして検出する磁気方位は地磁気でも人工的に発生させた磁場でも良い。姿勢検出手段4に直交する3軸方向を検出できる磁気センサを用いると、図2に示すように、静止した状態で2視点11,12で被写体9を撮影するときに、磁気方向に対する画像入力手段2の姿勢を高精度で検出することができる。また、直交する3軸方向の加速度を測定する加速度センサと直交する2軸方向を検出できる磁気センサを併用すると、画像入力手段2の姿勢を完全に検出することができる。
【0053】
さらに、姿勢検出手段4として角速度センサを用いても良い。すなわち角速度センサを検出したい回転角に対応するように設置すれば、センサ出力を積分することにより回転角を算出することができる。したがって移動しながら複数の視点で被写体を撮影する場合、各視点間の画像入力手段2の姿勢変化を容易に検出することができる。また、3軸方向の加速度センサや磁気センサと併用することにより、画像入力手段2が静止したりあるいは非常にゆっくり動いているときに、加速度センサと磁気センサで求めた姿勢より角速度センサのオフセット成分を補正することができる。
【0054】
また、上記各実施例は第1の視点11と第2の視点12で画像入力手段2を静止させた状態で被写体9を撮影し、距離情報と姿勢情報を得る場合について説明したが、画像入力手段2を移動しながら被写体9を撮影し、距離情報と姿勢情報を得るようにしても良い。また、第1の視点11と第2の視点12で被写体9を撮影して3次元形状を復元する場合について説明したが、3視点以上の複数の視点で被写体9を撮影して3次元形状を復元する場合にも同様にして適用することができる。
【0055】
さらに、上記実施例は被写体9を撮影したときに実時間処理する場合について説明したが、各視点で撮影した画像や距離情報と姿勢情報を記憶手段にまとめて格納しておき、あとから記憶手段に格納した情報等によりオフライン処理しても良い。さらに、各視点で撮影した画像や距離情報と姿勢情報をネットワークなどに転送して処理するようにしても良い。
【0056】
【発明の効果】
この発明は以上説明したように、異なる視点における画像データと被写体のある1点までの距離情報及び各視点における画像入力手段の姿勢情報から視点を変えたときの画像入力手段の並進成分を算出するから、画像入力手段の撮影位置と姿勢を精度良く検出することができるとともに少ない計算容量で精度良く3次元形状を復元することができる。
【0057】
また、被写体に複数の注視点を設定して、各注視点から計算される複数の並進成分を用いて最終的な並進成分を決定し、決定した並進成分により被写体の3次元構造を復元することにより、より精度の高い3次元形状を復元することができる。
【0058】
さらに、画像入力手段で撮影する画面の一定の領域を注視領域として固定し、異なる視点で被写体を撮影したときに、被写体の同じ位置が注視領域に入るようにすることにより、視点を変えたときの画像入力手段の並進成分をより少ない計算処理で算出することができ、簡単な構成で3次元形状を精度良く復元することができる。
【0059】
また、被写体の同じ位置が注視領域に入っているかどうかを判別する閾値を画像入力手段の焦点距離等の光学系パラメータに応じて調節することにより、撮影条件を柔軟に設定することができるとともに3次元形状を復元する精度をより高めることができる。
【0060】
また、各視点で画像入力手段の姿勢を検出する姿勢検出手段として直交する3軸方向の加速度を測定する加速度センサを用いることにより、静止した状態で被写体を撮影するときに、重力方向を検出することができ、重力方向に対する画像入力手段の姿勢を高精度で検出することができ、3次元形状の復元精度を高めることができる。
【0061】
また、姿勢検出手段に磁気センサを使用して静止撮影時において地磁気方向や人工的に発生された磁場を検出することにより、画像入力手段の姿勢を高精度に測定でき、3次元形状を精度良く復元することができる。
【0062】
さらに、姿勢検出手段に角速度センサを使用して回転角速度を検出することにより、特に画像入力手段の動的な姿勢を高精度に測定することができ、移動しながら被写体を撮影したときの3次元形状を精度良く復元することができる。
【図面の簡単な説明】
【図1】この発明の実施例の構成を示すブロック図である。
【図2】被写体に対する撮影位置を示す配置図である。
【図3】上記実施例の動作を示すフローチャートである。
【図4】異なる視点で撮影した画像を示す画面図である。
【図5】異なる視点と被写体と画像面を示す説明図である。
【図6】中心射影モデルの画像入力手段の構成図である。
【図7】異なる視点からの単位視線ベクトルの誤差を示す説明図である。
【図8】第2の実施例の構成を示すブロック図である。
【図9】複数の注視点を設定した被写体と撮影位置を示す配置図である。
【図10】第2の実施例の動作を示すフローチャートである。
【図11】異なる視点で撮影した画像の1点の対応付けを示す画面図である。
【図12】第3の実施例の構成を示すブロック図である。
【図13】第3の実施例の動作を示すフローチャートである。
【図14】画像面の注視領域を示す画面図である。
【図15】第4の実施例の構成を示すブロック図である。
【符号の説明】
1 3次元形状復元装置
2 画像入力手段
3 距離検出手段
4 姿勢検出手段
5 並進成分演算手段
6 対応検出手段
7 3次元演算手段
9 被写体
11 第1の視点
13 第2の視点
13 注視点
18 注視領域
21 並進成分決定手段
22 注視領域検定手段
23 注視領域調節手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to the position and orientation of the camera when shooting from a plurality of consecutive images.And position detecting device and method for detectingThe present invention relates to a three-dimensional shape restoration apparatus and method for restoring a three-dimensional shape of a photographed object, and particularly to realizing a highly accurate three-dimensional shape restoration with a small amount of calculation.
[0002]
[Prior art]
Research to restore the three-dimensional shape of an object is underway in various fields, including vision of autonomous mobile robots. In particular, in recent years, computers and electronic devices have rapidly spread due to dramatic advances in electronic technology, and it has become possible to easily enjoy stereoscopic display of three-dimensional information. On the other hand, the development of technology for restoring the three-dimensional structure of real-world objects and scenes is expected.
[0003]
In order to restore the three-dimensional structure of an object in the real world, the method of measuring the distance and shape to the object includes an active method of irradiating the object with light waves and ultrasonic waves, and a passive method represented by stereo imaging. There is a typical method. The active method irradiates the object with light waves, radio waves, sound waves, etc., and measures the propagation time of the reflected wave from the object to determine the distance to the object, or the positional relationship with the camera is known There is a light projection method that irradiates a target with slit light, spot light, or the like having a specific pattern from a light source, and observes the distortion to determine the shape of the target. This active method generally has a problem in miniaturization of the apparatus, but has a feature that the distance can be measured at high speed and with high accuracy.
[0004]
On the other hand, the passive method is roughly divided into a multi-view stereoscopic method and a motion stereoscopic method. The multi-view stereoscopic method uses a plurality of cameras whose positions and orientations are known to capture an object, associates feature points or regions between the images from the captured images, and performs triangulation This is performed by the procedure of calculating the three-dimensional shape of the object according to the principle. This method has a problem that a large distance measurement error is likely to occur when there is an association error due to noise or the like superimposed on the image, or when the parallax cannot be sufficiently obtained. The method based on motion stereoscopic vision is performed by a procedure of photographing a target while moving one camera, associating successive images, and calculating the position and orientation of the camera and the three-dimensional shape of the target. Is called. This method has the same problems as the multi-view stereoscopic method, and unlike the multi-view stereoscopic view, the camera position and orientation information between images is unknown and generally solves complex nonlinear equations by iterative calculation. There is a need. Therefore, the calculation amount is enormous and the solution tends to be unstable. An apparatus that restores a three-dimensional shape with a small calculation cost by using a distance sensor, an acceleration sensor, an angular velocity sensor, a magnetic sensor, etc. in addition to an image, for example, is disclosed in Japanese Patent Laid-Open No. Hei 5-196437. No. 7, JP-A-7-181024, JP-A-9-81790, and the like.
[0005]
The apparatus disclosed in Japanese Patent Application Laid-Open No. 5-194437 takes one point of a subject with an orthogonal projection camera, obtains the posture of the camera with a three-axis gyro, and obtains three-dimensional information of the subject by a voting method. Extracting. Further, the apparatus disclosed in Japanese Patent Application Laid-Open No. 7-181024 is provided with a movement amount detecting means for detecting the movement amount of the camera, and the movement amount of the camera obtained by the movement amount detection means is set as a baseline length. The three-dimensional shape of the subject is restored from the results of the corresponding inspection measures based on the image data, thereby reducing the size and weight of the three-dimensional shape measuring device that tends to be large. As the moving amount detecting means, an angular velocity sensor using inertial force is used to directly measure the moving amount of the image input means, or the movement of the measurer is detected by a magnetic sensor, ultrasonic sensor, optical fiber sensor, pressure sensor, etc. The amount of movement of the input means is calculated. The apparatus disclosed in Japanese Patent Application Laid-Open No. 9-81790 etc. detects the movement of the camera with an angle sensor and an acceleration sensor, and adjusts the optical axis direction at each viewpoint so that the optical axes from different viewpoints intersect at an arbitrary point. In addition, the viewpoint at the time of shooting can be freely selected and the coordinate axes of the images from the respective viewpoints are made common so that the correspondence between the images can be easily performed and the three-dimensional shape is restored. The processing speed is reduced by reducing the processing load.
[0006]
[Problems to be solved by the invention]
However, as disclosed in Japanese Patent Application Laid-Open No. 5-194437, if orthogonal projection is assumed, accuracy is insufficient to extract three-dimensional information from an image photographed by a central projection model camera. Also, as disclosed in Japanese Patent Laid-Open No. 7-181024, when calculating the movement amount of the camera with various sensors such as an angular velocity sensor, it is necessary to analyze signals from the various sensors when calculating the movement amount. Therefore, there is a problem that an error component of the movement amount is accumulated. Further, in the apparatus disclosed in Japanese Patent Laid-Open No. 9-81790, sensor information indicating camera movement, an estimated value of a motion vector calculated based on a distance between a predetermined object and the camera, and a motion vector obtained by image processing are used. Although the subject is detected by comparison, since the distance between the object and the camera is set in advance, the three-dimensional shape can be restored only under specific imaging conditions. Furthermore, since a drive mechanism for changing the direction of the optical axis is required, the structure of the apparatus becomes complicated.
[0007]
The present invention has been made to solve such problems, and the position and orientation of the camera under arbitrary shooting conditions.And position detecting device and method for detectingAn object of the present invention is to obtain a three-dimensional shape restoration apparatus and method that can reduce calculation load and realize high-precision three-dimensional shape restoration.
[0008]
[Means for Solving the Problems]
According to this inventionThe position / orientation detection apparatus includes an image input unit, a distance detection unit, an attitude detection unit, and a translation component calculation unit.Image input meansChange the shooting position and viewpoint, enter the subject image,The distance detection means corresponds to a specific point on a plurality of images obtained from the image input means.Subject gaze pointThe attitude detection means calculates the attitude of the image input means at each viewpoint, the translation component calculation means calculates the image information at each viewpoint, the distance information to the gazing point, and the attitude of the image input means. From the information, the image input means when changing the viewpointThe translation component is calculated.
[0009]
In the position / posture detection method according to the present invention, the image of the subject is input by the image input means while changing the shooting position and the viewpoint, and it corresponds to one specific point on a plurality of images obtained by changing the viewpoint. The distance from each viewpoint to the gazing point of the subject is detected, the attitude of the image input means at each viewpoint is calculated, and the viewpoint is determined from the image information at each viewpoint, the distance information to the gazing point, and the attitude information of the image input means. The translation component of the image input means when it is changed is calculated.
[0010]
The three-dimensional shape restoration apparatus according to the present invention comprises image input means, distance detection means, posture detection means, translation component calculation means, correspondence detection means, and three-dimensional calculation means. The image input means changes the photographing position and viewpoint. The image of the subject is input, and the distance detection means detects the distance from each viewpoint to the gazing point of the subject corresponding to one or more specific points on the plurality of images obtained from the image input means. The attitude detection means calculates the attitude of the image input means at each viewpoint, and from each viewpoint up to the gazing point of the subject corresponding to one or more specific points on a plurality of images obtained from the image input means. The translation component calculation means calculates the translation component of the image input means when the viewpoint is changed from the image information at each viewpoint, the distance information to the gazing point and the attitude information of the image input means, and detects the correspondence. Means include images A plurality of images obtained by changing the viewpoint from the translation component of the means and the posture information are associated, and the three-dimensional computing means determines the three-dimensional shape of the subject based on the correspondence result and the position and posture information of the image input means. It is characterized by calculating.
[0011]
Another three-dimensional shape restoration apparatus according to the present invention comprises image input means, distance detection means, posture detection means, gaze region verification means, translation component calculation means, correspondence detection means, and three-dimensional calculation means, and image input means Changes the shooting position and viewpoint and inputs an image of the subject, and the distance detection means detects the subject to the gazing point corresponding to a certain point in a specific gazing area on the plurality of images obtained from the image input means. The distance from each viewpoint is detected, the attitude detection means calculates the attitude of the image input means at each viewpoint, and the gaze area verification means determines the amount of displacement of the subject in the gaze area of the image taken by changing the viewpoint. Confirming that it is below the threshold, the translation component calculation means calculates the translation component of the image input means when the viewpoint is changed from the image information at each viewpoint, the distance information to the gazing point, and the attitude information of the image input means, Correspondence The output means associates a plurality of images obtained by changing the viewpoint from the translation component of the image input means and the posture information, and the three-dimensional calculation means determines the subject based on the association result and the position and posture information of the image input means. The three-dimensional shape is calculated.
[0012]
It is desirable to have a gaze area adjustment means for adjusting the threshold value in the gaze area verification means according to the optical system parameters of the image input means.
[0013]
In addition, an acceleration sensor, a magnetic sensor, or an angular velocity sensor may be used alone or in combination for the posture detection means.
[0014]
In the three-dimensional shape restoration method according to the present invention, a specific one point or a plurality of points on a plurality of images obtained by changing the photographing point and the viewpoint and inputting the subject image by the image input means and changing the viewpoint. The distance from each viewpoint to the gazing point of the subject corresponding to is calculated, the attitude of the image input means at each viewpoint is calculated, and the image information at each viewpoint is calculated. 1 Or, the translation component of the image input means when the viewpoint is changed is calculated from the distance information to a plurality of gazing points and the attitude information of the image input means, and the viewpoint is changed from the translation component and the attitude information of the image input means. A method for reconstructing a three-dimensional shape, comprising associating a plurality of images and calculating a three-dimensional shape of a subject based on the association result and position / posture information of the image input means.
[0015]
According to this inventionOther three-dimensional shape restoration methods are:Change the viewpoint and input the subject image with the image input means, and correspond to a certain point in a specific gaze area on multiple images obtained by changing the viewpointSubject gaze pointThe distance from each viewpoint is detected, the attitude of the image input means at each viewpoint is calculated, and it is confirmed that the amount of displacement of the subject in the gaze area of the image taken from different viewpoints is below a predetermined threshold The translation component of the image input means when the viewpoint is changed is calculated from the image information at each viewpoint, the distance information to the gazing point, and the attitude information of the image input means, and the viewpoint is determined from the translation component of the image input means and the attitude information. A plurality of images obtained by changing are associated with each other, and the three-dimensional shape of the subject is calculated from the association result and the position and orientation information of the image input means. It is desirable to adjust the threshold value according to the optical system parameters of the image input means.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
The three-dimensional shape restoration apparatus of the present invention includes an attitude detection unit, a translational component calculation unit, a correspondence detection unit, and a three-dimensional calculation unit from an acceleration sensor in three axial directions orthogonal to the image input unit and the distance detection unit. When the same subject is photographed from two different viewpoints and the three-dimensional shape of the subject is restored, the photographer measures a gaze point at which the photographer measures the distance from the first viewpoint and the second viewpoint to a certain point of the subject. decide. When the gazing point is determined, the subject is photographed by the image input means at the first viewpoint, the distance from the first viewpoint to the gazing point is measured by the distance detection means, and the image input means at the first viewpoint is measured by the posture detection means. Measure posture. Next, the image input means is moved to photograph the subject at the second viewpoint, the distance detection means measures the distance from the second viewpoint to the gazing point, and the attitude detection means determines the image input means at the second viewpoint. Measure posture. The translation component calculation means calculates the translation component of the image input means 2 when the viewpoint is changed from the image data taken at each viewpoint, the distance from each viewpoint to the gazing point, and the posture information of the image input means at each viewpoint. The correspondence detection means associates feature points between two images taken from different viewpoints using the translation component of the image input means and the posture information. The three-dimensional calculation means calculates and restores the three-dimensional structure of the subject based on the triangulation principle from the correspondence result of the correspondence detection means, the translation component, and the posture information.
[0017]
Thus, the translation component of the image input means when the viewpoint is changed is calculated from the distance from the first viewpoint to the gazing point, the distance from the second viewpoint to the gazing point, and the attitude information of the image input means at each viewpoint. Therefore, the three-dimensional shape can be accurately restored with a small calculation capacity.
[0018]
In addition, since an acceleration sensor that measures acceleration in three orthogonal axes is used as the posture detection means, it is possible to detect the direction of gravity when shooting a subject from two viewpoints in a stationary state, and to input an image with respect to the direction of gravity. The attitude of the means can be detected with high accuracy.
[0019]
Further, by setting a plurality of gazing points on the subject, determining a final translation component using a plurality of translation components calculated from each gazing point, and restoring the three-dimensional structure of the subject using the determined translation components, A more accurate three-dimensional shape can be restored.
[0020]
Furthermore, if a fixed area of the screen shot by the image input means is fixed as the gaze area, and the subject is photographed from a different viewpoint, the same position of the subject enters the gaze area. The translation component of the input means can be calculated with less calculation processing.
[0021]
【Example】
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention. As shown in the figure, the three-dimensional
[0022]
As shown in FIG. 2, the three-dimensional
[0023]
Before photographing the subject 9 with the image input means 2, the photographer determines the
[0024]
Here, as shown in the explanatory diagram of FIG. 5, at the
[0025]
[Expression 1]
[0026]
This rotation matrix R can be obtained from the posture information of the image input means 2 detected by the posture detection means 4, and the distance L from the
[0027]
[Expression 2]
[0028]
Therefore, the distance L from the
[0029]
[Equation 3]
[0030]
Therefore, the translation component calculation means 5 is the image data taken at the
[0031]
Thus, the
[0032]
In addition, since an acceleration sensor that measures acceleration in three orthogonal directions is used as the posture detection means 4, when the
[0033]
In the above embodiment, the distance L from the
[0034]
FIG. 8 shows a three-dimensional shape restoration of the second embodiment in which a plurality of gazing
[0035]
As shown in FIG. 9, the three-dimensional shape restoration apparatus 1 a configured as described above sets a plurality of gazing
[0036]
Before the
[0037]
[Expression 4]
[0038]
Where index S1~ SnThe value of cross-correlation used in normal image processing is used. For example, as shown in FIG. 11, the corresponding point 16ai (x) of the i-th gazing point 13i of the subject 9 on the
[0039]
[Equation 5]
[0040]
In the above formula (5), I1(X, y) is the density at the
[0041]
Correspondence detecting means 6 associates feature points between two images by using translation component D obtained by the above equations (5) and (4) and posture information of image input means 2 at each
[0042]
In this way, a plurality of gazing
[0043]
Note that the method of associating a plurality of gazing
[0044]
In each of the above embodiments, the case where the distance to the
[0045]
FIG. 12 is a block diagram showing the configuration of the three-dimensional shape restoration apparatus 1b of the third embodiment that calculates a translational component while fixing a fixed area of the screen as a gaze area. As shown in the figure, the three-dimensional shape restoration apparatus 1b includes an image input means 2, a distance detection means 3, a posture detection means 4, a translational component calculation means 5, a correspondence detection means 6, and a three-dimensional calculation means 7. Means 22 are included. The gaze area verification means 22 has the same and substantially the
[0046]
When the
[0047]
First, the
[0048]
[Formula 6]
[0049]
The correspondence detection means 6 associates the feature points between the two images by using the calculated translation component D and the posture information of the image input means 2 at the
[0050]
In the above embodiment, a warning is given when the image of the subject 9 in the
[0051]
In the above embodiment, it is determined whether or not the image of the subject 9 in the
[0052]
In each of the above-described embodiments, an acceleration sensor that measures acceleration in three orthogonal directions is used as the posture detection means 4, and when the
[0053]
Further, an angular velocity sensor may be used as the posture detection means 4. That is, if the angular velocity sensor is installed so as to correspond to the rotation angle to be detected, the rotation angle can be calculated by integrating the sensor output. Therefore, when photographing a subject from a plurality of viewpoints while moving, it is possible to easily detect a change in posture of the image input means 2 between the viewpoints. Further, when used in combination with a three-axis acceleration sensor or magnetic sensor, when the image input means 2 is stationary or moving very slowly, the offset component of the angular velocity sensor is obtained from the posture determined by the acceleration sensor and the magnetic sensor. Can be corrected.
[0054]
In each of the above-described embodiments, the case where the
[0055]
Further, in the above embodiment, the case where the real time processing is performed when the
[0056]
【The invention's effect】
As described above, the present invention calculates the translation component of the image input means when the viewpoint is changed from the image data at different viewpoints, the distance information to a certain point of the subject, and the attitude information of the image input means at each viewpoint. FromIn addition to being able to accurately detect the shooting position and orientation of the image input meansA three-dimensional shape can be accurately restored with a small calculation capacity.
[0057]
Also, setting a plurality of gazing points on the subject, determining a final translation component using a plurality of translation components calculated from each gazing point, and restoring the three-dimensional structure of the subject using the determined translation components Thus, a more accurate three-dimensional shape can be restored.
[0058]
Furthermore, when the viewpoint is changed by fixing a fixed area of the screen shot by the image input means as the gaze area and shooting the subject from a different viewpoint so that the same position of the subject enters the gaze area. The translation component of the image input means can be calculated with less calculation processing, and the three-dimensional shape can be accurately restored with a simple configuration.
[0059]
Further, by adjusting the threshold value for determining whether or not the same position of the subject is in the gaze area according to the optical system parameters such as the focal length of the image input means, the shooting conditions can be set flexibly. The accuracy of restoring the dimensional shape can be further increased.
[0060]
In addition, by using an acceleration sensor that measures acceleration in three orthogonal directions as posture detecting means for detecting the posture of the image input means at each viewpoint, the direction of gravity is detected when the subject is photographed in a stationary state. It is possible to detect the attitude of the image input means with respect to the direction of gravity with high accuracy, and to improve the reconstruction accuracy of the three-dimensional shape.
[0061]
In addition, by detecting the geomagnetic direction and artificially generated magnetic field during still photography using a magnetic sensor as the posture detection means, the posture of the image input means can be measured with high accuracy, and the three-dimensional shape can be accurately obtained. Can be restored.
[0062]
Further, by detecting the rotational angular velocity using an angular velocity sensor for the posture detection means, it is possible to measure the dynamic posture of the image input means with high accuracy, particularly when the subject is photographed while moving. The shape can be accurately restored.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention.
FIG. 2 is a layout diagram showing shooting positions with respect to a subject.
FIG. 3 is a flowchart showing the operation of the embodiment.
FIG. 4 is a screen diagram showing images taken from different viewpoints.
FIG. 5 is an explanatory diagram showing different viewpoints, subjects, and image planes.
FIG. 6 is a configuration diagram of an image input unit for a central projection model.
FIG. 7 is an explanatory diagram showing an error of a unit line-of-sight vector from different viewpoints.
FIG. 8 is a block diagram showing a configuration of a second embodiment.
FIG. 9 is a layout diagram showing subjects and shooting positions for which a plurality of gazing points are set.
FIG. 10 is a flowchart showing the operation of the second embodiment.
FIG. 11 is a screen diagram showing the association of one point of images taken from different viewpoints.
FIG. 12 is a block diagram showing a configuration of a third embodiment.
FIG. 13 is a flowchart showing the operation of the third embodiment.
FIG. 14 is a screen diagram showing a gaze area on the image plane.
FIG. 15 is a block diagram showing a configuration of a fourth embodiment.
[Explanation of symbols]
1 3D shape restoration device
2 Image input means
3 Distance detection means
4 Attitude detection means
5 Translation component calculation means
6 Correspondence detection means
7 Three-dimensional calculation means
9 Subject
11 First viewpoint
13 Second perspective
13 Gaze points
18 Gaze area
21 Translation component determination means
22 Gaze area verification means
23 Gaze area adjustment means
Claims (11)
画像入力手段は撮影位置と視点を変えて被写体の画像を入力し、
距離検出手段は画像入力手段から得られた複数枚の画像上の特定のある1点に対応する被写体の注視点までの各視点からの距離を検出し、
姿勢検出手段は各視点における画像入力手段の姿勢を算出し、
並進成分演算手段は各視点における画像情報と注視点までの距離情報と画像入力手段の姿勢情報より、視点を変えたときの画像入力手段の並進成分を算出することを特徴とする位置・姿勢検出装置。 Image input means, distance detection means, posture detection means and translational component calculation means,
The image input means inputs the subject image by changing the shooting position and viewpoint,
The distance detection means detects the distance from each viewpoint to the gazing point of the subject corresponding to one specific point on the plurality of images obtained from the image input means,
The posture detection means calculates the posture of the image input means at each viewpoint,
Translational component calculation means from the attitude information of the distance information and the image input means to the fixation point and the image information in each viewpoint, the position and calculates the translation component of the image input means and posture detecting when varying viewpoints apparatus.
画像入力手段は撮影位置と視点を変えて被写体の画像を入力し、
距離検出手段は画像入力手段から得られた複数枚の画像上の特定のある1点に対応する被写体の注視点までの各視点からの距離を検出し、
姿勢検出手段は各視点における画像入力手段の姿勢を算出し、画像入力手段から得られた複数枚の画像上の特定のある1点に対応する被写体の注視点までの各視点からの距離を検出し、
並進成分演算手段は各視点における画像情報と注視点までの距離情報と画像入力手段の姿勢情報より、視点を変えたときの画像入力手段の並進成分を算出し、
対応検出手段は画像入力手段の並進成分と姿勢情報より視点を変えて得られた複数枚の画像間の対応付けを行い、
3次元演算手段は対応付け結果と画像入力手段の位置,姿勢情報により被写体の3次元形状を算出することを特徴とする3次元形状復元装置。 Image input means, distance detection means, posture detection means, translation component calculation means, correspondence detection means and three-dimensional calculation means,
The image input means inputs the subject image by changing the shooting position and viewpoint,
The distance detection means detects the distance from each viewpoint to the gazing point of the subject corresponding to one specific point on the plurality of images obtained from the image input means,
The posture detection means calculates the posture of the image input means at each viewpoint, and detects the distance from each viewpoint to the gazing point of the subject corresponding to a specific point on the plurality of images obtained from the image input means. And
The translation component calculation means calculates the translation component of the image input means when the viewpoint is changed from the image information at each viewpoint, the distance information to the gazing point, and the attitude information of the image input means,
Correspondence detection means performs correspondence between a plurality of images obtained by changing the viewpoint from the translation component of the image input means and the posture information,
3. A three-dimensional shape restoration apparatus, wherein the three-dimensional calculation means calculates the three-dimensional shape of the subject from the association result and the position and orientation information of the image input means.
画像入力手段は撮影位置と視点を変えて被写体の画像を入力し、 The image input means inputs the subject image by changing the shooting position and viewpoint,
距離検出手段は画像入力手段から得られた複数枚の画像上の特定のある複数点に対応する被写体の複数の注視点までの各視点からの距離を検出し、 The distance detection means detects the distance from each viewpoint to a plurality of gazing points of the subject corresponding to a plurality of specific points on the plurality of images obtained from the image input means,
姿勢検出手段は各視点における画像入力手段の姿勢を算出し、 The posture detection means calculates the posture of the image input means at each viewpoint,
並進成分演算手段は各視点における画像情報と複数の注視点までの距離情報と画像入力手段の姿勢情報より視点を変えたときの画像入力手段の並進成分を算出し、 The translation component calculation means calculates the translation component of the image input means when the viewpoint is changed from the image information at each viewpoint, the distance information to the plurality of gazing points, and the attitude information of the image input means,
並進成分決定手段は複数の並進成分より最終的な並進成分を決定し、 The translation component determining means determines a final translation component from a plurality of translation components,
対応検出手段は決定した並進成分と画像入力手段の姿勢情報より視点を変えて得られた複数枚の画像間の対応付けを行い、 The correspondence detecting means performs correspondence between the plurality of images obtained by changing the viewpoint from the determined translation component and the posture information of the image input means,
3次元演算手段は対応付け結果と画像入力手段の位置,姿勢情報により被写体の3次元形状を算出することを特徴とする3次元形状復元装置。 3. A three-dimensional shape restoration apparatus, wherein the three-dimensional calculation means calculates the three-dimensional shape of the subject from the association result and the position and orientation information of the image input means.
画像入力手段は撮影位置と視点を変えて被写体の画像を入力し、
距離検出手段は画像入力手段から得られた複数枚の画像上の特定の注視領域内のある1点に対応する被写体の注視点までの各視点からの距離を検出し、
姿勢検出手段は各視点における画像入力手段の姿勢を算出し、
注視領域検定手段は視点を変えて撮影した画像の注視領域内の被写体の変位量があらかじめ定めた閾値以下であることを確認し、
並進成分演算手段は各視点における画像情報と注視点までの距離情報と画像入力手段の姿勢情報より視点を変えたときの画像入力手段の並進成分を算出し、
対応検出手段は画像入力手段の並進成分と姿勢情報より視点を変えて得られた複数枚の画像間の対応付けを行い、
3次元演算手段は対応付け結果と画像入力手段の位置,姿勢情報により被写体の3次元形状を算出することを特徴とする3次元形状復元装置。 Image input means, distance detection means, posture detection means, gaze area verification means, translation component calculation means, correspondence detection means, and three-dimensional calculation means,
The image input means inputs the subject image by changing the shooting position and viewpoint,
The distance detection means detects the distance from each viewpoint to the gazing point of the subject corresponding to a certain point in a specific gazing area on the plurality of images obtained from the image input means,
The posture detection means calculates the posture of the image input means at each viewpoint,
The gaze area verification means confirms that the amount of displacement of the subject in the gaze area of the image taken by changing the viewpoint is below a predetermined threshold,
The translation component calculation means calculates the translation component of the image input means when the viewpoint is changed from the image information at each viewpoint, the distance information to the gazing point, and the attitude information of the image input means,
Correspondence detection means performs correspondence between a plurality of images obtained by changing the viewpoint from the translation component of the image input means and the posture information,
3. A three-dimensional shape restoration apparatus, wherein the three-dimensional calculation means calculates the three-dimensional shape of the subject from the association result and the position and orientation information of the image input means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23785597A JP3655065B2 (en) | 1997-08-20 | 1997-08-20 | Position / attitude detection device, position / attitude detection method, three-dimensional shape restoration device, and three-dimensional shape restoration method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23785597A JP3655065B2 (en) | 1997-08-20 | 1997-08-20 | Position / attitude detection device, position / attitude detection method, three-dimensional shape restoration device, and three-dimensional shape restoration method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1163949A JPH1163949A (en) | 1999-03-05 |
JP3655065B2 true JP3655065B2 (en) | 2005-06-02 |
Family
ID=17021421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23785597A Expired - Fee Related JP3655065B2 (en) | 1997-08-20 | 1997-08-20 | Position / attitude detection device, position / attitude detection method, three-dimensional shape restoration device, and three-dimensional shape restoration method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3655065B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3712847B2 (en) * | 1997-05-20 | 2005-11-02 | 株式会社リコー | Three-dimensional shape measurement method, three-dimensional shape measurement device, and posture detection device for imaging means |
DE10394295T5 (en) * | 2003-10-31 | 2012-02-09 | Fujitsu Ltd. | Distance calculation device and calculation program |
JP4664427B2 (en) * | 2009-09-16 | 2011-04-06 | 富士通株式会社 | Distance calculation device |
JP6003673B2 (en) * | 2013-01-23 | 2016-10-05 | 株式会社デンソー | 3D position estimation apparatus, vehicle control apparatus, and 3D position estimation method |
WO2016125732A1 (en) * | 2015-02-02 | 2016-08-11 | 光雄 中山 | Optical terminal device and scan program |
-
1997
- 1997-08-20 JP JP23785597A patent/JP3655065B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH1163949A (en) | 1999-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108765498B (en) | Monocular vision tracking, device and storage medium | |
JP3732335B2 (en) | Image input apparatus and image input method | |
CN106643699B (en) | Space positioning device and positioning method in virtual reality system | |
CN105424006B (en) | Unmanned plane hovering accuracy measurement method based on binocular vision | |
JP2874710B2 (en) | 3D position measuring device | |
JP5027747B2 (en) | POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM | |
JP4825980B2 (en) | Calibration method for fisheye camera. | |
WO2018142496A1 (en) | Three-dimensional measuring device | |
JP5027746B2 (en) | POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM | |
WO2010001940A1 (en) | Position measurement method, position measurement device, and program | |
JP4825971B2 (en) | Distance calculation device, distance calculation method, structure analysis device, and structure analysis method. | |
JP5011528B2 (en) | 3D distance measurement sensor and 3D distance measurement method | |
EP4155873A1 (en) | Multi-sensor handle controller hybrid tracking method and device | |
US6839081B1 (en) | Virtual image sensing and generating method and apparatus | |
JPH11136575A (en) | Image pickup device and photographed image synthesizing method | |
JP3842988B2 (en) | Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program | |
JP2559939B2 (en) | Three-dimensional information input device | |
JP3655065B2 (en) | Position / attitude detection device, position / attitude detection method, three-dimensional shape restoration device, and three-dimensional shape restoration method | |
JPH0814861A (en) | Method of measuring three-dimensional shape and device therefor | |
JPH10320558A (en) | Calibration method, corresponding point search method and device therefor, focus distance detection method and device therefor, three-dimensional position information detection method and device therefor, and recording medium | |
JP3221384B2 (en) | 3D coordinate measuring device | |
JP3512894B2 (en) | Relative moving amount calculating apparatus and relative moving amount calculating method | |
JP3712847B2 (en) | Three-dimensional shape measurement method, three-dimensional shape measurement device, and posture detection device for imaging means | |
US20080252746A1 (en) | Method and apparatus for a hybrid wide area tracking system | |
JP5409451B2 (en) | 3D change detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040420 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040618 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050302 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090311 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100311 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110311 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120311 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130311 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140311 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |