JP2004252714A - 空間情報獲得方法、装置、空間情報獲得プログラム、および該プログラムを記録した記録媒体 - Google Patents

空間情報獲得方法、装置、空間情報獲得プログラム、および該プログラムを記録した記録媒体 Download PDF

Info

Publication number
JP2004252714A
JP2004252714A JP2003042469A JP2003042469A JP2004252714A JP 2004252714 A JP2004252714 A JP 2004252714A JP 2003042469 A JP2003042469 A JP 2003042469A JP 2003042469 A JP2003042469 A JP 2003042469A JP 2004252714 A JP2004252714 A JP 2004252714A
Authority
JP
Japan
Prior art keywords
matrix
points
image
feature
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003042469A
Other languages
English (en)
Inventor
Isao Miyagawa
勲 宮川
Yuji Ishikawa
裕治 石川
Yoshiori Wakabayashi
佳織 若林
Tomohiko Arikawa
知彦 有川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003042469A priority Critical patent/JP2004252714A/ja
Publication of JP2004252714A publication Critical patent/JP2004252714A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】時系列画像データから、被写体(対象物、物体)の外観形状を形成する空間情報(3次元座標値)を計測、獲得、復元する。
【解決手段】特徴点追跡処理部3は、時系列画像データベース1に蓄積されたカメラによる時系列画像上の特徴点を自動的に追跡して特徴点の画像座標値を測定し計測行列を出力する。入力アウトライア除去部5は、計測行列入力部4から入力された計測行列を基に、特徴点追跡で得られた特徴点の中から移動点群やアウトライアを除去し、計測行列入力部4は、除去後に残った特徴点のみから計測行列を生成して、以降の処理に入力する。空間情報処理部6は、アウトライアを取り除いた計測行列から物体形状を復元する。センサ運動行列生成部7は、姿勢情報データベース2から取り出したカメラの時系列の姿勢情報からセンサ運動行列を生成し、空間情報出力部8は、物体形状に関する空間情報を獲得する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、カメラ等の画像入力装置により取得した時系列画像データから、時系列映像に映っている外界の形状、すなわち、被写体(対象物、物体)の外観形状を形成する空間情報(3次元座標値)を計測、獲得、復元すること、並びに、画像入力装置の光学的視点の運動、および、時系列映像中の被写体が移動物体か、静止物体かを画像的に理解する技術に関係する。
【0002】
特に、特徴点が移動物体上の点(移動点群)か、特徴点追跡時の追跡エラーが原因で発生するアウトライア(以下、移動点群とアウトライア点群を合わせてアウトライアと称する)かどうかの自動判定を行い、この特徴点を計測行列から除去し、画像入力装置の運動と特徴点の3次元座標値を高精度に獲得、復元することに好適に利用できるものである。また、本発明は、車載映像、船上からの海上映像、空撮などの時系列画像全般に対して利用可能である。
【0003】
【従来の技術】
コンピュータビジョンの分野では、時系列画像データから、対象物の形状を計測、または、獲得する手法には、ステレオ計測やエピポーラ解析を用いた3次元解析手法がある。また、最近では、カメラの運動と被写体(物体)の形状に関する3次元情報を、同時に、計測、または獲得する手法の代表的な手法として、因子分解法がある。これらの手法によれば、物体が撮影されている複数の時系列画像から、3次元の形状に関する情報、並びに、カメラ視点に関する運動を獲得、復元することができる。
【0004】
因子分解法は、3次元空間座標値と2次元画像座標値間の光学的射影モデルに基づいて、特異値分解や雑音除去を行い、カメラ運動に関する幾何的拘束条件のもとで雑音にロバストにカメラ運動と物体形状を同時に復元する手法である。これまで、因子分解法アルゴリズムは線形演算が主体の手法であった。つまり、実際の透視投影は非線形な射影モデルあるのに対して、線形近似の射影モデルが用いられてきた。特に、下記の非特許文献1,2,3は、線形なアフィンカメラモデルを用いて、反復的に透視投影の射影モデルに漸近させる手法として存在している。非特許文献1,2,3の方法は、数回程度の反復的な因子分解法を繰り返すだけで、カメラ運動と物体形状を、透視投影モデルに近い状態で同時に復元することができ、3次元獲得手法、カメラ運動推定などに利用されている。
【0005】
さらに、移動する被写体の運動までも同時に復元する手法として、非特許文献4,5がある。この手法は、カメラ運動に対して、被写体が線形運動する、または、対象とする時系列な映像シーンの時間区間において、被写体が時間的に線形運動するという仮定に基づいて、因子分解法を利用し、カメラの運動、物体(被写体)の運動と形状を同時に復元する手法である。この手法は、空撮映像などの映像シーンにおいて、車両などの移動物体と建物形状を復元する手法としても応用が考えられる。
【0006】
【非特許文献1】
S.Christy and R.Horaud, “Euclidean Shape and Motion frorn Multiple Perspective Views by Affine Iterations”, INRIA Technical Report RR−2421, 1 994.
【0007】
【非特許文献2】
S.Christy and R.Horaud, “Euclidean Shape and Motion from Multiple Perspective Views by Affine Iterations”, IEEE Transactions PAMI, Vol.18, N0.11, pp.2495−2503, 1996.
【0008】
【非特許文献3】
S.Christy and R.Horaud, “Euclidean Reconstructron from Paraperspectrve to Perspective”, ECCV96, 1996.
【0009】
【非特許文献4】
M.Han and T.Kanade, “The Factorization Method with Linear Motion”, CMU−RI−TR−99−23, 1999.
【0010】
【非特許文献5】
M.Han and T.Kanade, “Reconstruction of a Scene with Multiple Linearly Moving Objects”, CVPR’OO, 2000.
【0011】
【発明が解決しようとする課題】
一般に、画像入力装置(カメラ)から取得した時系列画像から、カメラの動き、並びに、対象物の形状を同時に復元する場合、時系列画像に混入するランダム雑音の影響や、撮影時のカメラの微小な動きを正確に復元する代表的な手法として、反復的透視投影型因子分解法(非特許文献1,2,3)がある。しかし、静止物体を被写体とした前提に基づいており、移動物体と静止物体の同定は困難である。ところで、特徴点は特徴点追跡により、時系列にわたって特徴点の画像座標値を計測するのが一般的であり、代表的な手法として、Kanade−Lucas−Tomasi法(KLT法)を利用することができる。この追跡処理において、特徴点を正確に追跡できず他の座標値を追跡し、または、周辺画素のぼけなどにより正確な座標値を得ることができないことがある。これはアウトライア(Outlier)となり、被写体の3次元空間情報を獲得、復元する場合に悪影饗を及ぼす。特に、反復的透視投影型因子分解法(非特許文献1,2,3)では、移動物体の動きもアウトライアの原因となり、時系列映像中に移動物体や追跡エラーを含む特徴点が存在すると、反復的な透視投影モデルへの漸近過程において、解が収束しなかったり、正確なカメラ運動と物体形状を復元できなかったりする。
【0012】
一方、移動物体を線形運動と仮定した因子分解法(非特許文献4,5)は、カメラ運動、物体形状、物体の移動速度を同時に復元する手法として提案されているが、移動物体以外に特徴点の追跡エラーが移動物体のように振る舞うと、静止物体か、移動物体か、追跡エラーによるアウトライアなのか、同定することは難しい。さらに、この手法において、ランク5までの行列成分を利用しているが、ランク4以降の成分は雑音混入の可能性も高く、雑音除去と移動点群の分離が暖昧である。したがって、移動手段を使って撮影カメラを動かしながら撮影する撮影環境では、移動手段との関係、屋外環境との関係でカメラが微小に動くため、ランダム性雑音の影響も大きく、安定的に、カメラの動き、物体の運動、並びに、物体の形状を、同時に、かつ、高精度に復元することは不可能であった。
【0013】
非特許文献1,2,3を利用する場合に、アウトライア除去の手法として、カメラ運動と物体形状を復元した後に、各フレームの画像面に再投影して、特徴点追跡により測定した画像座標値と再投影誤差との誤差が、ある一定値以上の誤差を有する場合の特徴点をアウトライアとして認識することも可能だが、反復的透視投影型因子分解法の処理では、移動点群やアウトライアが透視投影の漸近過程に埋もれやすく、静止物体のごとく透視投影にフィックスされる可能性もある。したがって、反復的透視投影過程では、透視投影射影にフィックスする前の段階でアウトライアを除去することが重要である。
【0014】
本発明は、上記従来技術の問題点を解決するためのものであって、カメラ等の画像入力装置により取得した時系列画像データから、時系列映像に映っている外界の形状、すなわち、被写体(対象物、物体)の外観形状を形成する空間情報(3次元座標値)を計測、獲得、復元することができ、並びに、画像入力装置の光学的視点の運動、および、時系列映像中の被写体が移動物体か、静止物体かを画像的に理解することができる空間情報獲得方法および装置を提供することが課題である。
【0015】
【課題を解決するための手段】
上記課題を解決するため、本発明は、画像入力装置で対象物を撮影して取得した時系列画像中にて、対象物の外観に関する特徴点の画像座標値の時間的変化量から、対象物の形状、並びに、時系列に対する画像入力装置の運動を獲得、復元する方法であって、時系列画像中の特徴点の時間的変化量を時系列にわたって集計したデータである計測行列から、移動物体上の点並びに移動する点(以下では、これらを移動点群と称する)や特徴点追跡処理において正確に求められなかった点を抽出し、特徴点の動き情報を使って、移動点群や該正確に求められなかった点を除去する第1ステップと、画像入力装置の姿勢を計測するセンサを使って、第1ステップで使用した時系列画像と同期しながら、画像入力装置の姿勢を計測し、該時系列に対し計測した姿勢情報から、各時系列画像に対応する運動情報としてセンサ運動行列を生成する第2ステップと、第1ステップにおいて除去されなかった特徴点から構成される計測行列を行列分解して、画像入力装置の時系列的動きとしての画像運動行列と特徴点の3次元情報を表す形状情報としての物体形状行列を得る第3ステップと、第3ステップにて得た画像運動行列と、第2ステップで生成したセンサ運動行列との間の変換行列を算出し、該変換行列を用いて、第3ステップで得た物体形状行列から、特徴点の3次元座標値、すなわち、物体形状に関する空間情報を獲得する第4ステップと、を有することを特徴とする空間情報獲得方法を、その解決の手段とする。
【0016】
あるいは、画像入力装置で対象物を撮影して取得した時系列画像中にて、対象物の外観に関する特徴点の画像座標値の時間的変化量から、対象物の形状、並びに、時系列に対する画像入力装置の運動を獲得、復元する方法であって、時系列画像中の特徴点の時間的変化量を時系列にわたって集計したデータである計測行列から、移動点群や特徴点追跡処理にて正確に求められなかった点を抽出し、特徴点の動き情報を使って、移動点群や該正確に求められなかった点を除去する第1ステップと、第1ステップにおいて残った特徴点から構成される計測行列から画像入力装置の運動と物体形状を求めるコンピュータビジョン的手法を利用して、物体形状に関する空間情報を獲得する第2ステップと、を有することを特徴とする空間情報獲得方法を、その解決の手段とする。
【0017】
あるいは、上記の空間情報獲得方法であって、第4ステップで獲得した物体形状に関する空間情報と、第2ステップで生成したセンサ運動行列をもとに画像面の再投影誤差を算出し、この誤差が収束しているか、または、ある一定以下の誤差になっているかどうかを判定し、誤差が収束していない、または、ある一定量を超えていると判定した場合は、新たな計測行列を生成し、この生成した計測行列を使って、誤差が収束、または、一定値以下になるまで反復的に第3ステップ、並びに、第4ステップを繰り返し、物体形状に関する空間情報を獲得することを特徴とする空間情報獲得方法を、その解決の手段とする。
【0018】
あるいは、上記の空間情報獲得方法であって、第1ステップでは、各特徴点の動き情報が、ある閾値を超える場合、その特徴点を計測行列から除去し、残りの特徴点から構成される計測行列から、さらに移動点群や特徴点追跡処理にて正確に求められなかった点を抽出し、特徴点の動き情報を使って、同様に、ある閾値を超える特徴点を除去し、このような反復処理を、ある閾値内に特徴点が留まるまで繰り返すことで、移動点群、正確に求められなかった点を除去することを特徴とする空間情報獲得方法を、その解決の手段とする。
【0019】
あるいは、上記の空間情報獲得方法であって、第1ステップでは、計測行列の各特徴点画像座標値から、各特徴点の時間的な差分情報を生成して、これを要素とする時間差分的計測行列にて、移動点群や特徴点追跡処理にて正確に求められなかった点を抽出し、特徴点の動き情報を使って、移動点群や該正確に求められなかった点を除去することを特徴とする空間情報獲得方法を、その解決の手段とする。
【0020】
あるいは、上記の空間情報獲得方法であって、第1ステップでは、各特徴点の動き情報が、ある閾値を超える場合、その特徴点を計測行列から除去し、残りの特徴点から構成される計測行列の各特徴点画像座標値から、各特徴点の時間的な差分情報を生成して、これを要素とする時間差分的計測行列にて、移動点群や特徴点追跡処理にて正確に求められなかった点を抽出し、特徴点の動き情報を使って、同様に、ある閾値を超える特徴点を除去し、このような反復処理を、ある閾値内に特徴点が留まるまで繰り返すことで、移動点群や該正確に求められなかった点を除去することを特徴とする空間情報獲得方法を、その解決の手段とする。
【0021】
あるいは、画像入力装置で対象物を撮影して取得した時系列画像中にて、対象物の外観に関する特徴点の画像座標値の時間的変化量から、対象物の形状、並びに、時系列に対する画像入力装置の運動を獲得、復元する装置であって、時系列画像中の特徴点の時間的変化量を時系列にわたって集計したデータである計測行列から、移動物体上の点並びに移動する点(以下では、これらを移動点群と称する)や特徴点追跡処理において正確に求められなかった点を抽出し、特徴点の動き情報を使って、移動点群や該正確に求められなかった点を除去する第1の手段と、画像入力装置の姿勢を計測するセンサを使って、第1の手段で使用した時系列画像と同期しながら、画像入力装置の姿勢を計測し、該時系列に対し計測した姿勢情報から、各時系列画像に対応する運動情報としてセンサ運動行列を生成する第2の手段と、第1の手段において除去されなかった特徴点から構成される計測行列を行列分解して、画像入力装置の時系列的動きとしての画像運動行列と特徴点の3次元情報を表す形状情報としての物体形状行列を得る第3の手段と、第3の手段にて得た画像運動行列と、第2の手段で生成したセンサ運動行列との間の変換行列を算出し、該変換行列を用いて、第3の手段で得た物体形状行列から、特徴点の3次元座標値、すなわち、物体形状に関する空間情報を獲得する第4の手段と、を有することを特徴とする空間情報獲得装置を、その解決の手段とする。
【0022】
あるいは、画像入力装置で対象物を撮影して取得した時系列画像中にて、対象物の外観に関する特徴点の画像座標値の時間的変化量から、対象物の形状、並びに、時系列に対する画像入力装置の運動を獲得、復元する装置であって、時系列画像中の特徴点の時間的変化量を時系列にわたって集計したデータである計測行列から、移動点群や特徴点追跡処理にて正確に求められなかった点を抽出し、特徴点の動き情報を使って、移動点群や該正確に求められなかった点を除去する第1の手段と、第1の手段において残った特徴点から構成される計測行列から画像入力装置の運動と物体形状を求めるコンピュータビジョン的手法を利用して、物体形状に関する空間情報を獲得する第2の手段と、を有することを特徴とする空間情報獲得装置を、その解決の手段とする。
【0023】
あるいは、上記の空間情報獲得装置であって、第4の手段で獲得した物体形状に関する空間情報と、第2の手段で生成したセンサ運動行列をもとに画像面の再投影誤差を算出し、この誤差が収束しているか、または、ある一定以下の誤差になっているかどうかを判定し、誤差が収束していない、または、ある一定量を超えていると判定した場合は、新たな計測行列を生成し、この生成した計測行列を使って、誤差が収束、または、一定値以下になるまで反復的に第3の手段の処理、並びに、第4の手段の処理を繰り返し、物体形状に関する空間情報を獲得することを特徴とする空間情報獲得装置を、その解決の手段とする。
【0024】
あるいは、上記の空間情報獲得装置であって、第1の手段は、各特徴点の動き情報が、ある閾値を超える場合、その特徴点を計測行列から除去し、残りの特徴点から構成される計測行列から、さらに移動点群や特徴点追跡処理にて正確に求められなかった点を抽出し、特徴点の動き情報を使って、同様に、ある閾値を超える特徴点を除去し、このような反復処理を、ある閾値内に特徴点が留まるまで繰り返すことで、移動点群、正確に求められなかった点を除去するものであることを特徴とする空間情報獲得装置を、その解決の手段とする。
【0025】
あるいは、上記の空間情報獲得装置であって、第1の手段は、計測行列の各特徴点画像座標値から、各特徴点の時間的な差分情報を生成して、これを要素とする時間差分的計測行列にて、移動点群や特徴点追跡処理にて正確に求められなかった点を抽出し、特徴点の動き情報を使って、移動点群や該正確に求められなかった点を除去するものであることを特徴とする空間情報獲得装置を、その解決の手段とする。
【0026】
あるいは、上記の空間情報獲得装置であって、第1の手段は、各特徴点の動き情報が、ある閾値を超える場合、その特徴点を計測行列から除去し、残りの特徴点から構成される計測行列の各特徴点画像座標値から、各特徴点の時間的な差分情報を生成して、これを要素とする時間差分的計測行列にて、移動点群や特徴点追跡処理にて正確に求められなかった点を抽出し、特徴点の動き情報を使って、同様に、ある閾値を超える特徴点を除去し、このような反復処理を、ある閾値内に特徴点が留まるまで繰り返すことで、移動点群や該正確に求められなかった点を除去するものであることを特徴とする空間情報獲得装置を、その解決の手段とする。
【0027】
あるいは、上記の空間情報獲得方法におけるステップを、コンピュータに実行させるためのプログラムとしたことを特徴とする空間情報獲得プログラムを、その解決の手段とする。
【0028】
あるいは、上記の空間情報獲得方法におけるステップを、コンピュータに実行させるためのプログラムとし、該プログラムを、該コンピュータが読み取りできる記録媒体に記録したことを特徴とする空間情報獲得プログラムを記録した記録媒体を、その解決の手段とする。
【0029】
本発明では、対象物の外観に関する特徴点の画像座標値の時間的変化量から、特徴点の動き情報を使って、移動点群や特徴点追跡処理にて正確に求められなかった点を除去し、対象物の形状、並びに、時系列に対する画像入力装置の運動を獲得、復元することにより、時系列画像全般(移動手段を利用して撮影した車載映像、海上映像、空撮映像、屋内映像など)から、対象物に関する物体形状を高精度に獲得、復元することが可能とし、また、これまでの測量技術並の高精度な3次元立体視が可能とし、さらには、時系列映像から、静止物体、並びに移動物体の画像認識、画像理解が可能とする。
【0030】
【発明の実施の形態】
以下、本発明の実施の形態について図を用いて詳細に説明する。
【0031】
『実施形態例1』
図1は、本発明の第1の実施形態例を示す処理構成図であり、図2が、本発明の第1の実施形態例の処理フローである。これらの図をもとに本発明の第1の実施形態例を説明する。
【0032】
なお、画像入力装置としてカメラを、時系列画像として空撮画像の場合を説明する。空撮画像の場合、カメラの姿勢はGPSセンサなどを利用して姿勢情報を得ることができ、本実施形態例では、この姿勢情報を使った場合を説明している。本実施形態例では、移動物体上の点群(移動点群)と特徴点追跡の追跡エラーなどが原因で発生する復元誤差、すなわち特徴点追跡処理において正確に求められなかった点群を、以降、特に断らない限り、まとめてアウトライアと称し、これらの点群を除去することで高精度な特徴点を得る。
【0033】
本実施形態例は、時系列画像を蓄積した時系列画像データベース1、カメラの姿勢情報を蓄積した姿勢情報データベース2、時系列画像上の特徴点を自動的に追跡して、各フレームでの特徴点の画像座標値を測定し、計測行列を出力する特徴点追跡処理部3、移動点群やアウトライア除去に必要な計測行列の入力、並びに、特徴点追跡で得た特徴点の中から移動点群やアウトライアを除去した後に残った特徴点のみから計測行列を生成して、以降の処理に入力データとして与える計測行列入力部4、入力された計測行列からアウトライアを除去するアウトライア除去部5、アウトライアを取り除いた計測行列から物体形状を復元する空間情報処理部6、姿勢情報データベース2から取り出した時系列の姿勢情報等からセンサ運動行列を生成するセンサ運動行列生成部7、並びに、物体形状に関する空間情報を獲得する空間情報出力部8から構成される。
【0034】
まず、特徴点追跡処理部3は、時系列画像が、時間管理で格納されている時系列画像データベース1から1枚取り出し、これを初期画像として、その画像上に特徴点を配置する。このとき、エッジ検出、ハフ変換、並びに、濃淡の2次元勾配などの画像処理や追跡する画像間における相関情報(例えば、KLT法を利用するときのヘッセ行列の固有値など)を使ってにより自動的に、初期画像上にP個(j=1,2,…,P)の特徴点を配置する。ここで、初期画像(i=1)での特徴点の2次元画像座標値(x1j,y1j); j=1,2,…,Pを記録しておく。
【0035】
次に、特徴点追跡処理部3は、特徴点追跡処理にて、初期画像に続く時系列画像をデータベース1から1枚ずつ読み込み、初期画像に配置した特徴点を、時系列画像間の濃淡の変化などに着目した手法(KLT法)などを利用して追跡し、計測行列入力部4にて、各時系列画像(初期画像から第i番目の画像)の特徴点の画像座標値(xij,yij)を記録する。このような時系列的に追跡する処理を続けて、ある時系列区間のフレームにおいて特徴点の画像座標値(xij,yij)を測定する。この処理において、初期画像に配置した特徴点が追跡途中で画像中から消失する、または、オクルージョンなどにより隠れてしまったときは、その特徴点に関する追跡を停止して特徴点から外し、記録上も残さない。特徴点追跡が終了した時点で、読み出した時系列画像の数i=1,2,…,Fは、初期画像を含めてF枚とする。
【0036】
計測行列入力部4には、各時系列画像における特徴点の時間的な画像座標的配置の変化量が記録されている。特徴点の時間的な画像座標的配置の変化を行列としてデータ化したものを計測行列[A]と称し、式(1)のデータ形式とする。
【0037】
【数1】
Figure 2004252714
【0038】
さらに、計測行列入力部4は、式(2)に従って計測行列[A]から各フレーム(i−1,2.….F)にわたって特徴点の重心座標値(Tx,Ty)を計算する。この重心座標値(Tx,Ty)を、各時系列での並進成分として、計測行列[A]の各要素から差し引き、式(3)の行列[B]を保持しておく。
【0039】
【数2】
Figure 2004252714
【0040】
【数3】
Figure 2004252714
【0041】
次のアウトライア除去部5の説明をする。図3はアウトライア除去の処理フローである。最初に、計測行列[B]を入力し、特異値分解処理を行い、式(4)に示すように3つの行列に分解する。分解した行列の中で、式(5)のような行列要素を取り出し、3×Pサイズの行列[V]を速度行列として保持しておく(速度行列抽出)。
【0042】
【数4】
Figure 2004252714
【0043】
【数5】
Figure 2004252714
【0044】
アウトライア除去処理では、この速度行列[V]の各特徴点に対応する速度ベクトル値(vxj,vyj,vzj)によりアウトライアか否かを判定する。そのために、速度行列[V]に関する3×3サイズの共分散行列[Vc]を計算する。さらに、この共分散行列を固有値分解し、式(6)の右辺のように固有値(e,e,e)を得る。
【0045】
【数6】
Figure 2004252714
【0046】
次に、この固有値の平方根を使って、式(7)に示すスケール変換を行い、速度行列[V]を保持しておく。さらに、正規化した速度行列[V]の各速度成分の標準偏差σ,σ,σを計算し、この標準偏差値σ,σ,σとパラメータγで式(7−a)、または、(7−b)の変換を行い、行列[V]を得る。ここで式(7−b)のγは適当な実数であり、通常2.0を入れておく。
【0047】
【数7】
Figure 2004252714
【0048】
図4は、アウトライア判定の説明図である。図4のv”,v”,v”空間において、各特徴点の速度ベクトル(v”xj,v”yj,v”zj)が、原点からの距離を1とした球の内部にあるときはアウトライアでない、逆に、単位球の外部にあるときはアウトライアであると判定して、計測行列から外す。この図では、点p,pがアウトライアでなく、点p,pがアウトライアと判定される。アウトライア除去処理でアウトライアとして除去された特徴点の個数をN個だとして、残った特徴点数L(=P−N)を全体の特徴点とした計測行列を[C]とする(式(8))。これを計測行列として記録しておく。
【0049】
【数8】
Figure 2004252714
【0050】
次に、この計測行列から物体形状に関する空間情報を獲得する処理について説明する。図5は空間情報処理部における処理フローである。アウトライアを除去した計測行列[C]において、式(9)に示す重心座標値を各フレームにおいて求め、各フレームでの特徴点座標値から引いた行列[D]を式(10)として計算しておく。
【0051】
【数9】
Figure 2004252714
【0052】
【数10】
Figure 2004252714
【0053】
さらに、この行列[C]を特異値分解にて3つの行列に分解し、ランク4以上の成分を削除して、式(11)の部分行列を求めておく。
【0054】
【数11】
Figure 2004252714
【0055】
次に、式(12)、式(13)の画像運動行列[M]、物体行列[S]を計算しておく。
【0056】
【数12】
Figure 2004252714
【0057】
【数13】
Figure 2004252714
【0058】
一方、カメラの姿勢情報を蓄積した姿勢情報データベース2から、時系列画像に対応するカメラの姿勢(α,β,γ)、すなわち、Roll回転α,Pitch回転β,Yaw回転γ、並びに、ある基準面からの奥行きTz(空撮映像の場合は、GPSセンサを利用して計測したカメラの海抜水平面からの標高値)を取り出す。さらに、式(15)に示す行列を計算し、式(14)のセンサ運動行列[M]を求める。
【0059】
【数14】
Figure 2004252714
【0060】
【数15】
Figure 2004252714
【0061】
このセンサ運動行列[M]と先に分解して求めておいた画像運動行列[M]から、式(16)にしたがって、変換行列[Q]を求める。
【0062】
【数16】
Figure 2004252714
【0063】
さらに、式(17)にしたがって行列[S]求める。この行列[S]の各列ベクトルが特徴点の3次元座標値として獲得されている。
【0064】
【数17】
Figure 2004252714
【0065】
引き続き、透視投影型因子分解法を行うために、復元した物体形状行列[S]から各フレームの画像面に再投影して、式(18)にしたがって再投影した画像座標値(uij,vij)を得る。再投影とは、獲得したカメラ運動と物体形状から、例えば、図10の関係を用いて、画像面に再度投影して2次元座標値を求めることを意味する。
【0066】
【数18】
Figure 2004252714
【0067】
この再投影座標値と計測行列[D]の各行列要素から再投影誤差ΔAを算出する。ここで、εijを奥行き情報とし、k、並びに,Tは、式(15)から算出する。ここで、式(18)で求めた投影結果(uij,vij)と(xij,yij)を成分とする計測行列[A]との誤差行列[δA]を計算(式(19))し、この誤差行列[δA]から、[δA][δA]を求め、この対角要素を加算した量を計測行列との誤差ΔAとする(式(20))。
【0068】
【数19】
Figure 2004252714
【0069】
【数20】
Figure 2004252714
【0070】
この再投影誤差ΔAの値が収束しているか否かを判定して次の反復を行うかどうかを決定する。この誤差ΔAが、1つ前の反復時の誤差との差が許容範囲σ以下であると判定した場合は、収束したと判定し、このときの物体形状行列[S]を出力する。一方、許容誤差σを超えると判定した場合は、式(21),(22)に従って、次の反復で使用する計測行列[D(t)]を生成する。次の因子分解法では、この[D(t)]を行列[D]と置き換えて、これまでの処理を続ける。
【0071】
【数21】
Figure 2004252714
【0072】
【数22】
Figure 2004252714
【0073】
以上の発明により、時系列映像からの移動点群やアウトライアなどを除去して、静止物体の特徴点のみから構成される物体形状を表す3次元的空間座標値を高精度に復元することが可能となる。
【0074】
『実施形態例2』
本実施形態例では、本発明を時系列画像のみからカメラ運動と物体形状を求める手法、例えば、反復的透視投影型因子分解法(非特許文献1,2,3)と組み合わせて実現する例について記載する。図6は、本実施形態例の構成図であり、図7が処理フローである。
【0075】
本実施形態例は、時系列画像を蓄積した時系列画像データベース1、時系列画像上の特徴点を自動的に追跡して、各フレームでの特徴点の画像座標値を測定し、計測行列を出力する特徴点追跡処理部3、移動点群やアウトライア除去に必要な計測行列の入力、並びに、特徴点追跡で得た特徴点の中から移動点群やアウトライアを除去した後に残った特徴点のみから計測行列を生成して、以降の処理に入力データとして与える計測行列入力部4、入力された計測行列からアウトライアを除去するアウトライア除去部5、アウトライアを取り除いた計測行列から因子分解法を使ってカメラ運動と物体形状を復元する透視投影型因子分解処理部11、復元したカメラ運動と物体形状から各画像面へ再投影を行い計測行列との誤差を求める再投影誤差計測部12、透視投影に漸近させるために反復的に因子分解処理を行うかどうかを判定し、反復を行うときに透視投影に漸近するように計測行列を更新する計測行列更新処理部13、並びに、物体形状に関する空間情報を獲得する空間情報出力部8から構成される。
【0076】
本実施形態例は、第1の実施形態例と同様に、特徴点追跡処理部3が、時系列画像データベース1からの時系列画像に対して、特徴点を自動的に求め、あるフレームにわたって追跡を行い、式(1)の形式の計測行列[A]を得る。次に、アウトライア除去部5により、第1の実施形態例で説明したアウトライア除去を行って、計測行列からアウトライアのみを削除した計測行列[C]を得る。
【0077】
この後の処理は、透視投影型因子分解処理部11、再投影誤差計測部12および計測行列更新処理部13により、非特許文献1,2,3の反復的透視投影型因子分解法を利用して、カメラ運動と物体形状を復元する。空間情報出力部8は、この手法に得られた物体形状、すなわち、特徴点の3次元座標値(空間情報)を出力する。
【0078】
『実施形態例3』
本実施形態例は、上記第1、第2の実施形態例に対して、アウトライア除去部5によるアウトライア除去処理だけが異なるので、その部分のみを記載する。その箇所の処理フローを図8に示す。
【0079】
特徴点追跡処理部3から得る計測行列を、特異値分解し、速度行列[V]を抽出する。このとき、図3の単位球より外の特徴点はアウトライアとして除去する。つまり、最初の1回目の処理で計測行列から、アウトライアとした特徴点を削除し、これを新たな計測行列とする。この残った特徴点から構成される計測行列をさらに特異値分解して、速度行列を求め、図3において、単位球より外の特徴点をアウトライアとして除去する。このアウトライアと認識した特徴点を外した計測行列を新たな計測行列とする。このような反復処理を繰り返し、除去するアウトライアが無い、または、単位球内に全ての特徴点が収まっている場合は、計測行列の中に、もうアウトライアが無いと判定して、次の処理へ進む。以降は、残った特徴点から構成される計測行列を入力データとして、これまでの実施形態例の処理が行われる。
【0080】
本実施形態例によれば、除去すべき点の精度を上げることが可能となる。
【0081】
『実施形態例4』
本実施形態例は、これまでの実施形態例に、アウトライア除去処理する前段階で、特異値分解する行列データを生成する箇所のみ異なっているため、その部分のみを記載する。
【0082】
本実施形態例では、図1、または、図6の特徴点追跡処理部3で得た計測行列から時間差分型計測行列データを作成する。その処理フローを図9に示す。本実施形態例では、この処理フローにより得られた計測行列から、空間情報を復元する。
【0083】
まず、特徴点追跡により得られた計測行列[A]から、重心座標値を引いた計測行列[B]を入力データとして、式(23)に示すフレーム間の差分した座標値を生成する。これを行列[dB](時間差分型計測行列データ)として保持し、この行列を式(24)に示すように特異値分解する。
【0084】
【数23】
Figure 2004252714
【0085】
【数24】
Figure 2004252714
【0086】
ここで、分解された行列の要素から、式(25)に示す速度行列[dV]を得る。
【0087】
【数25】
Figure 2004252714
【0088】
以降は、この行列をアウトライア除去処理で使う速度行列として、式(6)の共分散行列の固有値を求め、式(7)、式(7−a)、式(7−b)のスケール変換した速度行列を得て、各特徴点の速度ベクトルが単位球の中、または、外かを判定してアウトライアを除去する。
【0089】
なお、図1や図6により示した装置における各処理部の一部もしくは全部の機能をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行して本発明を実現することができること、あるいは、図2、図3、図5、図7、図8、および図9で示した処理のステップをコンピュータのプログラムで構成し、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラム、あるいは、コンピュータにその処理のステップを実行させるためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えば、フレキシブルディスクや、MO、ROM、メモリカード、CD、DVD、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。このように、記録媒体やネットワークにより提供されたプログラムをコンピュータにインストールすることで、本発明が実施可能となる。
【0090】
【発明の効果】
本発明によれば、時系列画像全般(移動手段を利用して撮影した車載映像、海上映像、空撮映像、屋内映像など)から、対象物に関する物体形状を高精度に獲得、復元することができる。また、これまでの測量技術並の高精度な3次元立体視が可能である。また、時系列映像から、静止物体、並びに移動物体の画像認識、画像理解が可能である。
【図面の簡単な説明】
【図1】本発明による第1の実施形態例の基本構成図
【図2】第1の実施形態例の処理フロー図
【図3】第1の実施形態例のアウトライア除去部の処理フロー図
【図4】アウトライア判定の説明図
【図5】第1の実施形態例の空間情報処理部の処理フロー図
【図6】本発明による第2の実施形態例の基本構成図
【図7】第2の実施形態例の処理フロー図
【図8】本発明による第3の実施形態例のアウトライア除去部の処理フロー図
【図9】本発明による第4の実施形態例のアウトライア除去部の処理フロー図
【図10】再投影の説明図
【符号の説明】
1…時系列画像データベース
2…姿勢情報データベース
3…特徴点追跡処理部
4…計測行列入力部
5…アウトライア除去部
6…空間情報処理部
7…センサ運動行列生成部
8…空間情報出力部
11…透視投影型因子分解処理部
12…再投影誤差計測部
13…計測行列更新処理部

Claims (14)

  1. 画像入力装置で対象物を撮影して取得した時系列画像中にて、対象物の外観に関する特徴点の画像座標値の時間的変化量から、対象物の形状、並びに、時系列に対する画像入力装置の運動を獲得、復元する方法であって、
    時系列画像中の特徴点の時間的変化量を時系列にわたって集計したデータである計測行列から、移動物体上の点並びに移動する点(以下では、これらを移動点群と称する)や特徴点追跡処理において正確に求められなかった点を抽出し、特徴点の動き情報を使って、移動点群や該正確に求められなかった点を除去する第1ステップと、
    画像入力装置の姿勢を計測するセンサを使って、第1ステップで使用した時系列画像と同期しながら、画像入力装置の姿勢を計測し、該時系列に対し計測した姿勢情報から、各時系列画像に対応する運動情報としてセンサ運動行列を生成する第2ステップと、
    第1ステップにおいて除去されなかった特徴点から構成される計測行列を行列分解して、画像入力装置の時系列的動きとしての画像運動行列と特徴点の3次元情報を表す形状情報としての物体形状行列を得る第3ステップと、
    第3ステップにて得た画像運動行列と、第2ステップで生成したセンサ運動行列との間の変換行列を算出し、該変換行列を用いて、第3ステップで得た物体形状行列から、特徴点の3次元座標値、すなわち、物体形状に関する空間情報を獲得する第4ステップと、を有する
    ことを特徴とする空間情報獲得方法。
  2. 画像入力装置で対象物を撮影して取得した時系列画像中にて、対象物の外観に関する特徴点の画像座標値の時間的変化量から、対象物の形状、並びに、時系列に対する画像入力装置の運動を獲得、復元する方法であって、
    時系列画像中の特徴点の時間的変化量を時系列にわたって集計したデータである計測行列から、移動点群や特徴点追跡処理にて正確に求められなかった点を抽出し、特徴点の動き情報を使って、移動点群や該正確に求められなかった点を除去する第1ステップと、
    第1ステップにおいて残った特徴点から構成される計測行列から画像入力装置の運動と物体形状を求めるコンピュータビジョン的手法を利用して、物体形状に関する空間情報を獲得する第2ステップと、を有する
    ことを特徴とする空間情報獲得方法。
  3. 請求項1記載の空間情報獲得方法であって、
    第4ステップで獲得した物体形状に関する空間情報と、第2ステップで生成したセンサ運動行列をもとに画像面の再投影誤差を算出し、この誤差が収束しているか、または、ある一定以下の誤差になっているかどうかを判定し、誤差が収束していない、または、ある一定量を超えていると判定した場合は、新たな計測行列を生成し、この生成した計測行列を使って、誤差が収束、または、一定値以下になるまで反復的に第3ステップ、並びに、第4ステップを繰り返し、物体形状に関する空間情報を獲得する
    ことを特徴とする空間情報獲得方法。
  4. 請求項1ないし請求項3のいずれかに記載の空間情報獲得方法であって、
    第1ステップでは、
    各特徴点の動き情報が、ある閾値を超える場合、その特徴点を計測行列から除去し、残りの特徴点から構成される計測行列から、さらに移動点群や特徴点追跡処理にて正確に求められなかった点を抽出し、特徴点の動き情報を使って、同様に、ある閾値を超える特徴点を除去し、このような反復処理を、ある閾値内に特徴点が留まるまで繰り返すことで、移動点群、正確に求められなかった点を除去する
    ことを特徴とする空間情報獲得方法。
  5. 請求項1ないし請求項3のいずれかに記載の空間情報獲得方法であって、
    第1ステップでは、
    計測行列の各特徴点画像座標値から、各特徴点の時間的な差分情報を生成して、これを要素とする時間差分的計測行列にて、移動点群や特徴点追跡処理にて正確に求められなかった点を抽出し、特徴点の動き情報を使って、移動点群や該正確に求められなかった点を除去する
    ことを特徴とする空間情報獲得方法。
  6. 請求項1ないし請求項3のいずれかに記載の空間情報獲得方法であって、
    第1ステップでは、
    各特徴点の動き情報が、ある閾値を超える場合、その特徴点を計測行列から除去し、残りの特徴点から構成される計測行列の各特徴点画像座標値から、各特徴点の時間的な差分情報を生成して、これを要素とする時間差分的計測行列にて、移動点群や特徴点追跡処理にて正確に求められなかった点を抽出し、特徴点の動き情報を使って、同様に、ある閾値を超える特徴点を除去し、このような反復処理を、ある閾値内に特徴点が留まるまで繰り返すことで、移動点群や該正確に求められなかった点を除去する
    ことを特徴とする空間情報獲得方法。
  7. 画像入力装置で対象物を撮影して取得した時系列画像中にて、対象物の外観に関する特徴点の画像座標値の時間的変化量から、対象物の形状、並びに、時系列に対する画像入力装置の運動を獲得、復元する装置であって、
    時系列画像中の特徴点の時間的変化量を時系列にわたって集計したデータである計測行列から、移動物体上の点並びに移動する点(以下では、これらを移動点群と称する)や特徴点追跡処理において正確に求められなかった点を抽出し、特徴点の動き情報を使って、移動点群や該正確に求められなかった点を除去する第1の手段と、
    画像入力装置の姿勢を計測するセンサを使って、第1の手段で使用した時系列画像と同期しながら、画像入力装置の姿勢を計測し、該時系列に対し計測した姿勢情報から、各時系列画像に対応する運動情報としてセンサ運動行列を生成する第2の手段と、
    第1の手段において除去されなかった特徴点から構成される計測行列を行列分解して、画像入力装置の時系列的動きとしての画像運動行列と特徴点の3次元情報を表す形状情報としての物体形状行列を得る第3の手段と、
    第3の手段にて得た画像運動行列と、第2の手段で生成したセンサ運動行列との間の変換行列を算出し、該変換行列を用いて、第3の手段で得た物体形状行列から、特徴点の3次元座標値、すなわち、物体形状に関する空間情報を獲得する第4の手段と、を有する
    ことを特徴とする空間情報獲得装置。
  8. 画像入力装置で対象物を撮影して取得した時系列画像中にて、対象物の外観に関する特徴点の画像座標値の時間的変化量から、対象物の形状、並びに、時系列に対する画像入力装置の運動を獲得、復元する装置であって、
    時系列画像中の特徴点の時間的変化量を時系列にわたって集計したデータである計測行列から、移動点群や特徴点追跡処理にて正確に求められなかった点を抽出し、特徴点の動き情報を使って、移動点群や該正確に求められなかった点を除去する第1の手段と、
    第1の手段において残った特徴点から構成される計測行列から画像入力装置の運動と物体形状を求めるコンピュータビジョン的手法を利用して、物体形状に関する空間情報を獲得する第2の手段と、を有する
    ことを特徴とする空間情報獲得装置。
  9. 請求項7記載の空間情報獲得装置であって、
    第4の手段で獲得した物体形状に関する空間情報と、第2の手段で生成したセンサ運動行列をもとに画像面の再投影誤差を算出し、この誤差が収束しているか、または、ある一定以下の誤差になっているかどうかを判定し、誤差が収束していない、または、ある一定量を超えていると判定した場合は、新たな計測行列を生成し、この生成した計測行列を使って、誤差が収束、または、一定値以下になるまで反復的に第3の手段の処理、並びに、第4の手段の処理を繰り返し、物体形状に関する空間情報を獲得する
    ことを特徴とする空間情報獲得装置。
  10. 請求項7ないし請求項9のいずれかに記載の空間情報獲得装置であって、
    第1の手段は、
    各特徴点の動き情報が、ある閾値を超える場合、その特徴点を計測行列から除去し、残りの特徴点から構成される計測行列から、さらに移動点群や特徴点追跡処理にて正確に求められなかった点を抽出し、特徴点の動き情報を使って、同様に、ある閾値を超える特徴点を除去し、このような反復処理を、ある閾値内に特徴点が留まるまで繰り返すことで、移動点群、正確に求められなかった点を除去するものである
    ことを特徴とする空間情報獲得装置。
  11. 請求項7ないし請求項9のいずれかに記載の空間情報獲得装置であって、
    第1の手段は、
    計測行列の各特徴点画像座標値から、各特徴点の時間的な差分情報を生成して、これを要素とする時間差分的計測行列にて、移動点群や特徴点追跡処理にて正確に求められなかった点を抽出し、特徴点の動き情報を使って、移動点群や該正確に求められなかった点を除去するものである
    ことを特徴とする空間情報獲得装置。
  12. 請求項7ないし請求項9のいずれかに記載の空間情報獲得装置であって、
    第1の手段は、
    各特徴点の動き情報が、ある閾値を超える場合、その特徴点を計測行列から除去し、残りの特徴点から構成される計測行列の各特徴点画像座標値から、各特徴点の時間的な差分情報を生成して、これを要素とする時間差分的計測行列にて、移動点群や特徴点追跡処理にて正確に求められなかった点を抽出し、特徴点の動き情報を使って、同様に、ある閾値を超える特徴点を除去し、このような反復処理を、ある閾値内に特徴点が留まるまで繰り返すことで、移動点群や該正確に求められなかった点を除去するものである
    ことを特徴とする空間情報獲得装置。
  13. 請求項1ないし請求項6のいずれかに記載の空間情報獲得方法におけるステップを、コンピュータに実行させるためのプログラムとした
    ことを特徴とする空間情報獲得プログラム。
  14. 請求項1ないし請求項6のいずれかに記載の空間情報獲得方法におけるステップを、コンピュータに実行させるためのプログラムとし、
    該プログラムを、該コンピュータが読み取りできる記録媒体に記録した
    ことを特徴とする空間情報獲得プログラムを記録した記録媒体。
JP2003042469A 2003-02-20 2003-02-20 空間情報獲得方法、装置、空間情報獲得プログラム、および該プログラムを記録した記録媒体 Pending JP2004252714A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003042469A JP2004252714A (ja) 2003-02-20 2003-02-20 空間情報獲得方法、装置、空間情報獲得プログラム、および該プログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003042469A JP2004252714A (ja) 2003-02-20 2003-02-20 空間情報獲得方法、装置、空間情報獲得プログラム、および該プログラムを記録した記録媒体

Publications (1)

Publication Number Publication Date
JP2004252714A true JP2004252714A (ja) 2004-09-09

Family

ID=33025741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003042469A Pending JP2004252714A (ja) 2003-02-20 2003-02-20 空間情報獲得方法、装置、空間情報獲得プログラム、および該プログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP2004252714A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100735555B1 (ko) * 2005-09-15 2007-07-04 삼성전자주식회사 동작에 따른 기능을 수행하는 장치 및 방법
JP2013508844A (ja) * 2009-10-20 2013-03-07 トタル・イメルジヨン 画像のシーケンス内のオブジェクトのリアルタイム表現のハイブリッド型追跡のための方法、コンピュータプログラム、および装置
WO2023032600A1 (ja) * 2021-08-30 2023-03-09 京セラ株式会社 電子機器、電子機器の制御方法、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100735555B1 (ko) * 2005-09-15 2007-07-04 삼성전자주식회사 동작에 따른 기능을 수행하는 장치 및 방법
JP2013508844A (ja) * 2009-10-20 2013-03-07 トタル・イメルジヨン 画像のシーケンス内のオブジェクトのリアルタイム表現のハイブリッド型追跡のための方法、コンピュータプログラム、および装置
WO2023032600A1 (ja) * 2021-08-30 2023-03-09 京セラ株式会社 電子機器、電子機器の制御方法、及びプログラム

Similar Documents

Publication Publication Date Title
US10460463B2 (en) Modelling a three-dimensional space
US10334168B2 (en) Threshold determination in a RANSAC algorithm
US20170278302A1 (en) Method and device for registering an image to a model
Chen et al. A particle filtering framework for joint video tracking and pose estimation
CN111680573B (zh) 人脸识别方法、装置、电子设备和存储介质
US20170178347A1 (en) Dynamic particle filter parameterization
Vo et al. Spatiotemporal bundle adjustment for dynamic 3d human reconstruction in the wild
CN103886287A (zh) 一种基于3d投影的跨视角步态识别方法
JP2007271408A (ja) 三次元環境情報取得装置,三次元環境情報取得方法及びその方法を実現したプログラムを格納した記録媒体
Zheng et al. Self-expressive dictionary learning for dynamic 3d reconstruction
JP6086491B2 (ja) 画像処理装置およびそのデータベース構築装置
JP2006195790A (ja) レンズ歪推定装置、レンズ歪推定方法、及びレンズ歪推定プログラム
JP5281479B2 (ja) カメラ運動・物体形状復元方法、カメラ運動・物体形状復元装置、カメラ運動・物体形状復元プログラム及びこのプログラムを記録した記録媒体
CN111316323A (zh) 一种三维轨迹数据的异常值处理方法及装置
JP2004252714A (ja) 空間情報獲得方法、装置、空間情報獲得プログラム、および該プログラムを記録した記録媒体
JP3871582B2 (ja) 物体形状復元・移動物体検出方法、物体形状復元・移動物体検出装置、物体形状復元・移動物体検出プログラム、およびこのプログラムを記録した記録媒体
Amamra et al. Crime scene reconstruction with RGB-D sensors
JP6641313B2 (ja) 領域抽出装置及びプログラム
WO2009104965A2 (en) A method of estimating a motion of a multiple camera system, a multiple camera system and a computer program product
JP2009129049A (ja) 物体位置推定装置、物体位置推定方法、物体位置推定プログラムおよびそのプログラムを記録した記録媒体
CN113034345A (zh) 一种基于sfm重建的人脸识别方法及系统
JP3759712B2 (ja) カメラパラメータ推定方法、装置、プログラム、および記録媒体
Chugunov et al. Shakes on a plane: Unsupervised depth estimation from unstabilized photography
US20240029283A1 (en) Image depth prediction method, electronic device, and non-transitory storage medium
JP3901552B2 (ja) 全方位カメラ視点運動並びに物体形状復元方法、装置、全方位カメラ視点運動並びに物体形状復元プログラム、及び該プログラムを記録した記録媒体