JP3759712B2 - Camera parameter estimation method, apparatus, program, and recording medium - Google Patents
Camera parameter estimation method, apparatus, program, and recording medium Download PDFInfo
- Publication number
- JP3759712B2 JP3759712B2 JP2001357890A JP2001357890A JP3759712B2 JP 3759712 B2 JP3759712 B2 JP 3759712B2 JP 2001357890 A JP2001357890 A JP 2001357890A JP 2001357890 A JP2001357890 A JP 2001357890A JP 3759712 B2 JP3759712 B2 JP 3759712B2
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- reference point
- image
- camera
- point group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、画像入力装置等により取得した時系列画像データから、対象物の3次元形状または構造を計測または獲得、ならびに復元する際の画像入力装置の透視投影視点に関する姿勢(ピッチ,ロール,ヨー)、または回転パラメータ、特に、コンピュータビジョンにおけるカメラの姿勢推定方法に関する。
【0002】
【従来の技術】
リモートセンシング技術の進展により、高精度なセンサ装置が開発されている。最近では、高精度なディファレンシャルGPS(Global Positioning System:位置測位システム)装置を複数用いて姿勢を計測する方式が実用化されており、0.1度以下の姿勢までもセンシングできるようになっている。しかし、センサ精度は向上するものの、映像との一対一の対応付けの点で言えば、画像が装置間の遅延や画像レートとの非同期などにより、画像を管理するタイムコードと一致せず、特に、空中撮影のような環境では、突風、ビル風、気象条件などにより、急激な変化が発生する場合は、画像とセンシング姿勢との不一致が見られる。図6で、センサ装置を使った計測値と画像レートでの不一致を説明する。センサ装置は位置を、ある一定間隔で計測し、そのレートで画像と計測値が、タイムコードなどにより一対一で対応付けられて記録される。しかし、一般的に、画像レートとセンサレートは異なる場合が多く、必ずしも各時系列画像を取得した姿勢をセンシングできているとは限らない。すなわち、測量において、画像レートとセンサレートを合わせるため、画像レートに対応付けられるように、線形補間などの内挿法を利用してつじつま合わせを行う。このとき、図6で白丸で表したような点は、線形補間されているため、黒丸で表した点と比べて、正確な姿勢でない場合が発生し、空間情報を映している画像上の点は、画像上の投影と異なる可能性がある。したがって、このような姿勢と画像との不一致により、画像とセンサデータを利用した3次元座標獲得手法などに精度悪化を発生させる。ここで、表現するレートとは、1秒間当たりのデータ数を指す。つまり、画像レートとは、1秒間に30枚の周期でデータが取得されるのに対して、センサレートの場合、1秒間に1回しかデータ取得(ディファレンシャルGPSの場合)ができない。本明細書では、この30枚の静止画像/1秒と、1回測定のGPSデータ/1秒をそれぞれ、レートと表現している。
【0003】
一方、コンピュータビジョンの分野では、時系列画像データから、対象物の形状を計測、または獲得する手法として、ステレオ計測やエピポーラ解析を用いた3次元解析手法がある。また、最近では、カメラの運動と対象物の形状に関する3次元情報を同時に計測または獲得する手法の代表的な手法として、因子分解法がある。これらの手法によれば、対象物が撮影されている複数の時系列画像から、3次元の形状に関する情報ならびにカメラ視点に関する姿勢パラメータ(回転パラメータ)を獲得、復元することができる。しかし、撮影環境の影響によりカメラが振動し、得られた空撮画像は雑音が多く含んだ時系列画像であり、その空撮映像中の雑音成分の影響により、カメラ運動の姿勢推定、運動復元が困難な場合がある。
【0004】
また、特願平10−255338「カメラ姿勢推定方法およびその処理手順を記録した記録媒体ならびにカメラ姿勢推定装置」では、物体の標高値データ、2次元ディジタル地図、カメラ位置情報を使ったカメラ姿勢推定手法が存在する。しかし、この発明のように、複数のデータが常に、準備されている保証はなく、データ量が膨大になるという問題がある。
【0005】
【発明が解決しようとする課題】
一般に、画像入力装置の画像入力レートはセンサ装置のセンサレートよりも高速であるため、画像入力装置で撮影された時系列画像全てについてカメラ運動としてのカメラ姿勢、または回転パラメータ等のカメラパラメータを得ることはできない。このため、通常、撮影された時系列画像中にセンサ装置で測定された正確なカメラパラメータと対応づけられた画像(以下、パラメータ判明画像という)は所定の割合でしか存在しない。カメラパラメータが対応づけられていない画像(以下、パラメータ未定画像という)のカメラパラメータを、前記パラメータ判明画像に対応づけられたカメラパラメータから補間計算し、パラメータ未定画像のカメラパラメータとして対応づける方法もある(既知のカメラパラメータを使って補間することにより得られたカメラパラメータを対応づけられた画像を、以下では、パラメータ補間画像という)。しかし、突風、ビル風等の影響により映像シーンが揺れる空撮画像においては、カメラの撮影姿勢が微妙に、またはバースト的に変動するため、計算されて補間されたカメラパラメータは不正確になる。
【0006】
本発明の目的は、撮影された時系列画像中に正確な3次元座標値が判明している複数の基準点(以下では、基準点群という。)が存在する場合に、パラメータ未定画像の正確なカメラパラメータを推定するカメラパラメータ推定方法および装置を提供することである。
【0007】
本発明の他の目的は、パラメータ判明画像が存在せず、全ての時系列画像のカメラパラメータが不明な場合に、パラメータ未定画像の正確なカメラパラメータを推定するカメラパラメータ推定方法および装置を提供することである。
【0008】
【課題を解決するための手段】
本発明のカメラパラメータ推定方法は、
基準点群を所定の初期画像に配置する基準点群配置ステップと、
基準点群が移動する状態を撮影した一連の画像群中の各画像において基準点群の座標位置を画像処理により求め、これら基準点群の座標位置の移動状態を示す計測行列より、因子分解法を用いて基準点群の相対的3次元座標行列を求める相対的3次元座標行列計算ステップと、
相対的3次元座標行列を特異値分解し、分解された各々の行列の中から特異値行列を抽出する特異値行列抽出ステップと、
正確な3次元座標行列を特異値分解し、分解された各々の行列の中から、特異値行列の両側に位置する左行列と右行列を抽出する左右行列抽出ステップと、
特異値行列抽出ステップで抽出された特異値行列と左右行列抽出ステップで抽出された左行列と右行列を組み合わせてスケールを変換した3次元座標行列を生成する3次元座標行列生成ステップと、
計測行列を特異値分解してノイズを除去した行列と、3次元座標行列生成ステップで生成された3次元座標行列より、因子分解法を用いてカメラ運動行列を求めるカメラ運動行列算出ステップと、
前記カメラ運動行列からカメラパラメータを算出するカメラパラメータ算出ステップを有する。
【0009】
本発明は、突風、ビル風等の影響により映像シーンが揺れる空撮映像において、空撮映像中の基準点群の時系列画像上での2次元的移動量と、基準点群に関する3次元位置が格納されている空間情報データベースから、該当する3次元座標値を抽出して、それを既知情報とし、各時系列画像のカメラ視点に関する運動、姿勢、回転のパラメータを獲得、ならびに復元するものである。
【0010】
本発明の方法を利用することにより、空中撮影した時系列画像から、カメラの姿勢パラメータ、すなわち回転パラメータを高精度に獲得、復元することが可能となる。また、本発明により復元したカメラの姿勢パラメータ(回転パラメータ)は、特願平10−232979「3次元構造獲得方法および装置ならびにその方法の記録媒体」、特願平10−374062「3次元構造獲得・復元方法、装置、および3次元構造獲得・復元プログラムを記録した記録媒体」、特願平11−40299「構造情報復元および記録媒体ならびに構造情報復元装置」、特願平11−271383「3次元構造獲得方法及び記録媒体並びに装置」のカメラ運動に適用することが可能であり、それらと併用して、建物形状のより高精度で、かつ安定的な獲得、復元が可能となる。
【0011】
【発明の実施の形態】
次に、本発明の実施の形態について図面を参照して説明する。
【0012】
図1は本発明の一実施形態のカメラパラメータ推定装置の構成図である。
【0013】
本実施形態のカメラパラメータ推定装置は、データを入力するための、キーボード等のデータ入力部1と、データを一時的に記憶する記憶部2と、地面の形状をデジタル化したデジタル情報が格納されている空間情報データベース3と、撮影された画像が時系列に格納されている時系列画像データベース4と、推定されたカメラパラメータが出力(表示または印字)される出力部5と、カメラパラメータ推定処理を行い、推定されたカメラパラメータを出力部5に出力する処理部6で構成されている。
【0014】
処理部6は、基準点群を所定の初期画像に配置する基準点群配置部6Aと、基準点群が移動する状態を撮影した一連の画像群中の各画像において基準点群の座標位置を画像処理により求め、これら基準点群の座標位置の移動状態を示す計測行列より、因子分解法を用いて基準点群の相対的3次元座標行列を求める相対的3次元座標行列計算部6Bと、相対的3次元座標行列を特異値分解し、分解された各々の行列の中で、特異値行列を抽出する特異値行列抽出部6Cと、正確な3次元座標行列を特異値分解し、分解された各々の行列の中で、特異値行列の両側に位置する左行列と右行列を抽出する左右行列抽出部6Dと、特異値行列抽出部6Cで抽出された特異値行列と左右行列抽出部6Dで抽出された左行列と右行列を組み合わせてスケールを変換した3次元座標行列を生成する3次元座標行列生成部6Eと、計測行列を特異値分解してノイズを除去した行列と、3次元座標行列生成部6Eによって生成された3次元座標行列より、因子分解法を用いてカメラ運動行列を求めるカメラ運動行列算出部6Fと、カメラ運動行列からカメラ姿勢パラメータ(カメラ回転パラメータ)を算出するカメラパラメータ算出部6Gを含む。
【0015】
図2は処理部6で行なわれるカメラパラメータ推定処理のフローチャートである。
【0016】
以下では、基準面上の点群の例として、地面に位置する標本点(GCP:Ground Control Points / Positions)を例にとり、空間情報、空間モデルの獲得、復元方法として因子分解法を用いた例について記載する。
【0017】
まず、基準点群配置部6Aにより、カメラ運動を復元する映像シーンにおいて、地面に位置すると認識した基準点群を映像シーンの初期画像に配置する(ステップ11)。
【0018】
図3により、基準点群の初期配置に関する処理の流れを説明する。まず、空間情報データベース3の中から、空間情報が存在するものだけを抽出する(ステップ22)。または、空撮画像でも特定できるような地面上の標本点、すなわち、GCPを予め測量しておき、これら点群の空間情報を空間情報データベース3に格納し、この空間情報を抽出する。ここで、空間情報とは、基準点Piの3次元座標値(Xi,Yi,Zi)を意味する。これに対して、時系列画像データベース4の中から、初期画像とする画像を取り出し(ステップ23)、この画像に基準点群の空間情報を配置する(ステップ24)。図4に、初期画像における基準点群配置の例を示す。図のように、複数の点を、偏りがない程度に配置する。なお、この基準点群は、空間情報データベース3から読み込んだ空間情報を元に、画像上に、それに該当する点群を配置したものである。例えば、パラメータ判明画像またはパラメータ補間画像のいずれか1枚の画像のカメラパラメータが正しいと仮定し、カメラパラメータが正しいと仮定した画像を初期画像として、基準点群の正確な3次元座標値と該カメラパラメータに基づいて、基準点群を前記初期画像に透視投影により配置したり、または、空間情報とそれに該当する画像サンプルが時系列画像データベース4に存在し、オペレータに対してその画像サンプルを閲覧させて(ステップ21)、オペレータが初期画像中のどこにその点をマークすべきかを認識し、初期画像上に、逐次、基準点群を配置し、閲覧画像を見て点配置が正常かどうかを判断し(ステップ25)、基準点群が確定する。また、空撮映像で、時系列画像の流れる方向が一定方向であるため、初期画像に、全体に基準点群を配置するのではなく、ある枚数までフレームアウト(映像中の被写体が画面から外れること)しない程度に基準点群を配置しておく。図5は、ある枚数まで画像追跡した後の基準点群の画像上での位置を示している。図2での時系列画像追跡(ステップ13)は、基準点群がフレームアウトするまで、F枚の画像に対して行う(点群中に1つでもフレームアウトすると処理を停止する)。これにより、計測した基準点群の時系列画像での2次元座標pi(xi1,yi1);i=1,2,・・・Pの軌跡データ[Agcp](以下では、計測行列と称する)を記憶部2に保存する。このデータ形式は、以下のようなフォーマットになっている。
【0019】
【数1】
【0020】
次に、相対的3次元座標行列計算部6Bにおいて、この行列[Agcp]から因子分解法なる手法で、基準点群の相対的3次元座標行列[s]を獲得する(ステップ14)。この手法として、
C. Tomasi and T. Kanade, "Shape and Motion from Image Streams under Orthography: a Factorization Method", IJCV, Vol.9, No.2, pp.137-154, 1992(文献1)
Conrad J. Poelman, and T. Kanade, "A Paraperspective Factorization Method for Shape and Motion Recovery", IEEE Trans. PAMI, Vol.19, No.3, March, 1997(文献2)
に記載されている手法を利用する。因子分解法は、映像中の特徴点(被写体の角点、特徴のある点群)に対して、時系列にわたり、その画像上の座標点を計測し、得られた画像座標値のデータから、時系列におけるカメラの運動(すなわち、各時系列にわたり、どのようにカメラが動いたかという情報)その特徴点の3次元座標値を同時に獲得する手法である。
【0021】
因子分解法により獲得した基準点群の相対的3次元座標行列[s]は、以下の形式となる。
【0022】
【数2】
【0023】
一方、図2の処理フローでは、各基準点群Piの空間情報(Xi,Yi,Zi)から、以下のようなフォーマットで基準点群の正確な3次元座標行列[S]を生成する。
【0024】
【数3】
【0025】
特異値行列抽出部6Cにより式(2)と式(3)を特異値分解(SVD:Singular Value Decomposition)する(ステップ15)。
【0026】
【数4】
【0027】
左右行列抽出部6Dにより式(5)における左側と右側の行列を抽出する。3次元座標行列抽出部6Eによって図2におけるステップ16で、式(4)における特異値行列と、式(5)における左側と右側の行列を組み合わせて、以下の行列を生成し、出力データを[X]とする。
【0028】
【数5】
【0029】
次に、カメラ運動行列抽出部6Fにより式(1)を特異値分解し、ランク4以上の成分をノイズと見なし、ノイズを除去することにより、[Agcp]≒[U1][W1][V1]を求め、次に、以下を満足する行列[Q]を計算する(ステップ17)。
分解した行列には、以下の行列[Q]だけの不定性がある。
【0030】
【数6】
【0031】
ここで、行列[M]はカメラ運動行列である。これを、以下の拘束条件で行列[Q]を求める。
【0032】
【数7】
【0033】
[M]は未知な行列であるため、以下が成立しなければならない。
【0034】
【数8】
【0035】
したがって、行列[Q]は、
【0036】
【数9】
【0037】
となる。一方、ステップ18では、次の計算式によりカメラ運動行列を復元する。
【0038】
【数10】
【0039】
ステップ19で、カメラ視点の姿勢または回転パラメータを、文献(1)、(2)に記載されている手法で求める。ここで、回転パラメータとは、時系列画像に対するロール,ピッチ,ヨー角を指す。
【0040】
ステップ19では、まず、カメラ運動行列〔M〕が、式(9)のような成分を有し、この行列に対して、時系列画像に対するカメラ運動成分mf,nf(f=1,2・・・,F)を取り出す。
【0041】
【数11】
【0042】
次に、以下のベクトルをmf,nf,ならびに各フレームでの基準点群から算出される重心座標値(xf,yf)を使って求める。
【0043】
【数12】
【0044】
上記のベクトルと重心座標値により、光軸方向のカメラ姿勢ベクトルkfが以下の式にて算出できる。
【0045】
【数13】
【0046】
続いて、以下の計算で、その他のカメラ姿勢ベクトルif,jfが算出できる。
【0047】
【数14】
【0048】
さらに、回転パラメータαf,βf,γfは、以下の式で算出する。
【0049】
【数15】
【0050】
上記の回転パラメータ算出を、各フレームfにおいて行い、時系列画像に対する回転パラメータを得る。
【0051】
この方法で復元したカメラ視点に関する姿勢(カメラパラメータ)は、時系列画像と矛盾なく一致しており、突風、ビル風、気象条件の影響の場合でも、正確な視点、または、視線の姿勢を表現している。
【0052】
さらに、初期画像のカメラパラメータが正しいと仮定して基準点群を初期画像に透視投影により自動配置した場合には、上記方法により算出されたカメラパラメータを用いて、再度、更新したカメラパラメータを使って基準点群を透視投影により自動配置し、上記方法を実行することにより、一層、正確なカメラパラメータを獲得復元することができる。
【0053】
なお、処理部6はその機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するものであってもよい。コンピュータ読み取り可能な記録媒体とは、フロッピー(登録商標)ディスク、光磁気ディスク、CD−ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。さらに、コンピュータ読み取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間の間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含む。
【0054】
【発明の効果】
以上説明したように、本発明は、下記のような効果がある。
1)撮影された時系列画像中に正確な3次元座標値が判明している複数の基準点(基準点群)が存在する場合に、パラメータ判明画像のカメラパラメータと時系列画像中の基準点群の移動に基づいてパラメータ未定画像の正確なカメラパラメータを推定できる。
2)パラメータ判明画像が存在せず、全ての時系列画像のカメラパラメータが不明な場合に、オペレータが基準点群を所定の画像に初期配置することにより、時系列画像中の基準点群の移動に基づいてパラメータ未定画像の正確なカメラパラメータを推定できる。
【図面の簡単な説明】
【図1】本発明の一実施形態のカメラパラメータ推定装置の構成図である。
【図2】カメラパラメータ推定処理のフローチャートである。
【図3】基準点群の配置方法を示すフローチャートである。
【図4】初期画像での点群配置を示す図である。
【図5】追跡中の基準点群を示す図である。
【図6】センサ計測値と画像レートの違いを示す図である。
【符号の説明】
1 入力部
2 記憶部
3 空間情報データベース
4 時系列画像データベース
5 出力部
6 処理部
6A 基準点群配置部
6B 相対的3次元座標行列計算部
6C 特異点行列抽出部
6D 左右行列抽出部
6E 3次元座標行列生成部
6F カメラ運動行列算出部
6G カメラパラメータ算出部
11〜19,21〜25 ステップ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a perspective (pitch, roll, yaw) of an image input device when measuring or acquiring and restoring a three-dimensional shape or structure of an object from time-series image data acquired by an image input device or the like. ) Or rotation parameters, and more particularly, to a camera posture estimation method in computer vision.
[0002]
[Prior art]
With the advancement of remote sensing technology, highly accurate sensor devices have been developed. Recently, a method for measuring postures using a plurality of high-precision differential GPS (Global Positioning System) devices has been put into practical use, and can sense even postures of 0.1 degrees or less. . However, although the sensor accuracy is improved, in terms of one-to-one correspondence with video, the image does not match the time code for managing the image due to delay between devices or asynchronous with the image rate. In an environment such as aerial photography, when an abrupt change occurs due to gusts, building winds, weather conditions, etc., there is a discrepancy between the image and the sensing posture. The discrepancy between the measurement value using the sensor device and the image rate will be described with reference to FIG. The sensor device measures the position at a certain interval, and the image and the measured value are recorded in one-to-one correspondence with the time code or the like at that rate. However, in general, the image rate and the sensor rate are often different, and it is not always possible to sense the posture at which each time-series image is acquired. That is, in surveying, in order to match the image rate and the sensor rate, matching is performed using an interpolation method such as linear interpolation so as to be associated with the image rate. At this time, since the points represented by white circles in FIG. 6 are linearly interpolated, there are cases where the posture is not accurate compared to the points represented by black circles, and the points on the image showing the spatial information are generated. May differ from the projection on the image. Therefore, the mismatch between the posture and the image causes a deterioration in accuracy in a three-dimensional coordinate acquisition method using the image and the sensor data. Here, the expressed rate refers to the number of data per second. In other words, with the image rate, data is acquired at a cycle of 30 sheets per second, whereas with the sensor rate, data can be acquired only once per second (in the case of differential GPS). In this specification, the 30 still images / second and the GPS data / second measured once are expressed as rates.
[0003]
On the other hand, in the field of computer vision, there are three-dimensional analysis methods using stereo measurement and epipolar analysis as methods for measuring or acquiring the shape of an object from time-series image data. Recently, there is a factorization method as a representative method for simultaneously measuring or acquiring three-dimensional information related to camera motion and the shape of an object. According to these methods, it is possible to acquire and restore information relating to a three-dimensional shape and posture parameters (rotation parameters) relating to a camera viewpoint from a plurality of time-series images in which an object is photographed. However, the camera vibrates due to the influence of the shooting environment, and the obtained aerial image is a time-series image that contains a lot of noise. Due to the influence of the noise component in the aerial image, the camera motion posture estimation and motion restoration are performed. May be difficult.
[0004]
In Japanese Patent Application No. 10-255338, “Camera Posture Estimation Method, Recording Medium Recording Processing Procedure and Camera Posture Estimation Device”, camera posture estimation using object elevation value data, two-dimensional digital map, and camera position information. There is a method. However, unlike the present invention, there is no guarantee that a plurality of data is always prepared, and there is a problem that the amount of data becomes enormous.
[0005]
[Problems to be solved by the invention]
In general, since the image input rate of the image input device is faster than the sensor rate of the sensor device, the camera parameters as camera motion or camera parameters such as rotation parameters are obtained for all the time-series images taken by the image input device. It is not possible. For this reason, normally, images that are associated with accurate camera parameters measured by the sensor device (hereinafter referred to as parameter known images) in the photographed time-series images exist only at a predetermined ratio. There is also a method in which camera parameters of an image that is not associated with a camera parameter (hereinafter referred to as parameter undetermined image) are interpolated from camera parameters associated with the parameter-identified image and associated as camera parameters of the parameter undetermined image. (An image associated with camera parameters obtained by interpolation using known camera parameters is hereinafter referred to as a parameter interpolation image). However, in an aerial image in which the video scene fluctuates due to the effects of gusts, buildings, etc., the camera's shooting posture fluctuates slightly or in bursts, so that the calculated and interpolated camera parameters are inaccurate.
[0006]
It is an object of the present invention to provide an accurate determination of a parameter undetermined image when there are a plurality of reference points (hereinafter referred to as reference point groups) whose accurate three-dimensional coordinate values are known in a captured time-series image. It is an object to provide a camera parameter estimation method and apparatus for estimating various camera parameters.
[0007]
Another object of the present invention is to provide a camera parameter estimation method and apparatus for estimating an accurate camera parameter of a parameter undetermined image when there is no parameter known image and the camera parameters of all time-series images are unknown. That is.
[0008]
[Means for Solving the Problems]
The camera parameter estimation method of the present invention includes:
A reference point group placement step for placing the reference point group in a predetermined initial image;
A factorization method based on a measurement matrix that indicates the coordinate position of the reference point group in each image in a series of images obtained by photographing the state of the reference point group by image processing. A relative three-dimensional coordinate matrix calculation step for obtaining a relative three-dimensional coordinate matrix of the reference point group using
A singular value matrix extraction step of singular value decomposition of a relative three-dimensional coordinate matrix and extracting a singular value matrix from each of the decomposed matrices;
A left-right matrix extraction step for extracting a left matrix and a right matrix located on both sides of the singular value matrix from each of the decomposed matrices by singular value decomposition of an accurate three-dimensional coordinate matrix;
A three-dimensional coordinate matrix generation step for generating a three-dimensional coordinate matrix obtained by converting the scale by combining the singular value matrix extracted in the singular value matrix extraction step and the left matrix and the right matrix extracted in the left-right matrix extraction step;
A camera motion matrix calculation step for obtaining a camera motion matrix using a factorization method from a matrix in which noise is removed by singular value decomposition of the measurement matrix and a 3D coordinate matrix generated in the 3D coordinate matrix generation step;
A camera parameter calculating step of calculating camera parameters from the camera motion matrix;
[0009]
The present invention relates to a two-dimensional movement amount on a time-series image of a reference point group in an aerial image and a three-dimensional position related to the reference point group in an aerial image in which an image scene fluctuates due to a gust, a building wind, or the like. The corresponding three-dimensional coordinate value is extracted from the spatial information database in which is stored as known information, and motion, posture, and rotation parameters related to the camera viewpoint of each time-series image are acquired and restored. is there.
[0010]
By using the method of the present invention, it is possible to acquire and restore a camera posture parameter, that is, a rotation parameter with high accuracy from a time-series image taken in the air. The posture parameters (rotation parameters) of the camera restored according to the present invention are described in Japanese Patent Application No. 10-232929 “Method and apparatus for acquiring a three-dimensional structure and recording medium of the method”, Japanese Patent Application No. 10-374062 “Acquisition of a three-dimensional structure” -Restoration method, apparatus, and recording medium on which 3D structure acquisition / restoration program is recorded ", Japanese Patent Application No. 11-40299" Structural information restoration and recording medium and structural information restoration apparatus ", Japanese Patent Application No. 11-271383" 3D It can be applied to the camera movement of the “structure acquisition method and recording medium and apparatus”, and in combination with them, the building shape can be acquired and restored more accurately and stably.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings.
[0012]
FIG. 1 is a configuration diagram of a camera parameter estimation apparatus according to an embodiment of the present invention.
[0013]
The camera parameter estimation apparatus according to the present embodiment stores a data input unit 1 such as a keyboard for inputting data, a storage unit 2 for temporarily storing data, and digital information obtained by digitizing the shape of the ground.
[0014]
The
[0015]
FIG. 2 is a flowchart of camera parameter estimation processing performed by the
[0016]
In the following, sample points (GCP: Ground Control Points / Positions) located on the ground will be taken as an example of the point cloud on the reference plane, and the factorization method will be used as a method for acquiring and restoring spatial information and a spatial model. Is described.
[0017]
First, the reference point
[0018]
With reference to FIG. 3, the flow of processing relating to the initial arrangement of the reference point group will be described. First, only those having spatial information are extracted from the spatial information database 3 (step 22). Alternatively, sample points on the ground that can be identified even in an aerial image, that is, GCP, are surveyed in advance, the spatial information of these point groups is stored in the
[0019]
[Expression 1]
[0020]
Next, in the relative three-dimensional coordinate
C. Tomasi and T. Kanade, "Shape and Motion from Image Streams under Orthography: a Factorization Method", IJCV, Vol.9, No.2, pp.137-154, 1992 (reference 1)
Conrad J. Poelman, and T. Kanade, "A Paraperspective Factorization Method for Shape and Motion Recovery", IEEE Trans. PAMI, Vol.19, No.3, March, 1997 (Reference 2)
Use the method described in. The factorization method measures the coordinate points on the image over the time series for the feature points in the video (the corner points of the subject, the featured point group), and from the obtained image coordinate value data, This is a technique for simultaneously acquiring the three-dimensional coordinate values of the feature points of camera movement in time series (that is, information on how the camera has moved over each time series).
[0021]
The relative three-dimensional coordinate matrix [s] of the reference point group obtained by the factorization method has the following format.
[0022]
[Expression 2]
[0023]
On the other hand, in the processing flow of FIG. 2, from the spatial information (X i , Y i , Z i ) of each reference point group P i , an accurate three-dimensional coordinate matrix [S] of the reference point group is obtained in the following format. Generate.
[0024]
[Equation 3]
[0025]
The singular value
[0026]
[Expression 4]
[0027]
The left and right
[0028]
[Equation 5]
[0029]
Next, singular value decomposition is performed on the equation (1) by the camera motion
The decomposed matrix has indefiniteness of only the following matrix [Q].
[0030]
[Formula 6]
[0031]
Here, the matrix [M] is a camera motion matrix. From this, the matrix [Q] is obtained under the following constraint conditions.
[0032]
[Expression 7]
[0033]
Since [M] is an unknown matrix, the following must hold:
[0034]
[Equation 8]
[0035]
Therefore, the matrix [Q] is
[0036]
[Equation 9]
[0037]
It becomes. On the other hand, in
[0038]
[Expression 10]
[0039]
In
[0040]
In
[0041]
[Expression 11]
[0042]
Next, the following vectors are obtained using m f , n f and barycentric coordinate values (x f , y f ) calculated from the reference point group in each frame.
[0043]
[Expression 12]
[0044]
From the above vector and the barycentric coordinate value, the camera posture vector k f in the optical axis direction can be calculated by the following equation.
[0045]
[Formula 13]
[0046]
Subsequently, other camera posture vectors i f and j f can be calculated by the following calculation.
[0047]
[Expression 14]
[0048]
Further, the rotation parameters α f , β f , and γ f are calculated by the following equations.
[0049]
[Expression 15]
[0050]
The above rotation parameter calculation is performed for each frame f to obtain a rotation parameter for the time-series image.
[0051]
The posture (camera parameters) related to the camera viewpoint restored by this method is consistent with the time-series images, and expresses the correct viewpoint or gaze posture even under the influence of gusts, building winds, and weather conditions. is doing.
[0052]
Furthermore, when the reference point cloud is automatically arranged on the initial image by perspective projection on the assumption that the camera parameter of the initial image is correct, the updated camera parameter is used again using the camera parameter calculated by the above method. By automatically arranging the reference point group by perspective projection and executing the above method, it is possible to acquire and restore more accurate camera parameters.
[0053]
The
[0054]
【The invention's effect】
As described above, the present invention has the following effects.
1) When there are a plurality of reference points (reference point groups) whose accurate three-dimensional coordinate values are known in the captured time series image, the camera parameters of the parameter known image and the reference points in the time series image Based on the movement of the group, it is possible to estimate an accurate camera parameter of the parameter undetermined image.
2) When there is no parameter known image and the camera parameters of all time series images are unknown, the operator moves the reference point group in the time series image by initially placing the reference point group on the predetermined image. Based on the above, it is possible to estimate an accurate camera parameter of the parameter undetermined image.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a camera parameter estimation apparatus according to an embodiment of the present invention.
FIG. 2 is a flowchart of camera parameter estimation processing.
FIG. 3 is a flowchart showing a reference point group arrangement method;
FIG. 4 is a diagram showing a point group arrangement in an initial image.
FIG. 5 is a diagram showing a reference point group during tracking.
FIG. 6 is a diagram illustrating a difference between a sensor measurement value and an image rate.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Input part 2
Claims (8)
基準点群を所定の初期画像に配置する基準点群配置ステップと、
前記基準点群が移動する状態を撮影した一連の画像群中の各画像において基準点群の座標位置を画像処理により求め、これら基準点群の座標位置の移動状態を示す計測行列より、因子分解法を用いて前記基準点群の相対的3次元座標行列を求める相対的3次元座標行列計算ステップと、
前記相対的3次元座標行列を特異値分解し、分解された各々の行列の中から特異値行列を抽出する特異値行列抽出ステップと、
前記正確な3次元座標行列を特異値分解し、分解された各々の行列の中から、特異値行列の両側に位置する左行列と右行列を抽出する左右行列抽出ステップと、
前記特異値行列抽出ステップで抽出された特異値行列と前記左右行列抽出ステップで抽出された左行列と右行列を組み合わせてスケールを変換した3次元座標行列を生成する3次元座標行列生成ステップと、
前記計測行列を特異値分解してノイズを除去した行列と、前記3次元座標行列生成ステップで生成された3次元座標行列より、因子分解法を用いてカメラ運動行列を求めるカメラ運動行列算出ステップと、
前記カメラ運動行列からカメラパラメータを算出するカメラパラメータ算出ステップを有するカメラパラメータ推定方法。A method for estimating camera parameters of a parameter undetermined image in a time-series image when an accurate three-dimensional coordinate matrix representing an accurate three-dimensional coordinate value of a reference point group is known,
A reference point group placement step for placing the reference point group in a predetermined initial image;
The coordinate position of the reference point group is obtained by image processing in each image in the series of images obtained by photographing the state of movement of the reference point group, and factorization is performed from the measurement matrix indicating the movement state of the coordinate position of the reference point group. A relative three-dimensional coordinate matrix calculation step for obtaining a relative three-dimensional coordinate matrix of the reference point group using a method;
A singular value matrix extracting step of singular value decomposition of the relative three-dimensional coordinate matrix and extracting a singular value matrix from each of the decomposed matrices;
A left-right matrix extraction step for extracting a left matrix and a right matrix located on both sides of the singular value matrix from each of the decomposed matrices by performing singular value decomposition on the exact three-dimensional coordinate matrix;
A three-dimensional coordinate matrix generation step for generating a three-dimensional coordinate matrix obtained by converting a scale by combining the singular value matrix extracted in the singular value matrix extraction step and the left matrix and the right matrix extracted in the left-right matrix extraction step;
A camera motion matrix calculation step for obtaining a camera motion matrix by using a factorization method from a matrix obtained by singular value decomposition of the measurement matrix to remove noise, and the three-dimensional coordinate matrix generated in the three-dimensional coordinate matrix generation step; ,
A camera parameter estimation method comprising a camera parameter calculation step of calculating a camera parameter from the camera motion matrix.
基準点群を所定の初期画像に配置する基準点群配置手段と、
前記基準点群が移動する状態を撮影した一連の画像群中の各画像において基準点群の座標位置を画像処理により求め、これら基準点群の座標位置の移動状態を示す計測行列より、因子分解法を用いて前記基準点群の相対的3次元座標行列を求める相対的3次元座標行列計算手段と、
前記相対的3次元座標行列を特異値分解し、分解された各々の行列の中から、特異値行列を抽出する特異値行列抽出手段と、
前記正確な3次元座標行列を特異値分解し、分解された各々の行列の中から特異値行列の両側に位置する左行列と右行列を抽出する左右行列抽出手段と、
前記特異値行列抽出手段で抽出された特異値行列と前記左右行列抽出手段で抽出された左行列と右行列を組み合わせてスケールを変換した3次元座標行列を生成する3次元座標行列生成手段と、
前記計測行列を特異値分解してノイズを除去した行列と、前記3次元座標行列生成手段で生成された3次元座標行列より、因子分解法を用いてカメラ運動行列を求めるカメラ運動行列算出手段と、
前記カメラ運動行列からカメラパラメータを算出するカメラパラメータ算出手段を有するカメラパラメータ推定装置。An apparatus for estimating camera parameters of a parameter undetermined image in a time-series image when an accurate three-dimensional coordinate matrix representing an accurate three-dimensional coordinate value of a reference point group is known,
Reference point group placement means for placing the reference point group in a predetermined initial image;
The coordinate position of the reference point group is obtained by image processing in each image in the series of images obtained by photographing the state of movement of the reference point group, and factorization is performed from the measurement matrix indicating the movement state of the coordinate position of the reference point group. A relative three-dimensional coordinate matrix calculating means for obtaining a relative three-dimensional coordinate matrix of the reference point group using a method;
Singular value matrix extracting means for performing singular value decomposition on the relative three-dimensional coordinate matrix and extracting a singular value matrix from each of the decomposed matrices;
Left and right matrix extracting means for performing singular value decomposition on the exact three-dimensional coordinate matrix and extracting a left matrix and a right matrix located on both sides of the singular value matrix from each of the decomposed matrices;
Three-dimensional coordinate matrix generation means for generating a three-dimensional coordinate matrix obtained by converting the scale by combining the singular value matrix extracted by the singular value matrix extraction means and the left matrix and right matrix extracted by the left and right matrix extraction means;
Camera motion matrix calculation means for obtaining a camera motion matrix using a factorization method from a matrix obtained by singular value decomposition of the measurement matrix to remove noise, and a three-dimensional coordinate matrix generated by the three-dimensional coordinate matrix generation means; ,
A camera parameter estimation device comprising camera parameter calculation means for calculating camera parameters from the camera motion matrix.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001357890A JP3759712B2 (en) | 2001-11-22 | 2001-11-22 | Camera parameter estimation method, apparatus, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001357890A JP3759712B2 (en) | 2001-11-22 | 2001-11-22 | Camera parameter estimation method, apparatus, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003156317A JP2003156317A (en) | 2003-05-30 |
JP3759712B2 true JP3759712B2 (en) | 2006-03-29 |
Family
ID=19169163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001357890A Expired - Fee Related JP3759712B2 (en) | 2001-11-22 | 2001-11-22 | Camera parameter estimation method, apparatus, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3759712B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5230354B2 (en) * | 2008-10-28 | 2013-07-10 | 三菱電機株式会社 | POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE |
-
2001
- 2001-11-22 JP JP2001357890A patent/JP3759712B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003156317A (en) | 2003-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108765498B (en) | Monocular vision tracking, device and storage medium | |
CN107747941B (en) | Binocular vision positioning method, device and system | |
CN107888828B (en) | Space positioning method and device, electronic device, and storage medium | |
Teller et al. | Calibrated, registered images of an extended urban area | |
CN110675450B (en) | Method and system for generating orthoimage in real time based on SLAM technology | |
US20190141247A1 (en) | Threshold determination in a ransac algorithm | |
WO2019219012A1 (en) | Three-dimensional reconstruction method and device uniting rigid motion and non-rigid deformation | |
CN110648398A (en) | Real-time ortho image generation method and system based on unmanned aerial vehicle aerial data | |
CN108958469B (en) | Method for adding hyperlinks in virtual world based on augmented reality | |
CN111899276A (en) | SLAM method and system based on binocular event camera | |
US11195297B2 (en) | Method and system for visual localization based on dual dome cameras | |
TWI444593B (en) | Ground target geolocation system and method | |
CN109040525B (en) | Image processing method, image processing device, computer readable medium and electronic equipment | |
CN109493415A (en) | A kind of the global motion initial method and system of aerial images three-dimensional reconstruction | |
JP3759712B2 (en) | Camera parameter estimation method, apparatus, program, and recording medium | |
CN112396639A (en) | Image alignment method | |
CN114419259A (en) | Visual positioning method and system based on physical model imaging simulation | |
KR102225321B1 (en) | System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors | |
JP2005063012A (en) | Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded | |
Cordea et al. | 3-D head pose recovery for interactive virtual reality avatars | |
Cordea et al. | 3D head pose recovery for interactive virtual reality avatars | |
JP2004252714A (en) | Method, device and program for obtaining space information, and recording medium for recording the program | |
JP2004348198A (en) | Coordinate transformation processing apparatus, coordinate transformation processing method and program for the method and recording medium with the program recorded thereon | |
JP3901552B2 (en) | Omnidirectional camera viewpoint movement and object shape restoration method, apparatus, omnidirectional camera viewpoint movement and object shape restoration program, and recording medium recording the program | |
CN113168715A (en) | Apparatus and method for determining a position in a 3D model of an environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040120 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040120 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20040120 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050610 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20051214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060104 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090113 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100113 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110113 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110113 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120113 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |