JP3606308B2 - 3次元構造獲得方法及び記録媒体並びに装置 - Google Patents
3次元構造獲得方法及び記録媒体並びに装置 Download PDFInfo
- Publication number
- JP3606308B2 JP3606308B2 JP27138399A JP27138399A JP3606308B2 JP 3606308 B2 JP3606308 B2 JP 3606308B2 JP 27138399 A JP27138399 A JP 27138399A JP 27138399 A JP27138399 A JP 27138399A JP 3606308 B2 JP3606308 B2 JP 3606308B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- shape
- feature point
- input device
- image input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Description
【発明の属する技術分野】
本発明は、画像入力装置等により取得した時系列画像データから、対象物の3次元形状または構造を計測、獲得、復元する3次元構造獲得技術に関し、特に、空中撮影した画像データからの建築物の構造もしくは形状を計測する測量技術に適用して有効な技術に関するものである。
【0002】
【従来の技術】
従来、時系列画像データから、対象物の形状を計測または獲得する手法には、ステレオ計測やエピポーラ解析を用いた3次元解析手法がある。また、最近では、カメラの運動と対象物の形状に関する3次元情報を、同時に、計測または獲得する手法の代表的な手法として、因子分解法がある。これらの手法によれば、対象物が撮影されている複数の時系列画像データから、3次元の形状に関する情報を計測または獲得することができる。この手法は、ランダム雑音にロスバストであり、図18に示すように、カメラ運動と対象物の形状に関する獲得頻度が高い。
【0003】
【発明が解決しようとする課題】
しかし、飛行機等にカメラを設置した空中撮影においては、対象物の特徴点として同定できる点が限定される。すなわち、隣接する建物によりオクルージョンが発生し、建物の足(地面に接する部分)に関して、図19に示すように、空中撮影画像では、追跡することが困難である。この場合、特徴点として追跡できる点は、建物の上面の点Aiである(図中、Biは建物の地面に接する点である)。したがって、実際の空中撮影画像において、特徴点としての数は少ないことが想定され、これらの情報だけから対象物(建築物の形状)を獲得、復元することは困難である。
【0004】
本発明の目的は、空中撮影した時系列画像から少ない特徴点しか追跡できない場合にでも、物体の形状を獲得、復元することが可能な技術を提供することにある。
【0005】
本発明の他の目的は、物体の構造もしくは形状の3次元構造の獲得において、空中撮影した時系列画像から物体の構造もしくは形状の獲得精度を向上することが可能な技術を提供することにある。
【0006】
本発明の他の目的は、空中撮影した時系列画像から物体の構造もしくは形状を容易に獲得することが可能な技術を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述及び添付図面によって明らかにする。
【0007】
【課題を解決するための手段】
本願において開示される発明の概要を簡単に説明すれば、以下のとおりである。
(1)画像入力装置により物体(対象物)を撮影し、時系列画像データを取得し、この時系列画像データから前記対象物(被写体)の形状情報を計測し、物体の形状を復元(再現)する3次元構造獲得方法における画像シーケンス中に、前記時系列画像面上に対象物の形状を特徴付ける対象の点(以下、特徴点と称する)、及び形状を復元する際の3次元的に基準となる点(以下、基準点と称する)を追跡する過程において、オクルージョン、特徴点の画面枠外への移動等が発生しないような時系列画像を、前記画像入力装置から、逐次、更新、または選択しながら、適切な時系列シーケンスを確保すると共に、前記特徴点と基準点の2次元特徴点座標データを取得し、該2次元特徴点座標データを用いて各々の特徴点に対応する3次元座標値を獲得し、時系列の特徴点を追跡し、得られた時系列の特徴点データを因子分解法を用いて対象物の構造もしくは形状を復元する3次元構造獲得方法であって、
前記特徴点データから構成される2次元計測データを、因子分解法により、雑音成分を除去した前記画像入力装置の物理的運動を表現する運動情報と、雑音成分を除去した物体の構造もしくは形状を表現する構造情報もしくは形状情報に分解する分解過程と、該分解過程で、前記画像入力装置の物理的運動に同期して動作するセンサ装置により、前記画像入力装置の運動情報を計測する計測過程と、該計測した物理的な運動状態情報を用いて当該運動成分を補正する補正過程と、前記基準点の3次元獲得座標値を用いて形成する平面を基準面とし、該基準面に対して、対象物の形状を特徴付ける特徴点の3次元獲得座標値を用いて幾何的処理を行い、各々の対象物の形状を復元する復元過程を有することを特徴とする。
【0008】
(2)前記計測過程における運動情報は、前記画像入力装置の視点を原点とする座標系(画像入力装置の座標系、カメラ(視点)座標系)における、前記画像入力装置の座標の水平方向の軸周りの回転角度値、垂直方向の軸周りの回転角度値、及び光軸周りの回転角度値であることを特徴とする前記(1)の3次元構造獲得方法である。
【0009】
(3)画像入力装置により物体(対象物)を撮影し、時系列画像データを取得し、この時系列画像データから前記対象物(被写体)の形状情報を計測し、物体の形状を復元(再現)する3次元構造獲得方法における画像シーケンス中に、前記時系列画像面上に対象物の形状を特徴付ける対象の点(以下、特徴点と称する)、及び形状を復元する際の3次元的に基準となる点(以下、基準点と称する)を追跡する過程において、オクルージョン、特徴点の画面枠外への移動等が発生しないような時系列画像を、前記画像入力装置から、逐次、更新、または選択しながら、適切な時系列シーケンスを確保すると共に、前記特徴点と基準点の2次元特徴点座標データを取得し、該2次元特徴点座標データを用いて各々の特徴点に対応する3次元座標値を獲得し、時系列の特徴点を追跡し、得られた時系列の特徴点データを因子分解法を用いて対象物の構造もしくは形状を復元する3次元構造獲得方法の処理手順をコンピュータに実行させるためのプログラムを記録したコンピュータ読みとり可能な記録媒体であって、
前記特徴点データから構成される2次元計測データを、因子分解法により、雑音成分を除去した前記画像入力装置の物理的運動を表現する運動情報と、雑音成分を除去した物体の構造もしくは形状を表現する構造情報もしくは形状情報に分解する分解手順と、該分解手順で、前記画像入力装置の物理的運動に同期して動作するセンサ装置により、前記画像入力装置の運動情報を計測する計測手順と、該計測した物理的な運動状態情報を用いて当該運動成分を補正する補正手順と、前記基準点の3次元獲得座標値を用いて形成する平面を基準面とし、該基準面に対して、対象物の形状を特徴付ける特徴点の3次元獲得座標値を用いて幾何的処理を行い、各々の対象物の形状を復元する復元手順を、コンピュータに実行させる機能を有するプログラムを記録したコンピュータ読みとり可能な記録媒体である。
【0010】
(4)前記計測手順における運動情報は、前記画像入力装置の視点を原点とする座標系(画像入力装置の座標系、カメラ(視点)座標系)における、前記画像入力装置の座標の水平方向の軸周りの回転角度値、垂直方向の軸周りの回転角度値、及び光軸周りの回転角度値であることを特徴とする前記(3)のコンピュータ読みとり可能な記録媒体である。
【0011】
(5)物体を撮影するカメラ等の画像入力装置と、時系列画像データを取得する手段と、この時系列画像データから前記対象物(被写体)の形状情報を計測する手段と、物体の形状を復元(再現)する3次元構造獲得における画像シーケンス中に、前記時系列画像面上に対象物の形状を特徴付ける対象の点(以下、特徴点と称する)、及び形状を復元する際の3次元的に基準となる点(以下、基準点と称する)を追跡する手段において、オクルージョン、特徴点の画面枠外への移動等が発生しないような時系列画像を、前記画像入力装置から、逐次、更新、または選択しながら、適切な時系列シーケンスを確保すると共に、前記特徴点と基準点の2次元特徴点座標データを取得し、該2次元特徴点座標データを用いて各々の特徴点に対応する3次元座標値を獲得する手段と、時系列の特徴点を追跡し、得られた時系列の特徴点データを因子分解法を用いて対象物の構造もしくは形状を復元する手段を有する3次元構造獲得装置であって、
前記特徴点データから構成される2次元計測データを、因子分解法により、雑音成分を除去した前記画像入力装置の物理的運動を表現する成分と、雑音成分を除去した物体の構造もしくは形状を表現する成分に分解する分解手段と、該分解手段で、前記画像入力装置の物理的運動に同期して動作するセンサ装置により、前記画像入力装置の運動情報を計測する計測手段と、該計測手段で計測した物理的な運動状態情報を用いて当該運動成分を補正する補正手段と、前記基準点の3次元獲得座標値を用いて形成する平面を基準面とし、該基準面に対して、対象物の形状を特徴付ける特徴点の3次元獲得座標値を用いて幾何学的処理を行い、各々の対象物の形状を復元する復元手段を具備することを特徴とする。
【0012】
(6)前記計測手段における運動情報は、前記画像入力装置の視点を原点とする座標系(画像入力装置の座標系、カメラ(視点)座標系)における、前記画像入力装置の座標の水平方向の軸周りの回転角度値、垂直方向の軸周りの回転角度値、及び光軸周りの回転角度値であることを特徴とする前記(5)の3次元構造獲得装置である。
【0020】
すなわち、本発明のポイントは、空中撮影画像上の建物の上面のM点と、地面を形成すると想定する基準のN点を追跡して得た2次元の特徴点データから、因子分解法を用いて、3次元座標として獲得し、N点で形成される地面の平面に対して、M点の対象物の上面の点を幾何学的に射影して、建物の足の座標を求めることにより、対象物の形状を獲得並びに復元することである。
【0021】
前記本発明の手段によれば、空中撮影した時系列画像から、建物の形状を、簡易的、かつ、精度よく獲得、復元することができる。
【0022】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態(実施例)を詳細に説明する。
なお、実施形態(実施例)を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
【0023】
以下では、3次元構造獲得手段に、平行透視(Paraperspective)変換型因子分解法を使用し、カメラ運動を光軸方向に一定に保持して回転、並進運動した場合を例にして説明する。また、特徴点追跡による時系列の画像枚数、すなわち、フレーム数はFとし、基準点と物体上面ま点の合計をPとしている。
【0024】
(実施形態1)
図1は本発明の実施形態1の3次元構造獲得方法の全体的な処理フロー図であり、S11はカメラを運動(移動)させるステップ、S12は物体を撮影するステップ、S13はセンサ情報を獲得するステップ、S14は前記ステップS12で撮影された画像の特徴点を追跡処理するステップ、S15は因子分解法のデータを入力するステップ、S16は因子分解法による処理を行うステップ、S17は因子分解法による処理データを出力するステップ、S18は因子分解法による処理データの出力に基づいて物体形状を復元(再現)するステップである。
【0025】
図2は対象とする物体と画像入力装置との関係を説明するための図であり、21は対象とする物体、22はカメラ22A等からなる画像入力装置、23はカメラ(視点)座標系、24はカメラ回転運動を検出するセンサ、25は対象とする物体を撮影した時系列画像データ、26は画像入力装置22の運動を記録したセンサ情報蓄積装置である。
【0026】
図3は本実施形態1の画像入力装置の一実施例としての3次元構造獲得用カメラ及び3次元構造獲得用8mmカメラの外観を示す模式図であり、(a)は3次元構造獲得用カメラ22Aの外観図、(b)は3次元構造獲得用8mmカメラ22Bの外観図である。前記3次元構造獲得用カメラ22Aには、因子分解法にカメラ回転運動を与える3次元構造獲得手段22A1及びカメラ回転運動を検出するセンサ(カメラ姿勢センサ)22A2が設けられている。また、前記3次元構造獲得用8mmカメラ22Bには、因子分解法にカメラ回転運動を与える3次元構造獲得手段22B1及びカメラ回転運動を検出するセンサ(カメラ姿勢センサ)22B2が設けられている。前記3次元構造獲得手段22A1もしくは22B1で獲得した3次元構造データは、これを用いて後から再生する別の視点からウォークスルーできる。以下、前記画像入力装置22は単にカメラ22と称する。
【0027】
本実施形態1の3次元構造獲得方法の全体的な処理手順を図1に沿って説明する。まず、カメラ22を回転、並進の物理的な運動をさせ(S11)、対象とする物体を撮影し(S12)、時系列の画像データを得る(図2)。このとき、カメラ22の回転運動に対して、カメラ22に取り付けたジャイロ等によるカメラ回転検出センサ(カメラ姿勢センサ)22A2もしくは22B2により、初期状態(画像データの最初の画像を撮影したときのカメラ22の運動の初期状態)でのカメラ22の視点における座標系を基準として、時系列的にカメラ22を回転運動させたときのカメラ22の回転パラメータ値をセンサ情報として獲得する(S13)。
【0028】
ここで、カメラ22のパラメータ値は、X軸の周りに回転した角度値αf(ラジアン)、Y軸の周りに回転した角度値βf(ラジアン)、Z軸の周りに回転した角度値γf(ラジアン)である。サフィックスfは、フレーム毎に回転値が存在するという意味で添えてある。
【0029】
一方、図3に示すカメラ22が運動することで、撮影した時系列画像データ(以下、時系列画像データと称する)について、フレーム数Fのディジタル画像を記録し、図4に示すように、フレームf(f=1,2,…,F)の画像における特徴点の2次元画像面での座標値を測定する。図4において、311は時系列の画像データ、312はNO.fのフレーム画像(f=1,2,…,F)、313は座標系Xd、314は座標軸Yd、315は基準点と物体上面の点である。
【0030】
図5は、本実施形態1の画像処理部の概略構成を示すブロック構成図である。本実施形態1の画像処理部は、図5に示すように、画像入力部51、時系列画像の選択部52、2次元特徴点の設定部53、特徴点追跡部54、3次元座標獲得部55、形状復元部56、及び形状出力部57で構成されている。
【0031】
図6は、本実施形態1の画像処理部の画像処理手順(図5の51〜54の部分に対応)を示すフロチャートである。
【0032】
前記画像入力部51には、撮影により取得した時系列画像が蓄積されている。前記時系列画像の選択部52では、図5に示すように、前記画像入力部51に入力された膨大な画像データから、適当な分量の画像シーケンスを抽出し、初期フレームを次の2次元特徴点の設定部53に渡す処理を行う。仮に、特徴点データが画像シーケンス中に追跡できない場合は、自動的に、時系列画像を更新して、新しいセットの時系列画像を提供するのも、この時系列画像の選択部52の役目である。まず、初期値として、適当な画像シーケンスを取り出す。
【0033】
次に、特徴点が設置できない場合は、時系列画像を前進するか、または後進させることで、オクルージョン等が発生しないように、画像シーケンスを選択する。特徴点が設置できた場合には、初期フレーム上に特徴点と基準点がマークされ、特徴点追跡部54において画像シーケンスに渡って、特徴点が追跡される。このとき、最終フレームまで特徴点追跡ができない場合も、同様に、時系列画像を前進、または後進することにより、最適な画像シーケンスとして、複数の時系列画像データを用意する(図6)。
【0034】
図7は、本実施形態1の2次元特徴点の設定部53の処理手順を、すなわち、対象物の形状を特徴点及び地面を形成する正三角形の基準点(頂点)を設定する手順を示すフローチャートである。
【0035】
前記2次元特徴点の設定部53では、図7に示すように、まず、時系列画像の選択部52から初期フレームとしての画像(S701)が入力されると、3次元化したい建物の点を手動により復元する特徴点を全てマークする(S702)。このとき、画像の水平、垂直方向への直交座標系での座標(X0i,Y0i)(i=1,2,3,・・・,n)を計測する。復元したい対象物の特徴点(X0i,Y0i)をマークし終えた時点で、全特徴点の2次元座標における重心座標を求める(S703)。重心座標が求まると、重心座標から最も遠い特撒点までの座標までを径といた円を描き、その円上の点の1点(q1)をマークする(S704,S705)。このとき、点q1が地面の点(道路上の点、または交差点等の地面の位置に存在する特徴となる点)でない場合は、地面上の点になるまで、探索を行い(S706)、地面上の点で、かつ、円周上の点q1を設定する(S707)。次に、正三角形を形成し、かつ、円周上の点q2とq3を設定する(S708)。このときも、同様に、点q2とq3が地面の点かどうかを画像上から識別し(S709)、そうでなければ、点qlを少量時計周りに動かし、再度、点q2とq3を決定する。点q2とq3が地面の点であれば、点ql、q2、及びq3で形成される正三角形が全特徴点を包含しているかを調べ(S710)、正三角形が全特徴点を包含していれば、全特徴点とデルタ点の表示を行い(S711)、特徴点の設定処理は終了する(S712)。正三角形が全特徴点を包含していない場合には、再度、時系列画像の再選択を行う(S712)。
【0036】
現実の画像において、正三角形を為す点ql、q2、及びq3を探索することは困難であるので、ここでは、許容誤差の範囲ε内(<ε)で、これらの点を設定する。
【0037】
計測行列は、2F×Pサイズの行列であり、後に記述するように因子分解法の入力データである。
図8は、前記2次元特徴点の設定処理の結果を示す図であり、Cは重心、piは物体上面(建物の屋上の面)、q、q1、q2、q3はデルタ点である。
【0038】
図9(a),(b)は、本実施形態1のカメラ運動とセンサ情報とカメラベクトルの関係を示す図であり、41は初期状態におけるカメラ(画像入力装置)、42は初期状態におけるカメラ(視点)座標系におけるX軸、43は初期状態におけるカメラ(視点)座標系におけるY軸、44は初期状態におけるカメラ(視点)座標系におけるZ軸である。
【0039】
45はX軸周りにαf回転、Y軸周りにβf回転、Z軸周りにγf回転したときのカメラ(画像入力装置)、46はX軸周りにαf回転、Y軸周りにβf回転、Z軸周りにγf回転したときのカメラ座標系におけるX軸、47はX軸周りにαf回転、Y軸周りにβf回転、Z軸周りにγf回転したときのカメラ座標系におけるY軸、48はX軸周りにαf回転、Y軸周りにβf回転、Z軸周りにγf回転したときのカメラ座標系におけるZ軸、49はX軸周りにαf回転、Y軸周りにβf回転、Z軸周りにγf回転したときのカメラ座標系におけるX軸の単位方向ベクトル、410はX軸周りにαf回転、Y軸周りにβf回転、Z軸周りにγf回転したときのカメラ座標系におけるY軸の単位方向ベクトル、411はX軸周りにαf回転、Y軸周りにβf回転、Z軸周りにγf回転したときのカメラ座標系におけるZ軸の単位方向ベクトルである。
【0040】
次に、図1におけるセンサ情報獲得から因子分解法までのフローを図10用いて説明する。カメラ運動の初期状態とは、物体を撮影したときの最初に撮影した画像のときのカメラ22の物理的な状態であり、カメラ視点を原点として、光軸方向にZ軸、便宜上、水平方向にX軸、垂直方向にY軸を想定して、これを初期状態とし、それぞれのX軸方向、Y軸方向、Z軸方向への単位方向ベクトルi1,j1,k1を初期状態でのカメラベクトルとする。カメラ運動時の回転パラメータ値とは、この単位方向ベクトルi1,j1,k1に関する回転成分であり、物体撮影のカメラ運動において、i1周りの回転が発生した場合は、回転パラメータ値αfとしてセンサ情報を検出し、j1周りの回転が発生した場合は、回転パラメータ値βfとしてセンサ情報を検出し、k1周りの回転が発生した場合は、回転パラメータ値γfとしてセンサ情報を検出して時系列画像と同時に、フレームf毎に、検出した回転パラメータ値αf、βf、γfを記録する。
さらに、フレーム第f番目におけるカメラ視点座標のX軸方向、Y軸方向、Z軸方向の単位方向ベクトル i f , j f , k f を数4の計算式により逐次計算し、これを因子分解法のセンサ情報として入力データとする。
単位方向ベクトル i f , j f , k f は、X軸、Y軸、Z軸周りの回転行列の積により得られるものであり、単位方向ベクトル i f , j f , k f と回転行列との関係になっており、これを数1の式で示す。
【0041】
【数1】
【0043】
図10は、前記実施形態1での因子分解法の処理手順を示すフロー図であり、S111は計測行列を入力するステップ、S112は物体重心を計算するステップ、S113は特異値分解を処理するステップ、S114はランク3(図11の行列分割を示す図を参照)による雑音成分を分離するステップ、S115はカメラ回転パラメータ値からのカメラベクトルを計算するステップ、S116はカメラベクトルからのカメラ運動行列を計算するステップ、S117は行列[Q]を計算するステップ、S118は行列[S]を計算するステップ、S119は行列[S]の計算結果に基づいて物体の形状を復元するステップである。
【0044】
本実施形態1での因子分解法の処理に用いる計算式を以下に示す。
【0045】
【数2】
[A]=[U][W][V]
【0046】
【数3】
【0047】
【数4】
【0048】
【数5】
【0049】
【数6】
【0050】
次に、図1における因子分解法の部分について、図10に沿って説明をする。
2次元画像面での特徴点の座標点からなる計測行列2F×Pサイズの[A]を、数2の計算式に従って特異値分解なる数学的手法により行列[U](2F×P)、[W](P×Pの対角化行列)、[V](P×P)に分解する(S113)。ここで、ランク3により、行列[U]を2F×3サイズの行列[U1]と2F×(P−3)サイズの行列[U2]に、行列[W]を3×3サイズの対角行列[W1]と(P−3)×(P−3)サイズの行列[W2]に、行列[V]を3×Pサイズの行列[V1]と(P−3)×Pサイズの行列[V2]に分離する(S114)(数3参照、図11)。
【0051】
図11は、特異値分解処理の後のランク3による雑音成分除去を説明するための図であり、[W2]の対角要素は、[W1]の対角要素に比較して非常に小さく、[U2][W2][V2]雑音成分と見なして削除する。
【0052】
一方、センサ情報として入力されたカメラベクトルif,jf,kfからカメラ運動行列[M]へは、数5の計算式を用いて計算する(S116)。この計算式は、平行透視変換カメラモデルから導き出される関係式である。尚、この計算式におけるXf、Yfの値は、計測行列[A]から物体重心の計算(S112)として得ており、Zf(=1)については光軸方向への運動は考慮しないとして固定的な値を設定している。
【0053】
前記図10のステップS115、S116、S117の処理手順の詳細を図12(データ処理フロー図)に示す。図12において、S201は1フレーム毎に回転成分を読み込むステップ、S202はカメラ基底ベクトルを生成するステップ、S203はカメラベクトルmf、nfを生成するステップ、S204は計測行列[A]を入力するステップ、S205は第fフレームでのP個の特徴点座標を読み込むステップ、S206は計測行列から第fフレームにおける物体重心を計算するステップ、S207は特異値分解を処理するステップ、S208は雑音成分を除去するステップ、S209は全フレームに対する処理が終了したかを判定するステップ、S210は全フレームに対する処理が終了していない場合、次フレームの処理に移るステップ、S211はカメラ運動行列[M]を生成するステップ、S212はカメラ作用行列[Q]を生成するステップ、S213は3次元座標を獲得するステップ、S214は構造もしくは形状の復元処理を行うステップである。前記内部の詳細な計算式を以下に示す。
【0054】
カメラの基底ベクトルの生成計算式としては前記数4の計算式を用いる。
カメラベクトルmf、nfの生成計算式としては前記数5の計算式を用いる。
【0055】
カメラ運動行列[M]生成の計算式は次の数7の計算式を用いる。
【0056】
【数7】
【0057】
計測行列から第fフレームにおける物体重心Xf、Yfの計算式は次の数8の計算式を用いる。
【0058】
【数8】
【0059】
因子分解法では、図13に示すような因子分解法の入力データ(計測行列)を入力し、雑音成分[ U 2 ][ W 2 ][ V 2 ]を削除した行列から、([U1][Q]×[Q]−1[W1][V1])なる分解を行い、前者の行列[U1][Q]をカメラ運動行列[M](図14)、後者の行列[Q]−1[W1][V1]を物体の構造もしくは形状を構成する特徴点の3次元座標値を配置した行列[S]であるとする。
【0060】
本発明では、行列[M]を前記のカメラ運動行列とし、行列[Q]を[U1]の擬似逆行列と[M]から求めており(数6)、行列[S]も該行列[Q]を用いて計算する(数9)。
【0061】
【数9】
【0062】
行列[S]は、2次元画像面において、特徴点として測定した座標点の3次元座標値であり、行列形式は、図15のようになっており、列方向に、特徴点pの3次元座標X、Y、Z座標値が並び、行方向に特徴点の順番通りに並ぶ。この行列の要素が本発明における物体の構造もしくは形状の復元、再現として求めた因子分解法の出力データである。
【0063】
前記特徴点追跡により得られた2次元座標データは、3次元形状獲得処理部55において、因子分解法により、3次元座標値が計算される。また、センサ情報を用いた因子分解法(特願平10−232979号)を使って、形状を獲得することも可能である。
【0064】
前記獲得した3次元形状データは、形状復元処理部56において処理される。図16は、本実施形態1の形状復元処理部56の処理手順を示すフローチャートである。
【0065】
前記形状復元処理部56では、図16に示すように、まず、獲得した3次元データのうちで、基準点を表す点、すなわち、地面上の点を抽出する(S801)。抽出した3点から、3点で張られる平面の方程式を求める(S802)。一方、対象物の上面の座標値が存在する点だけを抽出し(S803)、この基準面に垂直に、幾何学的に射影する(S804)。この射影は、平面の方程式を表現する直交座標系の単位ベクトルとの内積により求める。これで得られた3次元座標値(地面の平面上の点であり、建物の足)と獲得した3次元座標値(建物の上面の点)から、基準面に接しない面、すなわち、上面と側面を面として生成し(S805,S806)最終的に各々の建物を復元した結果を出力する(S807)。
【0066】
(実施形態2)
本発明の実施形態2は、前記実施形態1において、因子分解法の部分において、差分があるので、差分のある箇所についてのみ説明する。
【0067】
図17は、本発明の実施形態2の因子分解法の処理手順を示すフロー図であり、S121は計測行列を入力するステップ、S122は物体重心を計算するステップ、S123はカメラ回転パラメータ値からカメラベクトルを計算するステップ、S124はカメラベクトルからのカメラ運動行列を計算するステップ、S125は行列[S]を計算するステップ、S126は行列[S]の計算結果に基づいて物体の形状を復元するステップである。
【0068】
2次元画像面での特徴点の座標からなる計測行列2F×Pサイズの[A]から、計謝行列[A]から物体重心の計算(数7)として、Xf、Yfを計算しておく。次に、センサ情報として入力されたカメラベクトルif,jf,kfからカメラ運動行列[M]へ数5の計算式を用いて計算する。この数5の計算式は、平行透視変換カメラモデルから導き出される関係式である。尚、この数5の計算式におけるZf(=1)については、光軸方向への運動は考慮しないとして固定的な値を設置した。物体の構造もしくは形状を構成する特徴点の3次元座標値を配置した行列[S]は、前記の行列[M]と、因子分解法の入力データ[A]を用いて計算する(数10)。
【0069】
【数10】
【0070】
行列[S]は、2次元画像面において、特徴点として計測した座標点の3次元座標値であり、前記実施形態1と同様に物体の構造もしくは形状を記述する情報として獲得することができる。
【0071】
以上、本発明者によってなされた発明を、前記実施形態(実施例)に基づき具体的に説明したが、本発明は、前記実施形態(実施例)に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
【0072】
【発明の効果】
以上、説明したように、本発明によれば、物体の構造もしくは形状の3次元構造の獲得において、空中撮影した時系列画像から物体の構造もしくは形状の獲得精度を向上することができる。
また、空中撮影した時系列画像から物体の構造もしくは形状を容易に獲得することができる。
【図面の簡単な説明】
【図1】本発明の実施形態1の3次元構造獲得方法の全体的な処理フロー図である。
【図2】本実施形態1の対象とする物体と画像入力装置との関係を説明するための図である。
【図3】本実施形態1の3次元構造獲得用カメラ及び3次元構造獲得用8mmカメラの外観を示す模式図である。
【図4】本実施形態1の時系列の画像データから各フレーム画像での特徴点の座標値を計測する例を示す図である。
【図5】本実施形態1の画像処理部の概略構成を示すブロック構成図である。
【図6】本実施形態1の画像処理部の画像処理手順を示すフロチャートである。
【図7】本実施形態1の2次元特徴点の設定部の処理手順を示すフローチャートである。
【図8】本実施形態1の2次元特徴点の設定処理結果を示す図である。
【図9】本実施形態1のカメラ運動とセンサ情報とカメラベクトルの関係図である。
【図10】本実施形態1の因子分解法の処理手順を示すフロー図である。
【図11】本実施形態1の特異値分解処理の後のランク3による雑音成分除去を説明するための図である。
【図12】図10のステップS115、S116、S117の処理手順の詳細なデータ処理フロー図である。
【図13】本実施形態1の因子分解法の入力データの様式を示す図である。
【図14】本実施形態1のカメラ運動行列の様式を示す図である。
【図15】本実施形態1の因子分解法の出力データの様式を示す図である。
【図16】本実施形態1の形状復元処理部の処理手順を示すフローチャートである。
【図17】本発明の実施形態2の因子分解法の処理手順を示すフロー図である。
【図18】空中撮影時のカメラと対象物(建物)の関係を示す図である。
【図19】隣接する建物によるオクルージョンを説明するための図である。
【符号の説明】
S11…カメラの運動、S12…物体撮影、S13…センサ情報獲得、S14…特徴点追跡、S15…因子分解法の入力データ、S16…因子分解法処理、S17…因子分解法の出力データ、21…対象とする物体、22…画像入力装置(カメラ)、23…カメラ(視点)座標系、24…カメラ回転運動を検出するセンサ、25…対象とする物体を撮影した時系列画像データ、26…画像入力装置の運動を記録したセンサ情報蓄積装置、311…時系列の画像データ、312…NO.fのフレーム画像、313…座標軸Xd、314…座標軸Yd、315…特徴点p、41…初期状態における画像入力装置(カメラ)、42…初期状態におけるカメラ(視点)座標系におけるX軸、43…初期状態におけるカメラ(視点)座標系におけるY軸、44…初期状態におけるカメラ(視点)座標系におけるZ軸、45…X軸周りにαf回転、Y軸周りにβf回転、Z軸周りにγf回転したときの画像入力装置(カメラ)、46…X軸周りにαf回転、Y軸周りにβf回転、Z軸周りにγf回転したときのカメラ座標系におけるX軸、47…X軸周りにαf回転、Y軸周りにβf回転、Z軸周りにγf回転したときのカメラ座標系におけるY軸、48…X軸周りにαf回転、Y軸周りにβf回転、Z軸周りにγf回転したときのカメラ座標系におけるZ軸、49…X軸周りにαf回転、Y軸周りにβf回転、Z軸周りにγf回転したときのカメラ座標系におけるX軸の単位方向ベクトル、410…X軸周りにαf回転、Y軸周りにβf回転、Z軸周りにγf回転したときのカメラ座標系におけるY軸の単位方向ベクトル、411…X軸周りにαf回転、Y軸周りにβf回転、Z軸周りにγf回転したときのカメラ座標系におけるZ軸の単位方向ベクトル、51…画像入力部、52…時系処画像の選択部、53…2次元特徴点の設定部、54…特徴点追跡部、55…3次元座標獲得部、56…形状復元部、57…形状出力部。
Claims (6)
- 画像入力装置により物体(対象物)を撮影し、時系列画像データを取得し、この時系列画像データから前記対象物(被写体)の形状情報を計測し、物体の形状を復元(再現)する3次元構造獲得方法における画像シーケンス中に、前記時系列画像面上に対象物の形状を特徴付ける対象の点(以下、特徴点と称する)、及び形状を復元する際の3次元的に基準となる点(以下、基準点と称する)を追跡する過程において、オクルージョン、特徴点の画面枠外への移動等が発生しないような時系列画像を、前記画像入力装置から、逐次、更新、または選択しながら、適切な時系列シーケンスを確保すると共に、前記特徴点と基準点の2次元特徴点座標データを取得し、該2次元特徴点座標データを用いて各々の特徴点に対応する3次元座標値を獲得し、時系列の特徴点を追跡し、得られた時系列の特徴点データを因子分解法を用いて対象物の構造もしくは形状を復元する3次元構造獲得方法であって、
前記特徴点データから構成される2次元計測データを、因子分解法により、雑音成分を除去した前記画像入力装置の物理的運動を表現する運動情報と、雑音成分を除去した物体の構造もしくは形状を表現する構造情報もしくは形状情報に分解する分解過程と、
該分解過程で、前記画像入力装置の物理的運動に同期して動作するセンサ装置により、前記画像入力装置の運動情報を計測する計測過程と、
該計測した物理的な運動状態情報を用いて当該運動成分を補正する補正過程と、
前記基準点の3次元獲得座標値を用いて形成する平面を基準面とし、該基準面に対して、対象物の形状を特徴付ける特徴点の3次元獲得座標値を用いて幾何的処理を行い、各々の対象物の形状を復元する復元過程と
を有することを特徴とする3次元構造獲得方法。 - 前記計測過程における運動情報は、前記画像入力装置の視点を原点とする座標系(画像入力装置の座標系、カメラ(視点)座標系)における、前記画像入力装置の座標の水平方向の軸周りの回転角度値、垂直方向の軸周りの回転角度値、及び光軸周りの回転角度値であることを特徴とする請求項1に記載の3次元構造獲得方法。
- 画像入力装置により物体(対象物)を撮影し、時系列画像データを取得し、この時系列画像データから前記対象物(被写体)の形状情報を計測し、物体の形状を復元(再現)する3次元構造獲得方法における画像シーケンス中に、前記時系列画像面上に対象物の形状を特徴付ける対象の点(以下、特徴点と称する)、及び形状を復元する際の3次元的に基準となる点(以下、基準点と称する)を追跡する過程において、オクルージョン、特徴点の画面枠外への移動等が発生しないような時系列画像を、前記画像入力装置から、逐次、更新、または選択しながら、適切な時系列シーケンスを確保すると共に、前記特徴点と基準点の2次元特徴点座標データを取得し、該2次元特徴点座標データを用いて各々の特徴点に対応する3次元座標値を獲得し、時系列の特徴点を追跡し、得られた時系列の特徴点データを因子分解法を用いて対象物の構造もしくは形状を復元する3次元構造獲得方法の処理手順をコンピュータに実行させるためのプログラムを記録したコンピュータ読みとり可能な記録媒体であって、
前記特徴点データから構成される2次元計測データを、因子分解法により、雑音成分を除去した前記画像入力装置の物理的運動を表現する運動情報と、雑音成分を除去した物体の構造もしくは形状を表現する構造情報もしくは形状情報に分解する分解手順と、
該分解手順で、前記画像入力装置の物理的運動に同期して動作するセンサ装置により、前記画像入力装置の運動情報を計測する計測手順と、
該計測した物理的な運動状態情報を用いて当該運動成分を補正する補正手順と、
前記基準点の3次元獲得座標値を用いて形成する平面を基準面とし、該基準面に対して、対象物の形状を特徴付ける特徴点の3次元獲得座標値を用いて幾何的処理を行い、各々の対象物の形状を復元する復元手順を、コンピュータに実行させる機能を有するプログラムを記録したコンピュータ読みとり可能な記録媒体。 - 前記計測手順における運動情報は、前記画像入力装置の視点を原点とする座標系(画像入力装置の座標系、カメラ(視点)座標系)における、前記画像入力装 置の座標の水平方向の軸周りの回転角度値、垂直方向の軸周りの回転角度値、及び光軸周りの回転角度値であることを特徴とする請求項3に記載のコンピュータ読みとり可能な記録媒体。
- 物体を撮影するカメラ等の画像入力装置と、時系列画像データを取得する手段と、この時系列画像データから前記対象物(被写体)の形状情報を計測する手段と、物体の形状を復元(再現)する3次元構造獲得における画像シーケンス中に、前記時系列画像面上に対象物の形状を特徴付ける対象の点(以下、特徴点と称する)、及び形状を復元する際の3次元的に基準となる点(以下、基準点と称する)を追跡する手段において、オクルージョン、特徴点の画面枠外への移動等が発生しないような時系列画像を、前記画像入力装置から、逐次、更新、または選択しながら、適切な時系列シーケンスを確保すると共に、前記特徴点と基準点の2次元特徴点座標データを取得し、該2次元特徴点座標データを用いて各々の特徴点に対応する3次元座標値を獲得する手段と、時系列の特徴点を追跡し、得られた時系列の特徴点データを因子分解法を用いて対象物の構造もしくは形状を復元する手段を有する3次元構造獲得装置であって、
前記特徴点データから構成される2次元計測データを、因子分解法により、雑音成分を除去した前記画像入力装置の物理的運動を表現する成分と、雑音成分を除去した物体の構造もしくは形状を表現する成分に分解する分解手段と、
該分解手段で、前記画像入力装置の物理的運動に同期して動作するセンサ装置により、前記画像入力装置の運動情報を計測する計測手段と、
該計測手段で計測した物理的な運動状態情報を用いて当該運動成分を補正する補正手段と、
前記基準点の3次元獲得座標値を用いて形成する平面を基準面とし、該基準面に対して、対象物の形状を特徴付ける特徴点の3次元獲得座標値を用いて、幾何学的処理を行い、各々の対象物の形状を復元する復元手段
を具備することを特徴とする3次元構造獲得装置。 - 前記計測手段における運動情報は、前記画像入力装置の視点を原点とする座標系(画像入力装置の座標系、カメラ(視点)座標系)における、前記画像入力装置の座標の水平方向の軸周りの回転角度値、垂直方向の軸周りの回転角度値、及び光軸周りの回転角度値であることを特徴とする請求項5に記載の3次元構造獲得装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27138399A JP3606308B2 (ja) | 1999-09-24 | 1999-09-24 | 3次元構造獲得方法及び記録媒体並びに装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27138399A JP3606308B2 (ja) | 1999-09-24 | 1999-09-24 | 3次元構造獲得方法及び記録媒体並びに装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001091250A JP2001091250A (ja) | 2001-04-06 |
JP3606308B2 true JP3606308B2 (ja) | 2005-01-05 |
Family
ID=17499316
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27138399A Expired - Fee Related JP3606308B2 (ja) | 1999-09-24 | 1999-09-24 | 3次元構造獲得方法及び記録媒体並びに装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3606308B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4889351B2 (ja) * | 2006-04-06 | 2012-03-07 | 株式会社トプコン | 画像処理装置及びその処理方法 |
JP6539501B2 (ja) * | 2015-05-28 | 2019-07-03 | 株式会社トプコン | 測量装置 |
CN107036557B (zh) * | 2017-03-17 | 2019-04-26 | 北京航宇振控科技有限责任公司 | 一种二维测角系统和方法 |
CN110197524B (zh) * | 2019-06-12 | 2023-08-22 | 腾讯科技(深圳)有限公司 | 立体显示方法、设备、装置和计算机可读存储介质 |
-
1999
- 1999-09-24 JP JP27138399A patent/JP3606308B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001091250A (ja) | 2001-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9858640B1 (en) | Device and method for merging 3D point clouds from sparsely distributed viewpoints | |
JP4889351B2 (ja) | 画像処理装置及びその処理方法 | |
KR101849373B1 (ko) | 인체의 관절구조를 추정하기 위한 장치 및 방법 | |
CN112219087A (zh) | 位姿预测方法、地图构建方法、可移动平台及存储介质 | |
JP2009536731A (ja) | 深度マップによるヒューマノイド形状のモデル化 | |
EP2294555A1 (en) | Three dimensional mesh modeling | |
JP2002024807A (ja) | 物体運動追跡手法及び記録媒体 | |
JP5463584B2 (ja) | 変位計測方法、変位計測装置及び変位計測プログラム | |
JP7224832B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP4761670B2 (ja) | 動立体モデル生成装置及び方法 | |
JP6636894B2 (ja) | カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム | |
JP2006252275A (ja) | カメラ運動及び物体形状の復元システム | |
JP2007271408A (ja) | 三次元環境情報取得装置,三次元環境情報取得方法及びその方法を実現したプログラムを格納した記録媒体 | |
JP3606308B2 (ja) | 3次元構造獲得方法及び記録媒体並びに装置 | |
JP2007025863A (ja) | 撮影システム、撮影方法及び画像処理プログラム | |
JP5281479B2 (ja) | カメラ運動・物体形状復元方法、カメラ運動・物体形状復元装置、カメラ運動・物体形状復元プログラム及びこのプログラムを記録した記録媒体 | |
WO2010001109A2 (en) | Method of generating motion capture data and/or animation data | |
JP3401512B2 (ja) | 移動物体追跡装置 | |
JP2011022066A (ja) | 3次元物体位置姿勢計測方法 | |
JP3512919B2 (ja) | 物体形状・カメラ視点移動の復元装置及び復元方法 | |
JP2005252482A (ja) | 画像生成装置及び3次元距離情報取得装置 | |
JP3548652B2 (ja) | 物体形状復元装置及びその方法 | |
JP2002008014A (ja) | 3次元形状抽出方法及び装置並びに記録媒体 | |
JP3871582B2 (ja) | 物体形状復元・移動物体検出方法、物体形状復元・移動物体検出装置、物体形状復元・移動物体検出プログラム、およびこのプログラムを記録した記録媒体 | |
US20240013415A1 (en) | Methods and systems for representing a user |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040921 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040928 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071015 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081015 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091015 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101015 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |