JP5094663B2 - 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法 - Google Patents
位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法 Download PDFInfo
- Publication number
- JP5094663B2 JP5094663B2 JP2008244946A JP2008244946A JP5094663B2 JP 5094663 B2 JP5094663 B2 JP 5094663B2 JP 2008244946 A JP2008244946 A JP 2008244946A JP 2008244946 A JP2008244946 A JP 2008244946A JP 5094663 B2 JP5094663 B2 JP 5094663B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- orientation
- orientation estimation
- image
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
2.投影された各線分を、画像上で一定間隔となるように分割し、分割点を設定する。そして各分割点について、該分割点を通過し向きが投影された線分の法線方向である線分(探索ライン)上でエッジ探索を行い、探索ライン上における輝度値の勾配が極大でありかつ分割点に最も近い点を対応エッジとして検出する.
3.分割点毎に検出された対応エッジと、投影される線分との間の画像上での距離の総和が最小となるようなカメラの位置及び姿勢の補正値を算出し、カメラの位置及び姿勢を補正する。
T. Drummond andR. Cipolla,"Real-time visual tracking of complex structures," IEEE Transactionson PatternAnalysis and Machine Intelligence, vol.24, no.7, pp.932-946, 2002. G . Bleser, H .Wuest, D. Stricker,"Online camera pose estimation in partially known anddynamic scenes," Proc. The5th IEEE/ACM International Symposium on Mixed andAugmented Reality (ISMAR06),pp.56-65, 2006. G. Reitmayr andT. W. Drummond,"Going out: robust model-based tracking for outdoor augmentedreality," Proc.The 5th IEEE/ACM International Symposium on Mixed and AugmentedRality(ISMAR06), pp.109-118 2006. Y Ohtake, ABelyaev, H Seidel, "Anintegrating approach to meshing scattered point data,"Proceedings of the 2005ACM symposium on Solid and physical modeling, p.61-69,June 13-15, 2005 Y Ohtake, ABelyaev. M Alexa,"Sparse Low-degree Implicit Surfaces with Applications to HighQualityRendering, Feature Extraction, and Smoothing," Eurographics SymposiumonGeometry Processing (SGP2005), pp.145-158, 2005 K. Satoh, S.Uchiyama, H. Yamamoto,and H. Tamura, "Robust vision-based registration utilizingbird’s-eye view withuser’s view," Proc. The 2nd IEEE/ACM InternationalSymposium on Mixed andAugmented Reality (ISMAR03), pp.46-55, 2003.
撮像装置の観察対象物体に対する相対的な位置及び姿勢を推定するために、位置姿勢推定用の3次元モデルを生成する装置であって、
観察対象物体の形状を表す3次元情報を利用して、所定の点から観察対象物体までの距離が画素ごとに格納された奥行き画像を取得する取得手段と、
前記取得手段により取得した前記奥行き画像から、観察対象物体の形状を表す3次元点群データを生成する点群生成手段と、
前記3次元点群データから、位置姿勢推定用3次元モデルを生成するモデル生成手段とを備える。
撮像装置の観察対象物体に対する相対的な位置及び姿勢を推定するために、位置姿勢推定用の3次元モデルを生成する、情報処理装置による位置姿勢推定用モデル生成方法であって、
取得手段が、観察対象物体の形状を表す3次元情報を利用して、所定の点から観察対象物体までの距離が画素ごとに格納された奥行き画像を取得する取得工程と、
点群生成手段が、前記取得工程で取得した前記奥行き画像から、観察対象物体の形状を表す3次元点群データを生成する点群生成工程と、
モデル生成手段が、前記3次元点群データから、位置姿勢推定用3次元モデルを生成するモデル生成工程とを有する。
本実施形態では、3次元モデルの描画結果を利用して位置姿勢推定用3次元モデルを生成する方法について説明する。
まず、ステップS1010において、3次元モデル描画部120は初期化を行う。初期化では、3次元モデル描画部120の3次元モデル描画におけるCADモデルに対する視点の位置と姿勢が決定される。3次元点群生成部140で生成される3次元点群データは、奥行き画像の画像範囲内のデータから生成されるため、描画範囲にCADモデルが入るように描画位置姿勢を設定する必要がある。CADモデルに対する描画位置姿勢の設定は、例えば、描画の都度、ユーザが設定しても良いし、あらかじめ、決まった視点位置を複数設定しておき、それを選択するようにしてもよい。また、CADモデル中から位置姿勢推定用モデルとしてモデル化したい部分をあらかじめユーザが設定しておき、その部分が描画されるように視点位置を移動させるように設定しても良い。また、CADモデルに対する距離のみを設定しておき、CADモデルを中心として、一定のインターバルで緯度と経度を変化させることで、CADモデルの周囲を取りかこむように位置姿勢を決定してもよい。
次にステップS1020において、3次元モデル描画部120は、ステップS1010で設定した視点の位置姿勢に基づいて、3次元モデル保存部110に保持されたCADモデルを描画する。モデルの描画とは、ステップS1010で設定された視点の位置姿勢に基づいて、3次元モデル保存部110に保存された観察対象物体のCADモデルを画像平面上に投影することである。モデルの描画を行うためには、位置姿勢の設定とともに、射影行列の内部パラメータ(焦点距離や主点位置など)を設定する必要がある。本実施形態における位置姿勢推定用モデル生成装置1では、描画画像結果のみを利用して位置姿勢推定用モデルが生成されるため、内部パラメータの設定は基本的には任意の値でよい。本実施形態では、最終的に位置姿勢推定に利用する撮像装置の内部パラメータをあらかじめ計測することで、描画に利用する内部行列を設定する。また、視点からモデルまでの距離の最大値と最小値を設定しておき、その範囲外のモデルの描画は行わないことで、描画処理の計算コストを低減する。この処理はクリッピングと呼ばれ、一般的に行われている処理である。
ステップS1030において、奥行き画像取得部130は、ステップS1020におけるCADモデルの描画の結果として得られたデプスバッファを読み込み、メインメモリ上に保存する。一般的にデプスバッファはグラフィックカード上のメモリ(ビデオメモリ)に格納され、奥行き画像取得部130や3次元点群生成部140として動作するCPUからは参照できない。そのため、ビデオメモリのデータを、メインメモリへ転送する処理を行う。この処理は、一般的に高速でない場合が多いため、デプスバッファの内容を全て転送すると計算コストが高くなる。しかし、デプスバッファ上のモデル領域が特定できる場合は、該領域のみを転送することで処理を高速化することが可能である。この操作は、デプスバッファ上において、観察対象物体の奥行き値が格納された領域の包括矩形を計算することで、容易に実現可能である。但し、本実施形態では、デプスバッファとして得られる領域すべてを取得するものとする。デプスバッファの取得が終わったら、ステップS1040に進む。
ステップS1040において、3次元点群生成部140は、ステップS1030で取得したデプスバッファの各画素の、モデル座標系における3次元座標を求めることで、モデル座標系における3次元点群を求める。
次にステップS1050では、別の視点からの描画を行うかどうかを決定する。別の視点からの3次元点群データを生成する場合は、処理をステップS1010に戻し、上述した処理により別視点からの3次元点群データ生成を行う。こうして、所望の範囲の点群データを生成するまで、ステップS1010からステップS1040を繰り返す。ステップS1050において、別の視点からの3次元点群データを生成しないと判定された場合は、ステップS1040に進んで、点群データからのメッシュモデル生成を行う。
次に、ステップS1060において、位置姿勢推定用モデル生成部150は、ステップS1040で生成した3次元点群データから、位置姿勢推定用のメッシュモデルを求める。例えば、位置姿勢推定用モデル生成部150は、3次元点群データに対して、点群を頂点とするドロネー網を計算することで、三角形パッチから構成されたメッシュモデルを生成する。本実施形態におけるドロネー網によるメッシュ生成には、非特許文献4の手法を利用することができる。その具体的な手順に関しては、非特許文献4にて広く公開されているため、ここでは詳細を述べない。なお、サーフェースモデルには、三角形パッチに限られるものではなく、四角形パッチを含むポリゴンパッチを適用できることは言うまでもない。
次に、ステップS1070において、位置姿勢推定用モデル生成部150は、メッシュのリファインを行う。ステップS1060で生成されたメッシュモデルは、点群データ全てを利用して細かい三角形パッチから生成されるため、データ量が大きくなる。また、本来同一の面としてモデル化されるべき面も、必要以上に細かいパッチとして構成される場合が多い。そこで、モデルの形状と、位置姿勢推定に利用する特徴に応じたメッシュモデルのリファインを行う。ここで、メッシュモデルのリファインとは、メッシュモデルのパッチ同士を結合することで、形状情報として冗長なパッチを削減、または細かい形状を省略して、データ量を削減する操作のことをいう。
・メッシュモデルを構成する全ての三角形パッチに対して近傍パッチの法線を計算し、同一法線方向と判別されたパッチ同士を結合する手法や、
・パッチのなす面と近傍パッチの頂点との距離を計算し、同一面上に乗ると識別されたパッチ同士を結合する手法を利用しても良い。メッシュモデルをリファインする手法は、上述の方法に限らず、何らかの閾値によりメッシュモデルの形状の詳細度を調節することができる手法であれば、いずれの手法でもよく、手法の選択により本発明の本質が損なわれることは無い。本実施形態では、非特許文献4で示される手法を利用して、メッシュモデルのリファインを行う。その具体的な手順に関しては、非特許文献4において広く公開されているため、ここでは詳細は述べない。
まずステップS2010では初期化を行う。ここでは、基準座標系における撮像装置30と観察対象物体との相対的な概略位置姿勢の設定を行う。本実施形態における位置姿勢計測方法は、概略の撮像装置の位置姿勢を、撮影画像上に撮像される観察対象物体のエッジ情報を利用して逐次更新していく方法である。そのため、位置姿勢計測を開始する前に予め撮像装置の概略の位置及び姿勢を初期位置及び初期姿勢として与える必要がある。そこで、例えば予め決まった位置及び姿勢を設定しておき、撮像装置をその位置及び姿勢になるように移動することで初期化を行う。または、画像内で検出するだけで認識可能な人工的な指標を配置し、該指標の各頂点の画像座標と基準座標系における3次元位置との対応から撮像装置の位置姿勢を求めて概略の位置姿勢としてもよい。また、識別性の高い自然特徴点を予め検出してその3次元位置を求めておき、初期化時に画像上で該特徴点を検出し、その画像座標と3次元位置との対応から撮像装置の位置姿勢を求めてもよい。さらに、磁気式や光学式、超音波式などの6自由度位置姿勢センサによって撮像装置の位置姿勢を計測し、それを概略の位置姿勢としてもよい。人工的な指標や自然特徴点などの画像情報と、前述の6自由度位置姿勢センサや3自由度の姿勢センサ、3自由度の位置センサを併用して計測される撮像装置の位置姿勢を用いて初期化してもよい。
ステップS2020では、画像取得部220は、撮像装置30が撮像した画像を取得し、位置姿勢計測装置2に取り込む。
次にステップS2030において、モデル特徴抽出部230は、位置姿勢推定用モデルから、撮影画像と対応付けるためのエッジ情報を抽出する。図6は、本実施形態における観察対象物体のエッジ特徴を抽出する処理の詳細な処理手順を示すフローチャートである。
ステップS2040において、画像特徴抽出部240は、ステップS2030で求めた位置姿勢推定用モデルから抽出したエッジ素EFi(i=1、2、…、N)に対応するエッジを、撮像装置30によって撮像された現フレーム撮影画像より検出する。エッジの検出は、エッジ素EFiの探索ライン(エッジ素の法線方向の線分)上において、撮影画像上の濃度勾配から極値を算出することにより行う。エッジは、探索ライン上において濃度勾配が極値をとる位置に存在する。本実施形態では、探索ライン上でエッジが複数存在する場合には、最もエッジ素の中心点に近いエッジを対応点とし、その画像座標とエッジ素EFiの3次元座標を保持する。なお、本実施形態では最もエッジ素EFiに近いエッジを対応点としているが、これに限るものではなく、濃度勾配の極値の絶対値が最も大きいエッジを対応点としてもよい。また、1つではなく複数の点を対応点候補として保持してもよい。以上の処理を全てのエッジ素EFiに対して繰り返し、全てのエッジ素EFiについて処理が終了すればステップS2040の処理を終了し、ステップS2050に進む。
ステップS2050において、位置姿勢算出部250は、非線形最適化計算を用いて、撮像装置と観察対象物体との概略の相対的な位置姿勢を反復演算により補正することにより撮像装置の位置姿勢を算出する。ここで、ステップS2030において生成された物体特徴モデルのエッジ素EFiのうち、ステップS2040において対応点が求まったエッジ素の総数をLcとする。また、画像の水平方向、垂直方向をそれぞれx軸、y軸とする。また、あるエッジ素の中心点の投影された画像座標を(u0,v0)、エッジ素の直線の画像上での傾きをx軸に対する傾きθと表す。傾きθは、エッジ素端点(始点と終点)の撮影画像上での2次元座標を結んだ直線の傾きとして算出する。エッジ素の直線の画像上での法線ベクトルは(sinθ、−cosθ)となる。また、該エッジ素の対応点の画像座標を(u’、v’)とする。
ステップS2060では、位置姿勢算出を終了する入力がなされたかどうかを判定し、入力された場合には終了し、入力されなかった場合にはステップS2020に戻り、新たな画像を取得して再度位置姿勢算出を行う。
第1実施形態では、CADモデルを描画するためのレンダリングエンジンを、装置の中に持ち、装置内部でCADモデルのレンダリングを行っている。第2実施形態では、CADモデルの描画能力を有する外部のアプリケーションを利用し、CADモデルのデプスバッファを取得することで、CADモデルからの位置姿勢推定用モデルの生成を行う。
・グラフィックライブラリの描画命令の実行を監視し、描画命令が実行された時にビデオメモリに保存されているデプスバッファを取得する方法、
・描画命令が実行されるたびに、描画により生成されたデプスバッファがメインメモリに転送されるようにグラフィックライブラリの描画命令自体を書き換える方法、
が挙げられる。但し、外部アプリケーションのデプスバッファを取得できる方法であれば、いずれの手法でもよく、手法の選択に制限はない。本実施形態では、グラフィックライブラリの描画命令を書き換えることで、外部アプリケーションのデプスバッファを取得する。
まず、ステップS3010では、初期化を行う。初期化では、外部アプリケーション監視部310において、外部アプリケーションの描画命令の書き換えを行う。まず、外部アプリケーションが利用するグラフィックライブラリに応じて、描画命令の関数アドレスを取得する。そして、描画実行と同時にデプスバッファとプロジェクション行列とモデルビュー行列をメインメモリに転送するように描画命令を書き換え、取得した関数アドレスを利用してグラフィックライブラリの描画命令を上書きする。これにより、外部アプリケーションがグラフィックライブラリの描画命令を読み出すたびに、上書きされた描画命令が読み出され、そのときのデプスバッファとプロジェクション行列とモデルビュー行列がメインメモリに随時保存される。
ステップS3020において、外部アプリケーション監視部310は、デプスバッファを取得するかどうかを決定するために、外部アプリケーション80のモデルビュー行列を取得する。外部アプリケーション80のモデルビュー行列は、外部アプリケーション80の描画命令が実行される度に随時更新される。モデルビュー行列を取得したら、ステップS3030に進む。
ステップS3030において、奥行き画像取得部320は、ステップS3020で取得したモデルビュー行列を、現在の3次元点群データを生成するために利用されたモデルビュー行列と比較する。この比較により、奥行き画像取得部320は、新しい視点から描画されたデプスバッファであるかを判別し、外部アプリケーション80のデプスバッファを保存するかどうかを決定する。また、位置姿勢推定用モデル生成装置3に3次元点群データが生成されていない場合は、奥行き画像取得部320は外部アプリケーション80のデプスバッファを保存し、ステップS3040に進む。3次元点群データが既に生成されている場合は、奥行き画像取得部320は、現時点の外部アプリケーション80のデプスバッファが、3次元点群データの生成に利用されたデプスバッファと十分異なる視点から描画されているかを判別する。即ち、上述したモデルビュー行列の比較により、新しい視点から描画されたデプスバッファであるかどうかを判定し、3次元点群データ生成のための奥行き画像として保存するかどうかを決定する。
次に、ステップS3040において、3次元点群生成部330は、ステップS3030において取得したデプスバッファを利用して、観察対象物体の形状を表す3次元点群データを生成する。ステップS3040の処理内容は、基本的に第1実施形態におけるステップS1040の処理と同様であるので説明を省略する。
次に、ステップS3050において、別の視点からの点群データを生成する場合、処理はステップS3020に戻り、別視点からの点群データ生成を行う。本実施形態では、CADモデルの描画は外部アプリケーションに依存しているため、描画の視点位置姿勢の設定を、本装置から操作することはできない。そのため、別の視点から描画されたデプスバッファを取得したい場合は、外部アプリケーションの視点設定が変化するまで、ステップS3020からS3050を繰り返し、外部アプリケーションにおいて所望の視点位置姿勢から描画されるのを待つ必要がある。しかし、ユーザが外部アプリケーションを任意に操作できる場合は、ユーザが外部アプリケーション80を操作しながら、3次元点群データの生成に利用するデプスバッファをその都度指定しても良い。所望の範囲の3次元点群データが生成されたら、ステップS3060に進み、3次元点群データからのメッシュモデル生成を行う。
次に、ステップS3060において、位置姿勢推定用モデル生成部340は、ステップS3040で生成した3次元点群データから、位置姿勢推定用のメッシュモデルを生成する。ステップS3060の処理内容は、基本的に第1実施形態におけるステップS1060の処理と同様であるので説明を省略する。
次に、ステップS3070において、位置姿勢推定用モデル生成部340は、メッシュのリファインを行う。ステップS3070の処理内容は、基本的に第1実施形態におけるステップS1070の処理と同一であるので説明を省略する。以上の処理により、位置姿勢推定用のメッシュモデルが生成され、処理が終了する。
上述の第1および第2実施形態では、ステップS1040の点群データの生成において、点群データを生成するために、デプスバッファの全画素のデータを読み込んでいた。しかし、デプスバッファに必要以上な密度で、奥行き値が保存されている場合、生成した結果である点群データのデータ量が膨大なものになる恐れがある。
第1及び第2実施形態では、生成した3次元点群データに対して、全ての点群データを利用して、位置姿勢推定用モデルを生成していた。しかし、位置姿勢推定する対象となる物体が巨大で、一部分しか観察しないことがあらかじめわかっている場合や、観察対象物体を撮像する撮像装置の視点移動が小さいことがわかっている場合などは、観察対象物体の全ての形状を生成する必要はない。そこで、観察対象物体の被観察部位が限定できる場合は、点群データからその部分のみを位置姿勢推定用モデルとして生成する。これにより、位置姿勢推定用モデルデータの巨大化、モデル生成の手間を低減することが出来る。
第1及び第2実施形態では、位置姿勢推定用モデルとして、頂点と面により構成されたメッシュモデルを用いている。しかし、位置姿勢推定用モデルとして生成するモデルはこれに限るものではない。位置姿勢推定用モデルとしては、例えば、陰関数多項式で面の情報が記述された、陰関数多項式モデル(IPモデル)を利用しても良い。IPモデルは、面からの距離場を容易に計算することが可能であるため、撮影画像中に撮像される観察対象物体と位置姿勢推定用モデルとの当てはめにIPモデルの距離場を利用することが可能である。また、IPモデルは、視点から観察される曲面の遮蔽輪郭を低い計算コストで算出することが可能であるため、エッジを利用した位置姿勢推定において、IPモデルを利用するメリットは大きい。点群からのIPモデルの生成方法としては、例えば、非特許文献5に示される手法を用いればよい。また、IPモデルの生成方法は、これに限るものでなく、点群を入力としIPモデルを出力とする手法であれば、いずれの手法でも良く、IPモデル生成手法に特に制限はない。
Claims (23)
- 撮像装置の観察対象物体に対する相対的な位置及び姿勢を推定するために、位置姿勢推定用の3次元モデルを生成する装置であって、
観察対象物体の形状を表す3次元情報を利用して、所定の点から観察対象物体までの距離が画素ごとに格納された奥行き画像を取得する取得手段と、
前記取得手段により取得した前記奥行き画像から、観察対象物体の形状を表す3次元点群データを生成する点群生成手段と、
前記3次元点群データから、位置姿勢推定用3次元モデルを生成するモデル生成手段とを備えることを特徴とする位置姿勢推定用モデル生成装置。 - 前記取得手段は、前記観察対象物体の形状を表す3次元モデルを描画することにより得られるデプスバッファを利用して前記奥行き画像を取得することを特徴とする請求項1に記載の位置姿勢推定用モデル生成装置。
- 前記取得手段は、観察対象物体の形状を表す3次元モデルとして、CADモデルを利用して前記奥行き画像を取得することを特徴とする請求項2に記載の位置姿勢推定用モデル生成装置。
- 前記取得手段は、モデル描画機能を有する外部アプリケーションの描画命令を監視して、前記外部アプリケーションによる描画時のデプスバッファを、前記奥行き画像として取得することを特徴とする請求項1に記載の位置姿勢推定用モデル生成装置。
- 前記点群生成手段は、前記奥行き画像を構成する画素を間引いて前記3次元点群データを生成することを特徴とする請求項1乃至4のいずれか1項に記載の位置姿勢推定用モデル生成装置。
- 前記点群生成手段は、位置姿勢推定に利用する範囲内で前記3次元点群データを生成することを特徴とする請求項1乃至5のいずれか1項に記載の位置姿勢推定用モデル生成装置。
- 前記モデル生成手段は、位置姿勢推定において利用する特徴に応じた位置姿勢推定用モデルを、前記3次元点群データから生成することを特徴とする請求項1乃至6のいずれか1項に記載の位置姿勢推定用モデル生成装置。
- 前記モデル生成手段は、エッジに基づく位置姿勢推定手法に利用することを前提とした位置姿勢推定用モデルを前記3次元点群データから生成することを特徴とする請求項7に記載の位置姿勢推定用モデル生成装置。
- 前記モデル生成手段は、前記奥行き画像からエッジを抽出したときに、所定長さに満たないエッジとして抽出される形状情報を省略して、位置姿勢推定用モデルを生成することを特徴とする請求項8に記載の位置姿勢推定用モデル生成装置。
- 前記モデル生成手段は、位置姿勢推定において利用する範囲内について、前記3次元点群データから位置姿勢推定用モデルを生成することを特徴とする請求項1乃至9のいずれか1項に記載の位置姿勢推定用モデル生成装置。
- 前記モデル生成手段において、前記3次元点群データから生成する位置姿勢推定用モデルは、ポリゴンパッチにより構成されたメッシュモデルであることを特徴とする請求項1乃至10のいずれか1項に記載の位置姿勢推定用モデル生成装置。
- 前記モデル生成手段は、前記3次元点群データから生成した位置姿勢推定用モデルの頂点数が所定数よりも多い場合には、ポリゴンリダクションを行ってデータ量を削減することを特徴とする請求項11に記載の位置姿勢推定用モデル生成装置。
- 前記モデル生成手段において、前記3次元点群データから生成する位置姿勢推定用モデルは、陰関数多項式モデルであることを特徴とする請求項1乃至10のいずれか1項に記載の位置姿勢推定用モデル生成装置。
- 前記3次元モデルは、面の情報がパラメトリックに記述されたソリッドモデルまたは、頂点と面とで構成されたメッシュモデルであることを特徴とする請求項1乃至13のいずれか一項に記載の位置姿勢推定用モデル生成装置。
- 前記モデル生成手段は、モデルの形状、スケール、若しくはメッシュモデルの頂点数に応じて詳細度が決定することを特徴とする請求項11に記載の位置推定用モデル生成装置。
- 撮像装置により撮像される観察対象物体と、観察対象物体の形状を表す3次元モデルとの対応付けに基づいて位置姿勢を算出する位置姿勢算出装置であって、
請求項1乃至15のいずれか1項に記載された位置姿勢推定用モデル生成装置と、
前記撮像装置が撮像した撮影画像を入力する入力手段と、
前記位置姿勢推定用モデル生成装置により生成された位置姿勢推定用3次元モデルから位置姿勢推定用の特徴を抽出するモデル特徴抽出手段と、
前記モデル特徴抽出手段で抽出された特徴に対応する特徴を、前記撮影画像から抽出する画像特徴抽出手段と、
前記モデル特徴と前記画像特徴とを対応付けた結果に基づいて、前記撮像装置の前記観察対象物体に対する位置及び姿勢を算出する算出手段とを備えることを特徴とする位置姿勢算出装置。 - 前記モデル特徴抽出手段および前記画像特徴抽出手段は、エッジまたは輝度分布を特徴として抽出することを特徴とする請求項16に記載の位置姿勢算出装置。
- 請求項16または17に記載された位置姿勢算出装置と、
前記位置姿勢算出装置が算出した撮像装置の観察対象物体に対する位置及び姿勢に基づいて仮想空間画像を生成する仮想空間画像生成手段と、
前記撮像装置によって得られた撮影画像に前記仮想空間画像を重畳した画像を合成する画像合成手段と、
前記画像合成手段によって合成された画像を表示する表示手段とを備えることを特徴とする画像処理装置。 - 撮像装置の観察対象物体に対する相対的な位置及び姿勢を推定するために、位置姿勢推定用の3次元モデルを生成する、情報処理装置による位置姿勢推定用モデル生成方法であって、
取得手段が、観察対象物体の形状を表す3次元情報を利用して、所定の点から観察対象物体までの距離が画素ごとに格納された奥行き画像を取得する取得工程と、
点群生成手段が、前記取得工程で取得した前記奥行き画像から、観察対象物体の形状を表す3次元点群データを生成する点群生成工程と、
モデル生成手段が、前記3次元点群データから、位置姿勢推定用3次元モデルを生成するモデル生成工程とを有することを特徴とする位置姿勢推定用モデル生成方法。 - 撮像装置により撮像される観察対象物体と、観察対象物体の形状を表す3次元モデルとの対応付けに基づいて位置姿勢推定する、情報処理装置による位置姿勢算出方法であって、
第1実行手段が、請求項19に記載された位置姿勢推定用モデル生成方法を実行する工程と、
入力手段が、前記撮像装置が撮像した撮影画像を入力する入力工程と、
モデル特徴抽出手段が、前記位置姿勢推定用モデル生成方法により生成された位置姿勢推定用3次元モデルから位置姿勢推定用の特徴を抽出するモデル特徴抽出工程と、
画像特徴抽出手段が、前記モデル特徴抽出工程で抽出された特徴に対応する特徴を、前記撮影画像から抽出する画像特徴抽出工程と、
算出手段が、前記モデル特徴と前記画像特徴とを対応付けた結果に基づいて、前記撮像装置の前記観察対象物体に対する位置及び姿勢を算出する算出工程とを有することを特徴とする位置姿勢算出方法。 - 情報処理装置による画像処理方法であって、
第2実行手段が、請求項20に記載された位置姿勢算出方法を実行する工程と、
仮想空間画像生成手段が、前記位置姿勢算出方法を実行して算出された、撮像装置の観察対象物体に対する位置及び姿勢に基づいて仮想空間画像を生成する仮想空間画像生成工程と、
画像合成手段が、前記撮像装置によって得られた撮影画像に前記仮想空間画像を重畳した画像を合成する画像合成工程と、
表示手段が、前記画像合成工程によって合成された画像を表示する表示工程とを有することを特徴とする画像処理方法。 - 請求項19乃至21のいずれか1項に記載された方法の各工程をコンピュータに実行させるプログラム。
- 請求項22に記載されたプログラムを格納した、コンピュータ読み取り可能な記憶媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008244946A JP5094663B2 (ja) | 2008-09-24 | 2008-09-24 | 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法 |
US12/565,743 US20100073366A1 (en) | 2008-09-24 | 2009-09-23 | Model generation apparatus and method |
EP09171132A EP2169627A2 (en) | 2008-09-24 | 2009-09-23 | Model generation apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008244946A JP5094663B2 (ja) | 2008-09-24 | 2008-09-24 | 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010079453A JP2010079453A (ja) | 2010-04-08 |
JP2010079453A5 JP2010079453A5 (ja) | 2011-10-27 |
JP5094663B2 true JP5094663B2 (ja) | 2012-12-12 |
Family
ID=41426891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008244946A Expired - Fee Related JP5094663B2 (ja) | 2008-09-24 | 2008-09-24 | 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20100073366A1 (ja) |
EP (1) | EP2169627A2 (ja) |
JP (1) | JP5094663B2 (ja) |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7905610B1 (en) * | 2006-08-29 | 2011-03-15 | Nvidia Corporation | Graphics processor system and associated method for projecting an image onto a three-dimensional object |
US8504337B2 (en) * | 2007-01-17 | 2013-08-06 | Caterpillar Inc. | Method and system for analyzing three-dimensional linkages |
US8427424B2 (en) | 2008-09-30 | 2013-04-23 | Microsoft Corporation | Using physical objects in conjunction with an interactive surface |
EP2405393B1 (en) * | 2009-03-04 | 2021-07-28 | Nec Corporation | Device, method and program for creating information for object position estimation |
US8730309B2 (en) | 2010-02-23 | 2014-05-20 | Microsoft Corporation | Projectors and depth cameras for deviceless augmented reality and interaction |
US9053562B1 (en) | 2010-06-24 | 2015-06-09 | Gregory S. Rabin | Two dimensional to three dimensional moving image converter |
JP4940461B2 (ja) * | 2010-07-27 | 2012-05-30 | 株式会社三次元メディア | 3次元物体認識装置及び3次元物体認識方法 |
JP5839971B2 (ja) * | 2010-12-14 | 2016-01-06 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US8711206B2 (en) * | 2011-01-31 | 2014-04-29 | Microsoft Corporation | Mobile camera localization using depth maps |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
US9329469B2 (en) * | 2011-02-17 | 2016-05-03 | Microsoft Technology Licensing, Llc | Providing an interactive experience using a 3D depth camera and a 3D projector |
US9480907B2 (en) | 2011-03-02 | 2016-11-01 | Microsoft Technology Licensing, Llc | Immersive display with peripheral illusions |
AU2012260548B2 (en) | 2011-05-24 | 2015-07-09 | Koninklijke Philips N.V. | 3D scanner using structured lighting |
US9597587B2 (en) | 2011-06-08 | 2017-03-21 | Microsoft Technology Licensing, Llc | Locational node device |
KR101316501B1 (ko) * | 2011-10-14 | 2013-10-10 | 현대자동차주식회사 | 메쉬형 공간 해석기법을 이용한 주차 공간 탐지방법 및 그 시스템 |
EP3258671B1 (en) * | 2011-10-28 | 2018-09-05 | Magic Leap, Inc. | System and method for augmented and virtual reality |
JP5837404B2 (ja) * | 2011-11-22 | 2015-12-24 | 株式会社日立製作所 | 画像処理装置、画像処理方法 |
US20130141420A1 (en) * | 2011-12-02 | 2013-06-06 | The Boeing Company | Simulation of Three-Dimensional (3D) Cameras |
KR101909544B1 (ko) | 2012-01-19 | 2018-10-18 | 삼성전자주식회사 | 평면 검출 장치 및 방법 |
JP6004809B2 (ja) * | 2012-03-13 | 2016-10-12 | キヤノン株式会社 | 位置姿勢推定装置、情報処理装置、情報処理方法 |
CN104335251A (zh) * | 2012-06-12 | 2015-02-04 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
US9135735B2 (en) | 2012-06-26 | 2015-09-15 | Qualcomm Incorporated | Transitioning 3D space information to screen aligned information for video see through augmented reality |
DE102012014995A1 (de) * | 2012-07-28 | 2014-01-30 | Volkswagen Aktiengesellschaft | Verfahren zum Betrieb eines Augmented-Reality-Systems |
JP5863984B2 (ja) * | 2012-10-05 | 2016-02-17 | Necソリューションイノベータ株式会社 | ユーザインタフェース装置及びユーザインタフェース方法 |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
JP2014174629A (ja) * | 2013-03-06 | 2014-09-22 | Honda Motor Co Ltd | ワークピース認識方法 |
US9992021B1 (en) | 2013-03-14 | 2018-06-05 | GoTenna, Inc. | System and method for private and point-to-point communication between computing devices |
KR101387045B1 (ko) | 2013-03-29 | 2014-04-18 | 목포해양대학교 산학협력단 | 디지털 홀로그래픽 방송 서비스를 위한 영상 콘텐츠 암호화 장치 및 방법 |
US10311595B2 (en) | 2013-11-19 | 2019-06-04 | Canon Kabushiki Kaisha | Image processing device and its control method, imaging apparatus, and storage medium |
KR102332752B1 (ko) * | 2014-11-24 | 2021-11-30 | 삼성전자주식회사 | 지도 서비스를 제공하는 전자 장치 및 방법 |
JP6298035B2 (ja) | 2015-12-17 | 2018-03-20 | ファナック株式会社 | モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置 |
US10121221B2 (en) * | 2016-01-18 | 2018-11-06 | Advanced Micro Devices, Inc. | Method and apparatus to accelerate rendering of graphics images |
JPWO2017154705A1 (ja) * | 2016-03-09 | 2018-12-27 | 株式会社ニコン | 撮像装置、画像処理装置、画像処理プログラム、データ構造、及び撮像システム |
CN107967710B (zh) * | 2016-10-20 | 2021-05-25 | 株式会社理光 | 一种三维物体描述方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0540809A (ja) * | 1991-08-06 | 1993-02-19 | Canon Inc | 3次元形状モデル作成装置 |
JP2001067495A (ja) * | 1999-08-25 | 2001-03-16 | Ricoh Co Ltd | 三角形メッシュの生成方法、装置及び記録媒体 |
JP2006190049A (ja) * | 2005-01-05 | 2006-07-20 | Fujitsu Ltd | 頂点削減図形描画方法および装置 |
DE102006005044B4 (de) | 2006-02-03 | 2011-01-27 | Metaio Gmbh | Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung |
-
2008
- 2008-09-24 JP JP2008244946A patent/JP5094663B2/ja not_active Expired - Fee Related
-
2009
- 2009-09-23 US US12/565,743 patent/US20100073366A1/en not_active Abandoned
- 2009-09-23 EP EP09171132A patent/EP2169627A2/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
US20100073366A1 (en) | 2010-03-25 |
EP2169627A2 (en) | 2010-03-31 |
JP2010079453A (ja) | 2010-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5094663B2 (ja) | 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法 | |
JP5253066B2 (ja) | 位置姿勢計測装置及び方法 | |
Tagliasacchi et al. | Curve skeleton extraction from incomplete point cloud | |
CN111243093B (zh) | 三维人脸网格的生成方法、装置、设备及存储介质 | |
US11222471B2 (en) | Implementing three-dimensional augmented reality in smart glasses based on two-dimensional data | |
EP2272050B1 (en) | Using photo collections for three dimensional modeling | |
JP5290864B2 (ja) | 位置姿勢推定装置及び方法 | |
US8059889B2 (en) | Position and orientation measurement apparatus and control method thereof | |
CN104937635B (zh) | 基于模型的多假设目标追踪器 | |
JP3954211B2 (ja) | 三次元シーンにおける形状及び模様の復元方法及び装置 | |
KR20180069786A (ko) | 3d 신체 모델에 대한 3d 의복 모델의 이미지 파일을 생성하기 위한 방법 및 시스템 | |
JP2020526818A (ja) | 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム | |
JP5206366B2 (ja) | 3次元データ作成装置 | |
JP5290865B2 (ja) | 位置姿勢推定方法および装置 | |
JP6293386B2 (ja) | データ処理装置、データ処理方法及びデータ処理プログラム | |
CN111553284A (zh) | 人脸图像处理方法、装置、计算机设备和存储介质 | |
JP2001126051A (ja) | 関連情報呈示装置及び関連情報呈示方法 | |
Nguyen et al. | High-definition texture reconstruction for 3D image-based modeling | |
JP7298687B2 (ja) | 物体認識装置及び物体認識方法 | |
Xiang et al. | Tsfps: An accurate and flexible 6dof tracking system with fiducial platonic solids | |
JP4568967B2 (ja) | 3次元画像生成システムおよび3次元画像生成方法、並びにプログラム記録媒体 | |
Djordjevic et al. | An accurate method for 3D object reconstruction from unordered sparse views | |
JP2006059165A (ja) | 3次元モデリング装置、幾何学パターン、3次元モデリングデータの生成方法、3次元モデリングプログラム、記録媒体 | |
Gao et al. | Multi-target 3d reconstruction from rgb-d data | |
WO2023132261A1 (ja) | 情報処理システム、情報処理方法および情報処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110913 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110913 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120809 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120817 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120918 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5094663 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150928 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |