JP2011086164A - 三次元モデリング装置及び方法並びにプログラム - Google Patents

三次元モデリング装置及び方法並びにプログラム Download PDF

Info

Publication number
JP2011086164A
JP2011086164A JP2009239372A JP2009239372A JP2011086164A JP 2011086164 A JP2011086164 A JP 2011086164A JP 2009239372 A JP2009239372 A JP 2009239372A JP 2009239372 A JP2009239372 A JP 2009239372A JP 2011086164 A JP2011086164 A JP 2011086164A
Authority
JP
Japan
Prior art keywords
feature points
dimensional
target object
feature point
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009239372A
Other languages
English (en)
Other versions
JP4978941B2 (ja
Inventor
Jun Nakajima
潤 中島
Ryo Nakajima
諒 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elijah & Co
Original Assignee
Elijah & Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elijah & Co filed Critical Elijah & Co
Priority to JP2009239372A priority Critical patent/JP4978941B2/ja
Publication of JP2011086164A publication Critical patent/JP2011086164A/ja
Application granted granted Critical
Publication of JP4978941B2 publication Critical patent/JP4978941B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】簡易に、かつ確実に動画像データから三次元モデルを生成する。
【解決手段】演算装置12は、対象物体の動画像データから特徴点を抽出し、抽出した特徴点を動画像データの各フレームにおいて追跡する。追跡可能な特徴点の数が所定の閾値に達しない場合に、新たに動画像データから特徴点を抽出して追加する。追跡した特徴点の三次元位置情報を演算し、追加する前の特徴点群を用いて対象物体の部分三次元モデルを生成し、かつ、追加した後の特徴点群を用いて対象物体の部分三次元モデルを生成し、複数の部分三次元モデルを合成して対象物体の三次元モデルを生成する。
【選択図】図1

Description

本発明は三次元モデリング装置及び方法に関し、特に動画像データから三次元モデルを生成する技術に関する。
バーチャルリアリティやインターネット、地図情報など種々の分野で三次元モデルデータが用いられている。
下記の特許文献1、2には、対象オブジェクトの連続視点移動画像からカメラ位置・姿勢情報演算部にてその撮影を行ったカメラの位置・姿勢を算出し、算出した位置・姿勢情報とそれに対応する各画像とを対応付け、データベースに登録されている対象物の三次元形状モデルを読み出して、算出された位置・姿勢情報に基づいて三次元モデルをレンダリングして表示装置に表示する技術が開示されている。
また、下記の特許文献3には、対象物体の時系列画像(動画像)を取り込み、モデル作成を行う物体の表面を構成する特徴点を抽出し、抽出した特徴点同士の対応付けを行って、その特徴点群の位置座標情報から各特徴点の三次元位置情報を求める技術が開示されている。そして、三次元位置情報が求められた特徴点に基づいて物体の表面を構成する三次元パッチ群を生成し、対象物体のモデル情報として出力することが開示されている。
なお、特許文献4には複数台のカメラを用いて三次元モデルを生成することが開示されている。
さらに、非特許文献1には、対象物体の動きを算出するための因子分解法が開示されている。
特開2005−63041号公報 特開2005−141655号公報 特開平10−320588号公報 米国特許第5475422号
"Shape and motion from image streams under orthography: A factorization method", C. Tomasi and T. Kanade, International Journal of Computer Vision Vol. 9:2 pp137-154, 1992
ところで、動画像データから三次元モデルを生成する場合、入力された動画像データを構成する各フレームにおいて、対象物体の表面を構成する特徴点同士を対応づけることが必要であるが、必ずしもあるフレームにおいて存在する特徴点が、別のフレームにおいても存在する保証はなく、特徴点同士の対応づけが出来ない場合が生じる。このような場合においても、簡易な方法でありながら、かつ、一定の精度で三次元モデルを生成できる技術が求められている。
本発明の目的は、簡易に、かつ確実に動画像データから三次元モデルを生成することができる三次元モデリング装置及び方法並びにプログラムを提供することにある。
本発明は、対象物体の動画像データに基づいて該対象物体の三次元モデルを生成する三次元モデリング装置であって、前記動画像データから特徴点を抽出する手段と、抽出した特徴点を前記動画像データの各フレームにおいて追跡する手段と、追跡可能な特徴点の数が所定の閾値に達しない場合に、新たに前記動画像データから特徴点を抽出して追加し、追加した特徴点を追跡する手段と、追跡した特徴点の三次元位置情報を演算し、追加する前の特徴点群の該三次元位置情報を用いて前記対象物体の部分三次元モデルを生成し、かつ、追加した後の特徴点群の該三次元位置情報を用いて前記対象物体の部分三次元モデルを生成する手段と、生成された複数の部分三次元モデルを合成することで前記対象物体の三次元モデルを生成する手段とを有することを特徴とする。
また、本発明は、対象物体の動画像データに基づいて該対象物体の三次元モデルを生成する、コンピュータを用いた三次元モデリング方法であって、前記動画像データから特徴点を抽出して記憶装置に格納するステップと、抽出した特徴点を前記動画像データの各フレームにおいて追跡するステップと、追跡可能な特徴点の数が所定の閾値に達しているか否かを演算装置により判定し、達していないと判定した場合に、新たに前記動画像データから特徴点を抽出して追加し、追加した特徴点を追跡するステップと、演算装置により追跡した特徴点の三次元位置情報を演算し、追加する前の特徴点群の該三次元位置情報を用いて前記対象物体の部分三次元モデルを生成し、かつ、追加した後の特徴点群の該三次元位置情報を用いて前記対象物体の部分三次元モデルを生成するステップと、演算装置により生成された複数の部分三次元モデルを合成することで前記対象物体の三次元モデルを生成するステップとを有することを特徴とする。
また、本発明は、対象物体の動画像データに基づいて該対象物体の三次元モデルを生成するプログラムであって、前記プログラムは、コンピュータに対して、前記動画像データから特徴点を抽出して記憶装置に格納するステップと、抽出した特徴点を前記動画像データの各フレームにおいて追跡するステップと、追跡可能な特徴点の数が所定の閾値に達しているか否かを演算装置により判定し、達していないと判定した場合に、新たに前記動画像データから特徴点を抽出して追加し、追加した特徴点を追跡するステップと、演算装置により追跡した特徴点の三次元位置情報を演算し、追加する前の特徴点群の該三次元位置情報を用いて前記対象物体の部分三次元モデルを生成し、かつ、追加した後の特徴点群の該三次元位置情報を用いて前記対象物体の部分三次元モデルを生成するステップと、演算装置により生成された複数の部分三次元モデルを合成することで前記対象物体の三次元モデルを生成するステップを実行させることを特徴とする。
本発明によれば、簡易に、かつ確実に動画像データから三次元モデルを生成することができる。
実施形態における三次元モデリング装置を含むシステムの構成ブロック図である。 実施形態の全体処理フローチャートである。 実施形態の特徴点追跡処理フローチャートである。 実施形態の特徴点追加処理フローチャートである。 実施形態の特徴点追跡処理の模式的説明図である。 実施形態の特徴点追加処理の模式的説明図である。
以下、図面に基づき本発明の実施形態について説明する。
図1に、本実施形態における三次元モデリング装置を含むシステムの構成ブロック図を示す。システムは、画像入力装置10、演算装置(あるいはコンピュータ)12、表示装置14から構成される。三次元モデリング装置は、演算装置(あるいはコンピュータ)12として機能するユニットである。
画像入力装置10は、対象物体を撮影して動画像データを入力する装置である。画像入力装置10の一例はデジタルビデオカメラであるが、これに限定されるものではない。動画像データを取得できる装置であれば任意の装置でよく、動画撮影機能を有するデジタルスチルカメラや携帯電話、携帯情報機器等も含まれる。インターネット上で提供されている動画像データであってもよい。画像入力装置10は、入力した動画像データを演算装置12に出力する。
演算装置12は、画像入力装置10からの動画像データを入力する。演算装置12は、データ入力部12a、特徴点抽出・追跡部12b、特徴点集合分割部12c、三次元位置復元部12d、テクスチャ作成部12e、部分立体統合部12f及び立体とテクスチャの関連付け部12gを有する。演算装置12は、これらの機能ブロックにより動画像データから三次元モデルデータを生成し、表示装置14に出力する。演算装置12における処理の詳細については後述する。
表示装置14は、演算装置12からの三次元モデルデータを表示する。表示装置14は、演算装置12として機能するコンピュータに設けられたディスプレイであってもよく、演算装置12として機能するコンピュータとは別個のディスプレイであってもよい。
図2に、本実施形態における演算装置12の処理フローチャートを示す。
演算装置12のデータ入力部12aは、画像入力装置10から動画像データを入力して特徴点抽出・追跡部12bに供給する。
特徴点抽出・追跡部12bは、動画像データから特徴点を抽出し、動画像データを構成する各フレームにおいて、抽出した特徴点を追跡する(S101)。特徴点の追跡とは、各フレームにおいて特徴点同士を対応づけることを意味し、対応づけられた各特徴点の位置座標情報を解析することで各特徴点の三次元位置情報を求めることができる。特徴点は、各フレームにおいて他の点から明確に識別し得る点であり、一般的には画像内のエッジ部分や高周波部分が該当する。エッジ部分や高周波部分を抽出するためのフィルタリグ処理は公知である。各フレームにおいて抽出された特徴点群は、演算装置12のワーキングメモリに格納される。そして、各フレームにおいて抽出された特徴点群の対応づけを行うことで特徴点を追跡する。対応づけは、例えば対応づけられるべき特徴点の組を選択し、特徴点を含む局所領域を切り出してこれらの相関値を演算する。演算して得られた相関値が一定値以上であり、しかも最大となる組を対応づけの求まった組として決定する。
一方、動画像データを構成する各フレームにおける対象物体の姿勢変化に起因して、対応する特徴点が全てのフレームにおいて存在するとは限らず、あるフレームにおいて対応する特徴点が消失する場合もあり得る。例えば、第k番目フレーム、第k+1番目のフレームにおいては存在していたある特徴点が、次の第k+2番目のフレームにおいては対象物体の影の部分あるいは裏側に存在するために消失してしまう場合もあり得る。このような場合、特徴点の追跡はその時点で不可能となり、追跡できる特徴点の数が少なくなると、三次元モデリングの精度が著しく低下してしまい、あるいは三次元モデリング自体が不可能となる。
そこで、特徴点抽出・追跡部12bは、追跡可能な特徴点の数を常にカウントし、所定の閾値以上であるか否かを判定することで、追跡する特徴点を新規に追加する必要があるか否かを判定する(S102)。閾値は、システムが自動的に設定してもよく、ユーザが任意に設定することもできる。三次元モデリングすべき対象物体が複雑な形状を有するほど、閾値は大きく設定するのが好適である。このため、あるフレームにおいて対象物体の輪郭に基づいて対象物体の形状の複雑さを簡易に判定し、この複雑さに応じて自動的に閾値を増減設定してもよい。
以下、特徴点を新規に追加する場合としない場合とに分けて処理を説明する。
<特徴点を追加しない場合>
S102の処理でNと判定された場合、すなわち、追跡可能な特徴点がしきい値以上存在している場合、特徴点抽出・追跡部12bは、追跡した特徴点群を三次元位置復元部12d及びテクスチャ作成部12eに供給する。
三次元位置復元部12dは、追跡した特徴点群から、対象物体の三次元形状を復元するために用いる特徴点群を抽出する(S103)。復元するために用いる特徴点群は、追跡した特徴点群の全てでもよく、あるいは特定の判断基準に従って選択した特徴点群でもよい。三次元位置復元部12dは、次に抽出した特徴点群のうち近傍の3つを選択し、選択した3つの特徴点を頂点とする三角形を形成する(S104)。三角形を形成するには、公知のドロネー三角形分割アルゴリズムを用いることができる。特徴点群を追跡し、これらの三次元位置を復元することができたとしても、点の間にどのような平面が存在しているかの情報が欠落しているため、それは三次元上に分布する点の集合でしかなく、三次元物体として表示することはできない。三次元物体として表示するためには、点の間に存在している平面の情報を得る必要がある。そこで、特徴点に対してドロネー三角形分割アルゴリズムを適用し、その三角形が復元後の三次元物体において平面を構成するとみなすものである。各フレーム間の特徴点同士の対応関係は特徴点追跡処理により明らかとなっているので、三角形分割は任意の1フレームについて行えばよい。例えば、各フレームにおいてドロネー三角形分割アルゴリズムを適用して三角形に分割して三角形の面積を算出し、面積が最大となるフレームの画像を選択する。面積が最大となるフレームの画像を選択する意義については後述する。そして、因子分解法により対象物体の三次元形状を復元する(S105)。因子分解法は公知であり、特開平10−320588号公報にも記載されている。その内容について簡単に説明すると、対象物体が動画入力装置10から十分遠方にあって正射影の条件を満たすものとし、第f番目のフレームにおけるp番目の特徴点の位置を(Xfp,Yfp)とし、フレーム総数をF、特徴点の組の数をPとし、第f番目のフレームのp番目の特徴点群の重心位置を(Af,Bf)とすると、これらは、
Af=1/P・ΣXfp
Bf=1/P・ΣYfp
である。ここで、Σはp=1からPまでの加算である。次に、これらの座標間の差をとって、
X’fp=Xfp−Af
Y’fp=Yfp−Bf
とすると、計測行列Wは、
として設定される。計測行列Wは2F×Pの行列である。計測行列Wに対して変形操作を行って
W=MS
と2つの行列の積の形に分解する。ここで、
M=(x1,・・・,xF,y1,・・・,yF)
は2F×3の行列であり、
S=(s1,s2,・・・,sP)
は3×Pの行列である。成分spがp番目の特徴点の三次元位置(Xp,Yp,Zp)である。
もちろん、因子分解法は一例にすぎず、特徴点の三次元位置を算出するための任意の方法を用いることが可能である。
三次元形状を復元した後、立体とテクスチャの関連付け部12gは、復元された三次元形状とテクスチャ作成部12eで作成されたテクスチャとを関連づける(テクスチャのマッピング)ことで対象物体の三次元モデリングが完了する。テクスチャ作成部12eは、動画像の適当なフレームから、三角形分割に従って三角形を切り出すことで行う。この際、斜めから見えている、つまり三角形の面積が小さいフレームから画像を切り出してテクスチャマッピングを行うと、小さな面積の画像が大きく引き伸ばされ、表示結果が不自然となる。これを回避するために、テクスチャの作成にはできるだけ正面から特徴点を捉えている、つまり三角形の面積が大きい画像を利用することが好適である。ここに、三角形の面積が最大となるフレームを選択する意義がある。
<特徴点を追加する場合>
S102の処理でYと判定された場合、すなわち、追跡可能な特徴点がしきい値以上存在していない場合であって、特徴点抽出・追跡部12bが新たに特徴点を追加した場合、特徴点集合分割部12cは、追加される前の既に存在していた特徴点群(旧特徴点群)と、新規に追加した特徴点を含む特徴点群(新特徴点群)とに分類する(S106)。
図3に、特徴点追跡及び追加のフローチャートを示す。まず、最初のフレームの画像と特徴点を取得する(S201)。次に、取得した特徴点をその後のフレームにおいて追跡する(S202)。そして、新しい特徴点を追加すべきか否かを判定する(S203)。この判定は、追跡している特徴点があるフレームにおいて消失したか否か、及び追跡可能な特徴点がしきい値以上あるか否かで判定する。新しい特徴点を追加すべきと判定した場合、特徴点抽出・追跡部12bは、当該フレームにおいて新たな特徴点を一つまたは複数追加する(S204)。また、特徴点集合分割部12cは、特徴点群を、追加される前の特徴点群と、新たに追加された特徴点を含む特徴点群とに分類(分割)する。以上の処理を全てのフレームについて繰り返し実行する(S206,S207)。なお、S201、S202、S206、S207の各処理は、特徴点を追加しない場合にも同様に実行されることは言うまでもない。
図4に、図3におけるS204の処理、すなわち新しい特徴点を追加する処理の詳細フローチャートを示す。まず、特徴点として適していると思われる点を仮特徴点として画像から取得する(S301)。具体的には、画像のエッジ部分や高周波部分、孤立部分等である。次に、仮特徴点を既存の特徴点との間の最短距離でソートし(S302)、特徴点との距離が最大となる仮特徴点を特徴点として追加する(S303)。要するに、仮特徴点と既存の特徴点との距離を全て加算し、加算して得られる距離が最も大きく、全ての特徴点かから距離的に最も離間している仮特徴点を選択して新たな特徴点とする。以上の処理を特徴点の数が必要な数に達するまで繰り返し実行する(S304,S305)。
具体的に説明すると、以下のとおりである。既存の特徴点をPiとし、仮特徴点(複数)をPとする。仮特徴点毎に評価値S=Σ|P−Pi|を算出し、評価値Sが最大となる仮特徴点Pを新たな特徴点とする。既存の特徴点Siに新たに特徴点としたPを加えた個数がしきい値に満たない場合、さらに別の仮特徴点(複数)Qを抽出し、仮特徴点毎に評価値S’=Σ|Q−Pi’|を算出する。ここで、Pi’はPiとPを含むものである。評価値S’が最大となる仮特徴点Qを新たな特徴点とする。追加すべき新たな特徴点を、既存の特徴点からの距離が最大となるように選択するのは、特徴点は三次元モデリングを行う際の基準となるポイントであり、互いに離間している方が三次元モデリングの精度を確保できるからである。
再び図2に戻り、以上のようにして新たな特徴点を追加し、特徴点群を新旧に分類(分割)した後、新旧それぞれの特徴点群を用いてS103〜S105と同様の処理を実行して三次元形状を復元する(S107〜S109)。すなわち、例えば最初のフレームから第m番目のフレームまでの特徴点がS1〜S100であるとし、第m+1番目のフレームから最後のフレームまでの特徴点がS31〜S130であるとすると(S101〜S130が新たに追加された特徴点群)、S1〜S100の特徴点群で部分三次元形状を復元し、S31〜S130の特徴点群で部分三次元形状を復元する。三次元位置復元部12dは、各特徴点群毎に復元した部分三次元形状を部分立体統合部12fに供給する。
部分立体統合部12fは、複数の部分三次元形状を合成して一つの三次元形状を形成する(S110)。上記の例に則して説明すると、特徴点群S1〜S100を用いて復元された部分三次元形状と、特徴点群S31〜S130を用いて復元された部分三次元形状とを合成する。合成する際には、複数の部分三次元形状において重複する特徴点の対応づけを行い、その三次元位置を整合させる。整合の手法は種々であり、いずれかの特徴点の位置を基準として他方の特徴点の位置を合わせる、あるいはそれぞれの位置の中間値を採用する、重複する特徴点間の距離の二乗が最小となるように位置を合わせる等である。
このように、本実施形態では、対象物体の動画像データから特徴点を抽出し、特徴点を各フレーム間で追跡することで対象物体の三次元モデリングを作成する際に、特徴点が追跡できなくなった場合に、一定の基準の下で特徴点を新たに追加して追跡を可能とするとともに、特徴点を追加した場合に特徴点群を新旧に分類(分割)し、新旧それぞれの特徴点群を用いて部分三次元形状を復元し、その後に復元した複数の部分三次元形状を合成することで対象物体の三次元形状を作成するものであり、簡易でありながら高精度で任意の対象物体の三次元モデルを生成できる。
図5に、本実施形態における特徴点追跡処理を模式的に示す。図5(a)は第k番目のフレーム、図5(b)は第k+1番目のフレーム、図5(c)は第k+2番目のフレームを示す。各図において、白丸が特徴点を表す。特徴点は、例えば対象物体が飛行体の場合には、飛行体の先端や翼の胴体接合部、翼の先端部等に設定される。飛行体の左翼の先端部に設定された特徴点に着目すると、図5(a)〜(c)の全てのフレームにおいて存在するため、これを追跡することは可能である。しかしながら、飛行体の右翼の先端部に着目すると、図5(a)、(b)のフレームでは追跡することが可能であるものの、図5(c)のフレームでは図中矢印及び破線で示すように飛行体の裏側に存在するため追跡が不可能となる。右翼の胴体接合部等も同様である。
図6に、本実施形態における特徴点追加処理を模式的に示す。図6(a)は第k番目のフレーム、図6(b)は第k+1番目のフレーム、図6(c)は第k+2番目のフレームを示す。各図において、白丸が特徴点を表す。図5(c)に示すように、追跡できる特徴点のいくつかが消失するため、新たに特徴点を追加する必要が生じる。図6(c)に、新たに追加した特徴点群を符号100で示す。飛行体の先端の屈曲部や後部のエンジン部等に新たな特徴点が設定される。これらは、図5(a)、(b)では存在していないか、あるいは存在していても他の部位との識別が明瞭でない部分である。新たに特徴点を追加することで、画像データが存在する任意の部分の三次元形状化が可能となることが理解されよう。
図2〜図4に示す処理は、コンピュータに記憶されたプログラムを順次読み出して実行することで実現できる。データ入力部12aはコンピュータの入力インタフェースで実現でき、特徴点抽出・追跡部12b、特徴点集合分割部12c、三次元位置復元部12d、テクスチャ作成部12e、部分立体統合部12f、立体とテクスチャの関連付け部12gはいずれもコンピュータのCPUで実現できる。コンピュータにはワーキングメモリが搭載され、ワーキングメモリに抽出した特徴点を格納して、各フレーム間の追跡や特徴点の分類を実行し、分類した特徴点毎の部分三次元形状の作成や格納、複数の部分三次元形状の読み出しと合成を実行する。
以上、本発明の実施形態について説明したが、本発明はこれに限定されるものではなく、種々の変更が可能である。
例えば、本実施形態では、追跡可能な特徴点の数が所定の閾値に達しない場合に新たな特徴点を追加しているが、合成すべき部分三次元形状との重複する特徴点数が一定値に達しない場合において特徴点を新たに追加してもよい。複数の部分三次元形状の合成精度を確保するためである。
10 画像入力装置、12 演算装置、14 表示装置、100 新たに追加された特徴点。

Claims (7)

  1. 対象物体の動画像データに基づいて該対象物体の三次元モデルを生成する三次元モデリング装置であって、
    前記動画像データから特徴点を抽出する手段と、
    抽出した特徴点を前記動画像データの各フレームにおいて追跡する手段と、
    追跡可能な特徴点の数が所定の閾値に達しない場合に、新たに前記動画像データから特徴点を抽出して追加し、追加した特徴点を追跡する手段と、
    追跡した特徴点の三次元位置情報を演算し、追加する前の特徴点群の該三次元位置情報を用いて前記対象物体の部分三次元モデルを生成し、かつ、追加した後の特徴点群の該三次元位置情報を用いて前記対象物体の部分三次元モデルを生成する手段と、
    生成された複数の部分三次元モデルを合成することで前記対象物体の三次元モデルを生成する手段と、
    を有することを特徴とする三次元モデリング装置。
  2. 請求項1記載の装置において、
    新たに前記動画像データから抽出され追加される特徴点は、既存の全ての特徴点からの距離が最大となるように抽出されることを特徴とする三次元モデリング装置。
  3. 請求項1記載の装置において、
    生成された複数の部分三次元モデルの合成では、三次元モデルを構成する特徴点のうち互いに重複する特徴点同士を整合させることを特徴とする三次元モデリング装置。
  4. 対象物体の動画像データに基づいて該対象物体の三次元モデルを生成する、コンピュータを用いた三次元モデリング方法であって、
    前記動画像データから特徴点を抽出して記憶装置に格納するステップと、
    抽出した特徴点を前記動画像データの各フレームにおいて追跡するステップと、
    追跡可能な特徴点の数が所定の閾値に達しているか否かを演算装置により判定し、達していないと判定した場合に、新たに前記動画像データから特徴点を抽出して追加し、追加した特徴点を追跡するステップと、
    演算装置により追跡した特徴点の三次元位置情報を演算し、追加する前の特徴点群の該三次元位置情報を用いて前記対象物体の部分三次元モデルを生成し、かつ、追加した後の特徴点群の該三次元位置情報を用いて前記対象物体の部分三次元モデルを生成するステップと、
    演算装置により生成された複数の部分三次元モデルを合成することで前記対象物体の三次元モデルを生成するステップと、
    を有することを特徴とする三次元モデリング方法。
  5. 請求項4記載の方法において、
    新たに前記動画像データから抽出され追加される特徴点は、既存の全ての特徴点からの距離が最大となるように抽出されることを特徴とする三次元モデリング方法。
  6. 請求項4記載の方法において、
    生成された複数の部分三次元モデルの合成では、三次元モデルを構成する特徴点のうち互いに重複する特徴点同士を整合させることを特徴とする三次元モデリング方法。
  7. 対象物体の動画像データに基づいて該対象物体の三次元モデルを生成するプログラムであって、前記プログラムは、コンピュータに対して、
    前記動画像データから特徴点を抽出して記憶装置に格納するステップと、
    抽出した特徴点を前記動画像データの各フレームにおいて追跡するステップと、
    追跡可能な特徴点の数が所定の閾値に達しているか否かを演算装置により判定し、達していないと判定した場合に、新たに前記動画像データから特徴点を抽出して追加し、追加した特徴点を追跡するステップと、
    演算装置により追跡した特徴点の三次元位置情報を演算し、追加する前の特徴点群の該三次元位置情報を用いて前記対象物体の部分三次元モデルを生成し、かつ、追加した後の特徴点群の該三次元位置情報を用いて前記対象物体の部分三次元モデルを生成するステップと、
    演算装置により生成された複数の部分三次元モデルを合成することで前記対象物体の三次元モデルを生成するステップ
    を実行させることを特徴とするプログラム。
JP2009239372A 2009-10-16 2009-10-16 三次元モデリング装置及び方法並びにプログラム Expired - Fee Related JP4978941B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009239372A JP4978941B2 (ja) 2009-10-16 2009-10-16 三次元モデリング装置及び方法並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009239372A JP4978941B2 (ja) 2009-10-16 2009-10-16 三次元モデリング装置及び方法並びにプログラム

Publications (2)

Publication Number Publication Date
JP2011086164A true JP2011086164A (ja) 2011-04-28
JP4978941B2 JP4978941B2 (ja) 2012-07-18

Family

ID=44079054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009239372A Expired - Fee Related JP4978941B2 (ja) 2009-10-16 2009-10-16 三次元モデリング装置及び方法並びにプログラム

Country Status (1)

Country Link
JP (1) JP4978941B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074660A (zh) * 2015-12-31 2018-12-21 Ml 荷兰公司 单目相机实时三维捕获和即时反馈的方法和系统
WO2020244594A1 (zh) * 2019-06-04 2020-12-10 先临三维科技股份有限公司 扫描的控制方法、装置、系统、存储介质和处理器

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0979820A (ja) * 1995-09-18 1997-03-28 Toshiba Corp 物体形状及びカメラ視点移動の復元装置および物体形状,カメラ視点移動の復元方法
JPH1040385A (ja) * 1996-07-24 1998-02-13 Toshiba Corp 物体形状復元装置及びその方法
JP2000105814A (ja) * 1998-09-28 2000-04-11 Sumitomo Electric Ind Ltd 立体地図作成方法
JP2000194863A (ja) * 1998-12-28 2000-07-14 Nippon Telegr & Teleph Corp <Ntt> 3次元構造獲得・復元方法、装置、および3次元構造獲得・復元プログラムを記録した記録媒体
JP2001245323A (ja) * 2000-02-29 2001-09-07 Minolta Co Ltd 3次元入力方法および装置
JP2006252275A (ja) * 2005-03-11 2006-09-21 Japan Science & Technology Agency カメラ運動及び物体形状の復元システム
JP2007004578A (ja) * 2005-06-24 2007-01-11 Nippon Telegr & Teleph Corp <Ntt> 三次元形状取得方法、三次元形状取得装置、及びプログラムの記録媒体
JP2007183256A (ja) * 2005-12-08 2007-07-19 Topcon Corp 画像処理装置及びその方法
JP2007292657A (ja) * 2006-04-26 2007-11-08 Nippon Telegr & Teleph Corp <Ntt> カメラ運動情報取得装置、カメラ運動情報取得方法および記録媒体

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0979820A (ja) * 1995-09-18 1997-03-28 Toshiba Corp 物体形状及びカメラ視点移動の復元装置および物体形状,カメラ視点移動の復元方法
JPH1040385A (ja) * 1996-07-24 1998-02-13 Toshiba Corp 物体形状復元装置及びその方法
JP2000105814A (ja) * 1998-09-28 2000-04-11 Sumitomo Electric Ind Ltd 立体地図作成方法
JP2000194863A (ja) * 1998-12-28 2000-07-14 Nippon Telegr & Teleph Corp <Ntt> 3次元構造獲得・復元方法、装置、および3次元構造獲得・復元プログラムを記録した記録媒体
JP2001245323A (ja) * 2000-02-29 2001-09-07 Minolta Co Ltd 3次元入力方法および装置
JP2006252275A (ja) * 2005-03-11 2006-09-21 Japan Science & Technology Agency カメラ運動及び物体形状の復元システム
JP2007004578A (ja) * 2005-06-24 2007-01-11 Nippon Telegr & Teleph Corp <Ntt> 三次元形状取得方法、三次元形状取得装置、及びプログラムの記録媒体
JP2007183256A (ja) * 2005-12-08 2007-07-19 Topcon Corp 画像処理装置及びその方法
JP2007292657A (ja) * 2006-04-26 2007-11-08 Nippon Telegr & Teleph Corp <Ntt> カメラ運動情報取得装置、カメラ運動情報取得方法および記録媒体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074660A (zh) * 2015-12-31 2018-12-21 Ml 荷兰公司 单目相机实时三维捕获和即时反馈的方法和系统
JP2019501473A (ja) * 2015-12-31 2019-01-17 エムエル ネザーランズ セー.フェー. 単眼カメラを用いたリアルタイム3d捕捉およびライブフィードバックのための方法およびシステム
JP2021192250A (ja) * 2015-12-31 2021-12-16 エムエル ネザーランズ セー.フェー. 単眼カメラを用いたリアルタイム3d捕捉およびライブフィードバックのための方法およびシステム
CN109074660B (zh) * 2015-12-31 2022-04-12 Ml 荷兰公司 单目相机实时三维捕获和即时反馈的方法和系统
JP7249390B2 (ja) 2015-12-31 2023-03-30 エムエル ネザーランズ セー.フェー. 単眼カメラを用いたリアルタイム3d捕捉およびライブフィードバックのための方法およびシステム
US11631213B2 (en) 2015-12-31 2023-04-18 Magic Leap, Inc. Method and system for real-time 3D capture and live feedback with monocular cameras
WO2020244594A1 (zh) * 2019-06-04 2020-12-10 先临三维科技股份有限公司 扫描的控制方法、装置、系统、存储介质和处理器

Also Published As

Publication number Publication date
JP4978941B2 (ja) 2012-07-18

Similar Documents

Publication Publication Date Title
JP4473754B2 (ja) 仮想試着装置
US11721114B2 (en) Method, system, and device of generating a reduced-size volumetric dataset
US8055061B2 (en) Method and apparatus for generating three-dimensional model information
US8487926B2 (en) Method and apparatus for generating 3D image using 2D photograph images
US11037325B2 (en) Information processing apparatus and method of controlling the same
US20080018668A1 (en) Image Processing Device and Image Processing Method
WO2010004466A1 (en) Three dimensional mesh modeling
JP5795250B2 (ja) 被写体姿勢推定装置および映像描画装置
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
Thomas et al. A flexible scene representation for 3d reconstruction using an rgb-d camera
CN112651881B (zh) 图像合成方法、装置、设备、存储介质以及程序产品
Leizea et al. Real-time deformation, registration and tracking of solids based on physical simulation
JP2018113021A (ja) 情報処理装置およびその制御方法、プログラム
JP2010211732A (ja) 物体認識装置および方法
JP4978941B2 (ja) 三次元モデリング装置及び方法並びにプログラム
JP5518677B2 (ja) 仮想情報付与装置及び仮想情報付与プログラム
EP3723365A1 (en) Image processing apparatus, system that generates virtual viewpoint video image, control method of image processing apparatus and storage medium
JP4714050B2 (ja) 3次元形状モデル生成システム
KR100922544B1 (ko) 실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템 및 그 방법
Niemirepo et al. Open3DGen: open-source software for reconstructing textured 3D models from RGB-D images
US20190377935A1 (en) Method and apparatus for tracking features
Meerits Real-time 3D reconstruction of dynamic scenes using moving least squares
JP2018125642A (ja) 領域抽出装置及びプログラム
JP6948363B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Mijakovska et al. Triangulation Method in Process of 3D Modelling from Video

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120410

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150427

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees