JP3910811B2 - テクスチャマッピング方法、テクスチャマッピング処理プログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体 - Google Patents
テクスチャマッピング方法、テクスチャマッピング処理プログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体 Download PDFInfo
- Publication number
- JP3910811B2 JP3910811B2 JP2001254250A JP2001254250A JP3910811B2 JP 3910811 B2 JP3910811 B2 JP 3910811B2 JP 2001254250 A JP2001254250 A JP 2001254250A JP 2001254250 A JP2001254250 A JP 2001254250A JP 3910811 B2 JP3910811 B2 JP 3910811B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- processing unit
- image
- real
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【発明の属する技術分野】
本発明は、テクスチャマッピング方法、テクスチャマッピング処理プログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体に係る。本発明は、特に、3次元物体の画像をコンピュータに取り入れ、その幾何学的な形状測定技術と表面の色や模様を含むテクスチャーの張り付け技術に関する3次元コンピュータグラフィックス、3次元画像生成に用いられるテクスチャマッピング技術に関する。
【0002】
【従来の技術】
一般に、3次元コンピュータ・グラフィックス(CG)を生成するには、3次元物体の表面形状とそのテクスチャ(テクスチャとは、例えば、表面の色、模様、材質などの感じ)を得る必要がある。3次元CGと生成するために、3次元物体の実物が存在する場合、光学系スキャナを用いる手法がある。光学系スキャナの多くは、カメラとスリット投光器を物体の周囲に回転させるか、カメラを固定して物体を回転させて、物体表面のデータを取得する。このような光学系スキャナの中には物体表面の形状とテクスチャを同時に取得できるものもあり、3次元CGデータを容易に再現することができる。
【0003】
一方、物体表面の形状のみを取得するような比較的安価な光学系スキャナもあり、これを用いるとある程度正確な表面形状を得ることができる。このような手段で取得した表面形状にはテクスチャが一切含まれていないので、表面テクスチャを得る必要がある。
【0004】
【発明が解決しようとする課題】
上述のように、3次元実物(3次元物体)をコンピュータに取り入れ、コンピュータグラフィックスに用いるとき、その幾何学的な形状と表面の色や模様を含むテクスチャが必要である。しかしながら、幾何学的形状の測定とテクスチャの張り付け(マッピング)との両方を行える装置は極めて高価であるし、また装置の大きさにより、取り扱う対象物体の大きさを限定してしまう場合もある。そこで、幾何学的な形状のみを測定する装置で形状を測定しておき、次に、テクスチャをデジタルカメラにより取得し、その画像を張り付ける方法が提案されている。しかし、画像一枚あたり現状では、3分から5分程度時間がかかり、画像10枚程度で30分から1時間かかるため、実用性に乏しい。
【0005】
本発明は、以上の点に鑑み、高速処理(例えば、画像一枚あたり20秒程度以下)を行えるようにし、実用性を十分に確立したテクスチャマッピング方法、テクスチャマッピング処理プログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体を提供することを目的とする。
【0006】
また、本発明は、デジタルカメラで実物を多方向から撮影して形状だけ与えられている物体の輪郭に基づいて、その物体の表面に正確にテクスチャ画像をマッピングすることを目的とし、また、その為に、物体とカメラの相互位置関係を正確且つ高速に求める多段的探索法を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明の解決手段によると、
処理部は、3次元物体を表す3次元形状モデルデータに基づいて、3次元物体を包み込む多面体の各面の中心視点から該3次元物体を撮影した際の視点毎の2次元仮想画像データを取得するステップと、
処理部は、取得された各々の視点毎の仮想画像データから、画像の中心又は重心を基準として所定角度ごとのエッジまでの距離を表す仮想距離プロファイルを作成するステップと、
処理部は、作成された各々の視点毎の仮想距離プロファイルに基づき、仮想画像データについての所定段階の仮想距離ヒストグラムを作成するステップと、
処理部は、実カメラにより3次元形状モデルデータに対応した実物体を撮影した実画像を入力するステップと、
処理部は、得られた実画像からから、画像の中心又は重心を基準として所定角度ごとのエッジまでの距離を表す実距離プロファイルを作成するステップと、
処理部は、作成された実距離プロファイルに基づき、実画像データについての所定段階の実距離ヒストグラムを作成するステップと、
処理部は、各々の視点毎の仮想距離ヒストグラムと実距離ヒストグラムとを比較して、一致程度の高い所定数の仮想距離ヒストグラム候補を抽出し、その候補に関するカメラ位置を含むデータをメモリに記憶する距離ヒストグラムマッチングステップと、
処理部は、抽出された仮想距離ヒストグラムに対応する仮想距離プロファイルをメモリから読出し、該仮想距離プロファイルと実距離プロファイルとを比較して、マッチングする仮想距離プロファイル候補を抽出し、その候補に関するカメラ回転角を含むデータをメモリに記憶する距離プロファイルマッチングステップと、
処理部は、抽出された候補をメモリから読出し、仮想画像及び実画像の形状を表わす仮想シルエット画像及び実シルエット画像に基づき、一致する候補を選択することで、実カメラの位置及び回転角を決定するシルエット画像マッチングステップと
を含むテクスチャマッピング方法及びテクスチャマッピング方法、テクスチャマッピング処理プログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体が提供される。
【0008】
【発明の実施の形態】
1.概説
本発明の実施の形態は、デジタルカメラで実物を多方向から撮影して、形状だけ与えられている物体表面に正確にテクスチャ画像をマッピングするものである。そのためには、物体とカメラの相互位置関係を正確に求める必要がある。本発明の実施の形態では、デジタルカメラにより撮影した画像から物体の輪郭を求めて、カメラの正確な位置を多段的に探索する。
【0009】
具体的には、デジタルカメラ及びコンピュータを用いて次の通りの処理を実行する。
(1)3次元物体の3次元形状モデルデータに基づき、3次元物体を包み込む多面体(例えば、320面体)の各面の中心から、物体を撮影した時のイメージ(物体の輪郭)を取得する。次に、取得されたそのシルエット画像からエッジまでの距離ヒストグラムと距離プロファイルを作成する。
(2)実際にデジタルカメラで3次元物体の撮影を行い、3次元物体の輪郭について計算された距離ヒストグラムと、上記(1)で作成されたモデルデータの距離ヒストグラムとのマッチングを行い、カメラ位置をある程度の範囲内に確定する。ここでは、一例として、検索範囲は20/320(6%)程度に限定される。
(3)輪郭の中心から距離プロファイルを用いて、実画像とモデルデータ画像とのマッチングを行い、さらにカメラ位置の範囲を狭める。ここでは、一例として、その範囲を20/7,200程度に狭める。
(4)狭められたカメラ位置の候補(ここでは、一例として20個)から、実画像とモデルデータ画像とのシルエットマッチングにより、1個に狭める。
(5)最後に残ったものについて、予め定められた角度(ここでは、一例として、9度)の立体角内でのシルエットマッチングを行い、カメラの位置、方向を正確に決定する。
【0010】
以上の方法によりカメラ位置、方向が可能となり、一般のパソコンでも、例えば、1枚当たり20秒以下で画像貼り付けを行う事が可能となり、全所要時間が3分程度に短縮され、十分実用に供することが可能となる。この時間は市販されているコンピュータおよびグラフィックスカードにより決定されているが、この分野での進展はめざましく、今後さらに大幅に短縮が可能である。
【0011】
2.ハードウェア
図1に、テクスチャマッピング装置の概要図の一例を示す。この装置は、パーソナルコンピュータ1、カメラ2を備え、例えば、モデル3についてテクスチャマッピングによりCG画像を作成する。
【0012】
図2に、テクスチャマッピング装置のブロック構成図を示す。
パーソナル・コンピュータ(PC)1は、ジオメトリエンジン搭載グラフィックカードを有する処理部11、IEEE1394インターフェース等のカメラ2とのインターフェース12、中間結果、最終結果、入力データ、出力データ等の各種データ及びプログラムを記憶するメモリ13、各種データを入力するための入力部14、ディスプレイを含む各種データを出力するための出力部15を備える。なお、処理部11のグラフィックカードは、例えば、3次元形状モデルデータから、そのモデルを撮影したときの2次元画像を得るためのものである。
カメラ2は、例えば、IEEE1394接続可能なデジタルカメラまたは、ビデオカメラである。
【0013】
図3に、入出力データファイルの説明図を示す。入力データファイルには、3次元形状モデルデータ及び撮影画像データが含まれる。3次元形状モデルデータは、3次元物体を表すポリゴンデータであり、例えば、頂点座標、面構成データ(浮動小数点フォーマット)等で表現される。撮影画像データは、カメラ2の出力であり、2次元画像データである。一方、出力データファイルは、3次元形状モデルデータに撮影画像データによるテクスチャを貼り付けることによってテクスチャマッピング処理を行った3次元データである。
【0014】
図4に、距離プロファイル及び距離ヒストグラムデータファイルの説明図を示す。図(A)のように、3次元形状モデルデータについては、ここでは1〜320の視点から仮想カメラで撮影した2次元モデルイメージについてのデータが記憶される。即ち、各視点毎の仮想距離プロファイル及び仮想距離ヒストグラムが記憶される。一方、図4(B)のように、カメラ2で撮影された実際の3次元物体の2次元画像について、適宜与えられる番号ごとの、実距離プロファイル及び実距離ヒストグラムが記憶される。
【0015】
これら、距離プロファイル及びヒストグラムについては後述する。また、上述した、入力データファイル、出力データファイル距離プロファイル及び距離ヒストグラムデータファイルは、メモリ13に記憶される。
【0016】
3.ソフトウェア
図5に、実光学系と仮想光学系の説明図を示す。
図(A)は実光学系であり、実物体を実際の実カメラで撮影する場合の光学系を表す。また、図(B)は、仮想光学系であり、コンピュータ上で3次元モデルを仮想カメラで撮影する場合の光学系を表す。
本発明の実施の形態では、実光学系と仮想光学系の物理尺度を同一にしておき、実カメラにより撮影したときと全く同じ位置・方向に仮想カメラをおいたとき得られる3次元物体の2次元投影像を、実カメラから得られた2次元画像で置き換え、それを3次元物体に逆投影することにより、テクスチャを持つ(マッピングされた)3次元モデルを作成することができる。
【0017】
以下に、テクスチャマッピング方法について説明する。
図6に、テクスチャマッピング方法のフローチャートを示す。この方法は、前処理とピクチャ処理を含む。
【0018】
(1) 前処理
(ステップS101)
コンピュータ1の処理部11は、メモリ12の入力データファイル中から3次元物体を表すポリゴンデータである。3次元形状モデルデータを読み込む。
(ステップS103)
つぎに、コンピュータ1の処理部11は、3次元形状モデルデータを用い、3次元物体を包み込む多面体(この例では、320面体)の各面の中心から3次元物体を撮影したときの2次元画像(仮想画像)を得て、仮想画像について距離プロファイル及び距離ヒストグラムを求める。
【0019】
図7に、物体の周囲に配置した320個の撮影点についての説明図を示す。図示のように、処理部11は、正20面体を分割して得られる320面体の各三角面の中心に視点(カメラ位置)を配置する。処理部11は、PC1の処理部11内部に搭載されているビデオカード(グラフィックカード)を用いて、その3次元形状モデルデータの2次元イメージを取得し、その2次元イメージ(シルエット画像)から距離プロファイル、ヒストグラムを以下に詳述するように作成する。
【0020】
図8に、距離プロファイル及び距離ヒストグラム作成についてのフローチャートを示す。これはステップS103に相当する。
【0021】
(1−1)エッジ及びシルエットの抽出(S151)
処理部11は、メモリ13から読み出した3次元形状モデルデータに基づき、320の視点から3次元物体を投影したときの(2次元)仮想画像をレンダリングして得る。さらに、仮想画像からシルエットのエッジを抽出する。
【0022】
(1−2)距離プロファイルの作成(S153)
処理部11は、仮想画像の中心(重心)から所定角度(ここでは、1度)ごとに物体のエッジまでの距離を測る。さらに、処理部11は、角度に対する測定した距離を表した距離プロファイルを作成し、メモリ13の仮想光学系の距離プロファイル及び距離ヒストグラムデータファイルに記憶する。
【0023】
以下に例を示す。
図9は、単純な輪郭線をもつシルエットの例である。処理部11は、図の矢印のように、重心から輪郭線までの距離を測定する。
【0024】
図10に、図9の輪郭線から作成した距離プロファイルを示す。縦軸が距離、横軸が角度を示す。
図11は、複雑な輪郭線をもつシルエットの例である。
図12に、図11の輪郭線から作成した距離プロファイルを示す。
【0025】
(1−3)正規化(S155)
つぎに、処理部11は、上記(1−2)で作成した距離プロファイルを正規化する。
正規化の方法は,距離プロファイルの平均値を所定値(例えば、10000)になるようにする。
図13に、距離プロファイルの正規化についての説明図を示す。処理部11は、図示のように、距離プロファイルの平均値を一定の値(10000)にする操作を行う。
【0026】
(1−4)距離ヒストグラムの作成(S157)
処理部11は、正規化した距離プロファイルを一定距離(例えば、2000)ごとにサンプリング点をカウントしていき、所定段階(この例では、10段階)での距離ヒストグラムを作成し、メモリ13の仮想光学系の距離プロファイル及び距離ヒストグラムデータファイルにそれを記憶する。なお、所定距離以上については、最終段階に含めるようにしてもよいし(この例では、10000以上については10番目の要素に含める)、また、除いてもよい。
【0027】
なお、処理部11は、各ステップにおいて、2次元イメージ、シルエット画像、エッジ、エッジまでの距離、距離プロファイル、正規化、ヒストグラムに関する各情報を必要に応じて適宜メモリ13に書き込み又はメモリ13から読み出しする。
【0028】
(2)ピクチャ処理
(ステップS201)
つぎに、処理部11は、カメラ2により、必要に応じて背景に青や緑のシートを敷いて、物体を撮影し、I/F12を経てデータを取り込む。取り込まれた実画像データは、適宜メモリ13の入力データファイルに撮影画像データとして記憶される。
【0029】
(ステップS203)
処理部11は、取り込まれた実画像データに基づき、撮影画像の背景を除去する処理を行なう。
【0030】
(ステップS205)
つぎに処理部11は、撮影画像から、物体のエッジを抽出して実画像についての距離プロファイル(実距離プロファイル)を作成し、さらにその距離ヒストグラム(実距離ヒストグラム)を作成し、メモリ13の実光学系の距離プロファイル及び距離ヒストグラムデータファイルにそれを記憶する。これらの処理は上述と同様である。
【0031】
(ステップS207)ヒストグラムマッチング
処理部11は、前処理で作成した仮想光学系の仮想距離ヒストグラムと、ステップS205で作成した実光学系の実距離ヒストグラムをメモリ13から読み出す。処理部11は、これらの距離ヒストグラム同士を比較して一致するもの(一致する程度の高いもの)を取り出す。このヒストグラムの比較では、処理部11は、z方向の回転については考慮しなくてよいため、高速に比較することができる。処理部11は、抽出したヒストグラムに関するデータをメモリ13に記憶する。例えば、選択された候補の視点番号をメモリ13の適宜の中間ファイルに記憶してもよいし、距離プロファイル及び距離ヒストグラムを含めて記憶してもよい。ここで、例えば、320の候補から約20に減らすことになる。
【0032】
候補を選択するための具体的手法としては、例えば、次式の総和sjにより類似度を計算し、類似度の高いものを所定数(この例では約20個)選択する。こうして、カメラ位置が決定される。
【0033】
【数1】
【0034】
ここで、H(m)(m=1〜10)は、実光学系の10レベルの実距離ヒストグラム、hj (m)(m=1〜10,j=1〜320)は、仮想光学系の320視点による10レベルの仮想距離ヒストグラムである。
【0035】
(S209)距離プロファイルマッチング
つぎに処理部11は、ステップS207におけるヒストグラムの比較で一致したものについて、メモリ13からその候補を読み出し、距離プロファイル同士を比較する。この例では、距離プロファイルの数は20に減っているが、それぞれの仮想距離プロファイルは、所定角度を1度とすると、1度ごとに360度要素があるため、比較するパターンは20×360通りある。
【0036】
図14に、距離プロファイルマッチングのフローチャートを示す。
処理部11は、実距離プロファイル及び仮想距離プロファイル候補を読出し、実光学系の入力画像の実距離プロファイルF(i)(i =1...360)と、仮想光学系の3次元形状モデルデータについて所定角度毎の仮想距離プロファイルGj,k(i)(j=1〜20、i,k=1〜360)を求める(S301)。マッチング方法としては、処理部11は、これらを求めた仮想距離プロファイルの各要素を以下のように比較する。
【0037】
処理部11は、初期値として、S=0とし(S302)、iを、1から360まで、次式の条件を判定(S303、S305、S309)する。
|F(i)− Gj,k(i)|<100
処理部11は、この条件に合致したらSをカウントアップする(S307)。処理部11は、それぞれのS値を視点番号に対応して、メモリ13に記憶し(S311)、これを各要素j,kについて求める(S313)。処理部11は、ここで得られたSの値により、類似度の順序づけを行う。即ち、Sが大きければマッチングの程度が大きいことを示す。
【0038】
こうして、処理部11は候補を選択し、選択された上位候補について、視点番号、回転角を含めたデータをメモリ13に記憶する。この例では、処理部11は、7200通りから上位の20候補を選択する。ここでは、一例として、比較の閾値として100を用いたが(これは、常に距離プロファイルの平均10000の1%の値)、これに限られず適宜の値を決定することができる。こうして処理部11は、カメラ2の回転角を決定する。
【0039】
(S211)シルエットマッチング
つぎに処理部11は、ステップS209で求めた上位の仮想距離プロファイルの候補(ここでは、20個)について、シルエットのマッチング処理を行い、最終的に順位付けを行う。
図15に、シルエットマッチングのフローチャートを示す。
まず、処理部11は、メモリ13から仮想距離プロファイルの候補と回転角、実距離プロファイルを読み出し、仮想画像及び実画像の形状、即ち、仮想シルエット及び実シルエットを作成する(S351)。カメラ2の位置の決定方法は、まず、仮想の距離プロファイルを作成した仮想カメラ位置は既知であるため、この位置情報を用いる。しかし、仮想カメラと実カメラによる実際の撮影位置は必ずしも一致していいないため、処理部11は、仮想カメラの位置を実際の撮影位置に近づける処理(正規処理)を行う(S353)。ここで必要となるのが、正規化されていない仮想カメライメージの仮想距離プロファイルの平均値と、実カメラによる入力画像の実距離プロファイルの平均値である。処理部11は、仮想距離プロファイルの平均値を実距離プロファイルの平均値に近づける(一致させる)処理を行うことで、実際の物体と視点との距離を推定することができる。その処理部11は、処理に用いられるシルエットの拡大又は縮小の倍率を以下のように計算する。
倍率=(入力画像の実距離プロファイルの平均値)/(仮想イメージの仮想距離プロファイルの平均値)
【0040】
次に、処理部11は、シルエットのz軸方向の回転について、ステップS209で求めた回転角に相当するシフト量だけz軸に対して回転処理を行う(S355)。このとき、シルエットマッチングは、レンダリングされた仮想画像と入力された実画像とのXOR(排他的論理和)をとり、一致しなかったピクセルを数え、そのピクセル数が少ないシフト量を適当な値として定める(S357)。
【0041】
このようにして、例えば1つ(又は少数)の候補としてカメラ位置、回転角が決定される。処理部11は、決定した候補について、カメラ位置、回転角、視点番号を含むデータをメモリ13に記憶する(S359)。
(S212)カメラパラメータのためのシルエットマッチング
【0042】
仮想カメラは、物体と取り囲む320面体の各面の中心に配置されたものなので、必ずしも実カメラの位置が、その中心とは一致しない。そこで、つぎに、処理部11は、ステップS211で最も一致したものをカメラ位置及び回転角の候補としてカメラパラメータを詳細に定める。
ここでは、6つの制御パラメータとして、3つの移動量(ベクトル)Tx,Ty,Tzと3つの回転角Rx,Ry,Rzを定める。そのために、処理部11は、一例として以下のように、ポリゴンの3次元形状モデルデータをXYZ軸に対して移動/回転させながら、シンプレックス法を用いて収束するまで繰り返す。
【0043】
図16に、カメラパラメータのためのシルエットマッチングのフローチャートを示す。
(2−1)カメラの6つのパラメータである移動量・回転量の初期値、初期ピクセル数dをセットする(S321)。
(2−2)移動、回転変位量ut,urに従って視点を移動する(S323)。
(2−3)レンダリングして、シルエット画像を得る(S325)。
(2−4)XORをとり、一致しなかったピクセルの数Dを数える(S327)。
(2−5)Dが前の値よりも小さい場合、そのときの変位量を記録する(S329、S331)。
(2−6)Dがもっとも小さくなるまで、上記(2−2)〜(2−5)を繰り返す(S333)。
(2−7)変位量ut,urの値を半分にして、ut,urの値が十分小さくなるまで(2−2)に戻り、以上の操作を繰り返す(S335、S337)。
(2−8)処理部11は以上のようにして、6つのカメラパラメータを定め、詳細な撮影位置を推定し、それに関する視点、カメラパラメータを含むデータをメモリ13に記憶する(S339)。
【0044】
(S215)テクスチャマッピング
次に、撮影した複数の2次元画像を、テクスチャとして形状データにマッピングする方法について述べる。
まず、3次元から2次元への投影変換については、テクスチャマッピングでは、処理部11は、形状データを構成する三角形ポリゴンごとに行う。処理部11は、得られた画像とマッチングをとったあと、そのカメラパラメータを用いてまず各ポリゴンを既に述べた角度条件と隠れ条件により改めて可視条件について判定する。処理部11は、可視ポリゴンの端点を撮影画像上にマップした領域は三角ポリゴンとなり、これをテクスチャとして切り出す。このマッピングは3次元座標から2次元座標への投影変換を用いる(石井繁夫、「続C言語による3Dグラフィックス入門」、技術評論社、1990参照)。切りとられたテクスチャは投影逆変換により、3次元としてのポリゴン上にマップされる。処理部11は、メモリ13の出力データファイルに3次元物体を表すポリゴンデータにテクスチャを貼り付けたデータを記憶する。
【0045】
このとき一つのポリゴンに2個のテクスチャが与えられた場合(一つの表面が2視点から可視)があり、その場合処理部11は、次のブレンディング処理を行う。
図17に、ブレンディング処理の説明図を示す。
2ブレンディング処理では、ポリゴンPが2枚のテクスチャQ1、Q2に投影され、その投影面積がA1、A2であった場合、それぞれのテクスチャの重みW1、W2は以下の式により与える。
【0046】
【数2】
【0047】
ブレンディング処理はCG言語OpenGLのglBlend−funcを用いて行われる。これらの重みがこの関数の混合比アルファ値となる。3個以上ある場合は3個ブレンディングしてもよいし、ポリゴン法線と視線の角度が小さい2個をとることも考えられる。
【0048】
4.実例
以下に、本実施の形態を用いたテクスチャマッピング処理の実例を示す。
図18は、三次元形状データ(恐竜)の説明図を示す。図(a)は、元のデータであり、図(b)は、ポリゴン数を減らしたデータである。
【0049】
図19は、実例(恐竜)の撮影画像から作成したシルエット画像の図である。このように、圧縮処理を実行することにより、一層高速な処理を達成することができる。
図20に、図19のシルエット画像から作成した距離プロファイルの図を示す。
図21に、図20の距離プロファイルから作成したヒストグラムの図を示す。ここでは10段階のヒストグラムとしている。
【0050】
図22は、実例(恐竜)の他の撮影画像から作成したシルエット画像の図である。
図23に、図22のシルエット画像から作成した距離プロファイルの図を示す。
図24に、図23の距離プロファイルから作成したヒストグラムの図を示す。
【0051】
図25に、テクスチャマッピング結果の図を示す。図(a)は、1枚画像をテクスチャマッピングしたものであり、図(b)は2枚画像をテクスチャマッピングしたもの、図(c)は、12枚画像をテクスチャマッピングしたものである。
この実例では、前処理については60秒以下で実行された。10レベルヒストグラムマッチングは、0.01秒以下、次の距離プロファイルマッチングは、0.8秒以下であった。さらに、次のシルエットマッチングは3秒程であり、最後のカメラパラメータ計算は10〜15秒程であった。またテクスチャー合成及び表示は1秒以下であり、テクスチャマッピングの全処理が70秒程で実現できた。このように、通常のパーソナルコンピュータを用いて高速処理・リアルタイム処理が実現され、さらに高速のPCを用いて半分以下に処理時間を短縮できる。
【0052】
本発明のテクスチャマッピング方法又はテクスチャマッピング装置・システムは、その各手順をコンピュータに実行させるためのテクスチャマッピング処理プログラム、テクスチャマッピング処理プログラムを記録したコンピュータ読み取り可能な記録媒体、テクスチャマッピング処理プログラムを含みコンピュータの内部メモリにロード可能なプログラム製品、そのプログラムを含むサーバ等のコンピュータ、等により提供されることができる。
【0053】
以上のように、画像のマッピング処理には、従来の方法では高価なワークステーションでも30分から1時間要した時間が、本発明によると、安価なパソコンで、例えば、10分の一以上一枚あたり3分から5分の所要時間を20秒以下に削減することができる。
【0054】
【発明の効果】
本発明は、以上のように、高速処理(例えば、画像一枚あたり20秒程度以下)を行えるようにし、実用性を十分に確立したテクスチャマッピング方法、テクスチャマッピング処理プログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体を提供することができる。
【0055】
また、本発明によると、デジタルカメラで実物を多方向から撮影して形状だけ与えられている物体の輪郭に基づいて、その物体の表面に正確にテクスチャ画像をマッピングすることができ、また、その為に、物体とカメラの相互位置関係を正確且つ高速に求める多段的探索法を提供することができる。
【図面の簡単な説明】
【図1】テクスチャマッピング装置の概要図。
【図2】テクスチャマッピング装置のブロック構成図。
【図3】入出力データファイルの説明図。
【図4】距離プロファイル及び距離ヒストグラムデータファイルの説明図。
【図5】実光学系と仮想光学系の説明図。
【図6】テクスチャマッピング方法のフローチャート。
【図7】物体の周囲に配置した320個の撮影点についての説明図。
【図8】距離プロファイル及び距離ヒストグラム作成についてのフローチャート。
【図9】単純な輪郭線をもつシルエットの例。
【図10】図9の輪郭線から作成した距離プロファイル。
【図11】図11は、複雑な輪郭線をもつシルエットの例。
【図12】図11の輪郭線から作成した距離プロファイル。
【図13】距離プロファイルの正規化についての説明図。
【図14】距離プロファイルマッチングのフローチャート。
【図15】シルエットマッチングのフローチャート。
【図16】カメラパラメータのためのシルエットマッチングのフローチャート。
【図17】ブレンディング処理の説明図。
【図18】三次元形状データ(恐竜)の説明図。
【図19】実例(恐竜)の撮影画像から作成したシルエット画像の図。
【図20】図19のシルエット画像から作成した距離プロファイルの図。
【図21】図20の距離プロファイルから作成したヒストグラムの図。
【図22】実例(恐竜)の他の撮影画像から作成したシルエット画像の図。
【図23】図22のシルエット画像から作成した距離プロファイルの図。
【図24】図23の距離プロファイルから作成したヒストグラムの図。
【図25】テクスチャマッピング結果の図。
【符号の説明】
1 パソコン
2 カメラ
11 処理部
12 I/F
13 メモリ
14 入力部
15 出力部
Claims (9)
- 処理部は、3次元物体を表す3次元形状モデルデータに基づいて、3次元物体を包み込む多面体の各面の中心視点から該3次元物体を撮影した際の視点毎の2次元仮想画像データを取得するステップと、
処理部は、取得された各々の視点毎の仮想画像データから、画像の中心又は重心を基準として所定角度ごとのエッジまでの距離を表す仮想距離プロファイルを作成するステップと、
処理部は、作成された各々の視点毎の仮想距離プロファイルに基づき、仮想画像データについての所定段階の仮想距離ヒストグラムを作成するステップと、
処理部は、実カメラにより3次元形状モデルデータに対応した実物体を撮影した実画像を入力するステップと、
処理部は、得られた実画像からから、画像の中心又は重心を基準として所定角度ごとのエッジまでの距離を表す実距離プロファイルを作成するステップと、
処理部は、作成された実距離プロファイルに基づき、実画像データについての所定段階の実距離ヒストグラムを作成するステップと、
処理部は、各々の視点毎の仮想距離ヒストグラムと実距離ヒストグラムとを比較して、一致程度の高い所定数の仮想距離ヒストグラム候補を抽出し、その候補に関するカメラ位置を含むデータをメモリに記憶する距離ヒストグラムマッチングステップと、
処理部は、抽出された仮想距離ヒストグラムに対応する仮想距離プロファイルをメモリから読出し、該仮想距離プロファイルと実距離プロファイルとを比較して、マッチングする仮想距離プロファイル候補を抽出し、その候補に関するカメラ回転角を含むデータをメモリに記憶する距離プロファイルマッチングステップと、
処理部は、抽出された候補をメモリから読出し、仮想画像及び実画像の形状を表わす仮想シルエット画像及び実シルエット画像に基づき、一致する候補を選択することで、実カメラの位置及び回転角を決定するシルエット画像マッチングステップと
を含むテクスチャマッピング方法。 - 前記距離プロファイルマッチングステップは、
処理部は、それぞれの各視点毎の仮想距離プロファイルを所定角度ごとにシフトした複数の仮想距離プロファイルを作成するステップと、
処理部は、複数の仮想距離プロファイルと実距離プロファイルとの各要素を比較してマッチングを行い、所定数の候補を抽出するステップと
を含むことを特徴とする請求項1に記載のテクスチャマッピング方法。 - 前記シルエット画像マッチングステップは、
処理部は、仮想距離プロファイル及び実距離プロファイルから仮想画像及び実画像の形状を表す仮想シルエット画像及び実シルエット画像を作成するステップと、
処理部は、仮想距離プロファイルの平均値と実距離プロフィルの平均値との比により、仮想シルエット画像又は実シルエット画像に倍率を掛け正規化するステップと、
処理部は、仮想シルエット画像又は実シルエット画像に対し、前記距離プロファイルマッチングステップで得られたカメラ回転角に相当するシフト量で回転処理を行うステップと、
処理部は、仮想シルエット画像と実シルエット画像の一致する程度の高い候補を選択し、そのときのカメラ位置及び回転角を決定するステップと
を含む請求項1又は2に記載のテクスチャマッピング方法。 - 前記シルエット画像マッチングステップは、
処理部は、カメラの移動変位量及び回転変位量に従ってカメラ位置に対応する視点を該当する多面体内で移動するステップと、
処理部は、移動された位置における仮想及び実シルエット画像を比較して一致する程度が高い移動量及び変位量を求めることでカメラパラメータを決定し、メモリにそれを記憶するステップ
をさらに含む請求項1乃至3のいずれかに記載のテクスチャマッピング方法。 - 処理部は、カメラ位置及び回転角をメモリから読出し、撮影した実画像をテクスチャとして3次元形状モデルデータにマッピングするマッピングステップをさらに含むことを特徴とする請求項1乃至4のいずれかに記載のテクスチャマッピング方法。
- 処理部は、作成した仮想距離プロファイルを、仮想距離プロファイルの平均値が所定値になるように正規化するステップをさらに含む請求項1乃至5のいずれかに記載のテクスチャマッピング方法。
- 処理部は、距離ヒストグラムを作成する際、所定以上の距離データについては最上位段階の要素に含める又はその距離データを廃棄することを特徴とする請求項1乃至6のいずれかに記載のテクスチャマッピング方法。
- 処理部は、3次元物体を表す3次元形状モデルデータに基づいて、3次元物体を包み込む多面体の各面の中心視点から該3次元物体を撮影した際の視点毎の2次元仮想画像データを取得するステップと、
処理部は、取得された各々の視点毎の仮想画像データから、画像の中心又は重心を基準として所定角度ごとのエッジまでの距離を表す仮想距離プロファイルを作成するステップと、
処理部は、作成された各々の視点毎の仮想距離プロファイルに基づき、仮想画像データについての所定段階の仮想距離ヒストグラムを作成するステップと、
処理部は、実カメラにより3次元形状モデルデータに対応した実物体を撮影した実画像を入力するステップと、
処理部は、得られた実画像からから、画像の中心又は重心を基準として所定角度ごとのエッジまでの距離を表す実距離プロファイルを作成するステップと、
処理部は、作成された実距離プロファイルに基づき、実画像データについての所定段階の実距離ヒストグラムを作成するステップと、
処理部は、各々の視点毎の仮想距離ヒストグラムと実距離ヒストグラムとを比較して、一致程度の高い所定数の仮想距離ヒストグラム候補を抽出し、その候補に関するカメラ位置を含むデータをメモリに記憶する距離ヒストグラムマッチングステップと、
処理部は、抽出された仮想距離ヒストグラムに対応する仮想距離プロファイルをメモリから読出し、該仮想距離プロファイルと実距離プロファイルとを比較して、マッチングする仮想距離プロファイル候補を抽出し、その候補に関するカメラ回転角を含むデータをメモリに記憶する距離プロファイルマッチングステップと、
処理部は、抽出された候補をメモリから読出し、仮想画像及び実画像の形状を表わす仮想シルエット画像及び実シルエット画像に基づき、一致する候補を選択することで、実カメラの位置及び回転角を決定するシルエット画像マッチングステップと
をコンピュータに実行させるためのテクスチャマッピング処理プログラム。 - 処理部は、3次元物体を表す3次元形状モデルデータに基づいて、3次元物体を包み込む多面体の各面の中心視点から該3次元物体を撮影した際の視点毎の2次元仮想画像データを取得するステップと、
処理部は、取得された各々の視点毎の仮想画像データから、画像の中心又は重心を基準として所定角度ごとのエッジまでの距離を表す仮想距離プロファイルを作成するステップと、
処理部は、作成された各々の視点毎の仮想距離プロファイルに基づき、仮想画像データについての所定段階の仮想距離ヒストグラムを作成するステップと、
処理部は、実カメラにより3次元形状モデルデータに対応した実物体を撮影した実画像を入力するステップと、
処理部は、得られた実画像からから、画像の中心又は重心を基準として所定角度ごとのエッジまでの距離を表す実距離プロファイルを作成するステップと、
処理部は、作成された実距離プロファイルに基づき、実画像データについての所定段階の実距離ヒストグラムを作成するステップと、
処理部は、各々の視点毎の仮想距離ヒストグラムと実距離ヒストグラムとを比較して、一致程度の高い所定数の仮想距離ヒストグラム候補を抽出し、その候補に関するカメラ位置を含むデータをメモリに記憶する距離ヒストグラムマッチングステップと、
処理部は、抽出された仮想距離ヒストグラムに対応する仮想距離プロファイルをメモリから読出し、該仮想距離プロファイルと実距離プロファイルとを比較して、マッチングする仮想距離プロファイル候補を抽出し、その候補に関するカメラ回転角を含むデータをメモリに記憶する距離プロファイルマッチングステップと、
処理部は、抽出された候補をメモリから読出し、仮想画像及び実画像の形状を表わす仮想シルエット画像及び実シルエット画像に基づき、一致する候補を選択することで、実カメラの位置及び回転角を決定するシルエット画像マッチングステップと
をコンピュータに実行させるためのテクスチャマッピング処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001254250A JP3910811B2 (ja) | 2001-08-24 | 2001-08-24 | テクスチャマッピング方法、テクスチャマッピング処理プログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001254250A JP3910811B2 (ja) | 2001-08-24 | 2001-08-24 | テクスチャマッピング方法、テクスチャマッピング処理プログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003067775A JP2003067775A (ja) | 2003-03-07 |
JP3910811B2 true JP3910811B2 (ja) | 2007-04-25 |
Family
ID=19082437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001254250A Expired - Fee Related JP3910811B2 (ja) | 2001-08-24 | 2001-08-24 | テクスチャマッピング方法、テクスチャマッピング処理プログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3910811B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005317000A (ja) * | 2004-04-30 | 2005-11-10 | Mitsubishi Electric Research Laboratories Inc | 最適な視点のセットで得られた2d画像からの顔の3d形状構築に最適な視点のセットを求める方法 |
JP2007064836A (ja) * | 2005-08-31 | 2007-03-15 | Kyushu Institute Of Technology | カメラキャリブレーションの自動化アルゴリズム |
JP5301590B2 (ja) * | 2011-03-03 | 2013-09-25 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム装置の制御方法、ならびに、プログラム |
CN109949386A (zh) * | 2019-03-07 | 2019-06-28 | 北京旷视科技有限公司 | 一种纹理图像生成方法及装置 |
CN115147508B (zh) * | 2022-06-30 | 2023-09-22 | 北京百度网讯科技有限公司 | 服饰生成模型的训练、生成服饰图像的方法和装置 |
-
2001
- 2001-08-24 JP JP2001254250A patent/JP3910811B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003067775A (ja) | 2003-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109859296B (zh) | Smpl参数预测模型的训练方法、服务器及存储介质 | |
US10679046B1 (en) | Machine learning systems and methods of estimating body shape from images | |
US11462031B2 (en) | Systems and methods for performing a 3D match search in a 3D database based on 3D primitives and a connectivity graph | |
CN108509848B (zh) | 三维物体的实时检测方法及系统 | |
Bernardini et al. | The 3D model acquisition pipeline | |
RU2215326C2 (ru) | Иерархическое основанное на изображениях представление неподвижного и анимированного трехмерного объекта, способ и устройство для использования этого представления для визуализации объекта | |
US9972120B2 (en) | Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces | |
JP2023540917A (ja) | 3次元再構成及び関連インタラクション、測定方法及び関連装置、機器 | |
US20200057778A1 (en) | Depth image pose search with a bootstrapped-created database | |
JP7038683B2 (ja) | 合成装置、方法及びプログラム | |
JP2001067463A (ja) | 異なる視点からの複数のフェイシャル画像に基づき新たな視点からのフェイシャル画像を生成するフェイシャル画像生成装置及び方法並びにその応用装置及び記録媒体 | |
JP2010211732A (ja) | 物体認識装置および方法 | |
JP3910811B2 (ja) | テクスチャマッピング方法、テクスチャマッピング処理プログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体 | |
Verykokou et al. | A Comparative analysis of different software packages for 3D Modelling of complex geometries | |
US6792131B2 (en) | System and method for performing sparse transformed template matching using 3D rasterization | |
JP2008204318A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
KR102129060B1 (ko) | 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법, 이를 수행하는 3차원 모델 검색 서버 및 컴퓨터로 판독 가능한 기록매체 | |
JP2017122993A (ja) | 画像処理装置、画像処理方法及びプログラム | |
Doan et al. | A low-cost digital 3d insect scanner | |
Soh et al. | Texture mapping of 3D human face for virtual reality environments | |
CN108921908B (zh) | 表面光场的采集方法、装置及电子设备 | |
Kolhatkar et al. | Real-time virtual viewpoint generation on the GPU for scene navigation | |
Hao et al. | Image completion with perspective constraint based on a single image | |
Dellepiane et al. | Teaching 3D Acquisition for Cultural Heritage: a Theory and Practice Approach. | |
JP2018142267A (ja) | 物体判定装置、物体判定方法、プログラム、および特徴量列のデータ構造 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20031031 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061017 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070125 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |