JP2004252603A - 三次元データ処理方法 - Google Patents

三次元データ処理方法 Download PDF

Info

Publication number
JP2004252603A
JP2004252603A JP2003040412A JP2003040412A JP2004252603A JP 2004252603 A JP2004252603 A JP 2004252603A JP 2003040412 A JP2003040412 A JP 2003040412A JP 2003040412 A JP2003040412 A JP 2003040412A JP 2004252603 A JP2004252603 A JP 2004252603A
Authority
JP
Japan
Prior art keywords
polygon mesh
dimensional
unit
data
bump map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003040412A
Other languages
English (en)
Other versions
JP2004252603A5 (ja
Inventor
Yasuhiro Sawada
保宏 沢田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003040412A priority Critical patent/JP2004252603A/ja
Priority to US10/781,211 priority patent/US7565005B2/en
Publication of JP2004252603A publication Critical patent/JP2004252603A/ja
Publication of JP2004252603A5 publication Critical patent/JP2004252603A5/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】三次元画像において、表面の凹凸をポリゴンメッシュによって表現すると、頂点数やポリゴン数が膨大になってしまう。
【解決手段】実在の対象物の表面形状を表すデータを得て、この表面形状データに基づいて、対象物のバンプマップを生成する。そして、このバンプマップとポリゴンメッシュとを形状データとして扱い、三次元画像を生成する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、CG(Computer Graphics )で実在する対象物の三次元画像を生成するために必要なデータを得る三次元画像生成技術に関し、特にポリゴンメッシュで示された立体形状モデルにバンプマップを付加する技術に関するものである。
【0002】
【従来の技術】
従来、実在の物体をCGで再現するとき、立体形状モデルの各部に、実物体をカメラで撮影した画像を貼り付ける手法がある。このような手法では、様々な視点のCGにも対応するため、複数の方向から撮影された複数の画像を用意し、再現時には適切な画像を選択して貼り付けている(特許文献1参照)。但し、この方法では、CGで再現する物体を撮影時と異なる照明条件で照らした画像を得ることができない。
【0003】
また、カメラによる撮影画像にはもともと陰影やハイライトが含まれているため、撮影画像を貼り付けた物体にさらに陰影やハイライトをつけようとすると不自然な画像になる。
【0004】
そこで、光源方向や観測方向による反射率の変化を反射関数として表し、反射関数に数式モデルを導入し、反射モデル定数により表面属性を表す手法がとられる(非特許文献1参照)。この手法では、立体形状モデルの表面に配置される彩色部の反射特性を反射モデル定数として保持し、再現時には反射モデル関数に定数を代入計算することにより、比較的小さな表面属性情報で任意の照明条件・観測方向での自然な陰影やハイライトの再現が可能になる。
【0005】
【特許文献1】
特開2000−348213号公報
【0006】
【非特許文献1】
SIGGRAPH Computer Graphics Proceedings,Annual Conference Series,1997,p379−387『Object Shape and Reflectance Modeling from Observation』
【0007】
【発明が解決しようとする課題】
しかしながら、上記反射モデルはミクロなスケールの表面構造を反映した光の反射や拡散を表現するものである。このため、例えば、岩の表面、目の粗い布、皮シボなどの目で見える程度の凹凸に基づく細かな陰影を反映することはできない。もちろん、これらの凹凸をポリゴンメッシュによって表現することは可能であるが、その場合、ポリゴンメッシュの頂点数やポリゴン数が膨大になってしまい、その演算処理負担が大きくなり過ぎて現実的ではない。
【0008】
一方、CG描画では、上記のような細かな陰影の描画には、『技術編 CG標準テキストブック』5−5−3(原典James Blinn, ”Simulation of Wrinkled Surfaces,” Computer Graphics (Proc. Siggraph ’78), August 1978)に記されているように、バンプマッピングという方法が採られる。
【0009】
一般にバンプマップは形状の描画には関与せず、細かな部分で法線方向に影響を与えて陰影を付けるのに用いられる。
【0010】
そこで、本発明は、実在する対象物の自然なCGの再現を、できるだけ少ないデータ量・計算量により行えるようにした三次元データ処理方法を提供することを目的とする。
【0011】
【課題を解決するための手段】
上記目的を達成するために、本発明の三次元データ処理方法は、実在の対象物の表面形状を表すデータ又は対象物の撮影画像データを得る第1のステップと、この第1のステップで得たデータに基づいて、対象物の三次元画像を作成するためのバンプマップを生成する第2のステップとを含む。
【0012】
【発明の実施の形態】
(実施形態1)
以下、添付図面を参照して、本発明の実施形態1である三次元データ処理システム100について説明する。図1には上記実施形態の三次元データ処理システム100の構成を、図2には図1に示した三次元データ処理システム100の各構成部間のデータの流れを示している。
【0013】
本実施形態の三次元データ処理システム100は、形状取得部130と、ポリゴンメッシュ生成部135と、バンプマップ生成部140と、モデルデータ記憶部150と、CG生成部160と、CG表示部170と、制御部180と、メモリ190とを有して構成されている。ここで、図1に示すように、三次元データ処理システム100の各部は、例えば、バスインターフェースなどを介してデータを授受可能に構成されている。
【0014】
この三次元データ処理システム100は、1つの装置(コンピュータ)として構成されていてもよいし、それぞれ別々の装置として構成されていてもよい。本実施形態では、1つの装置として構成されているものとして説明するが、例えば、形状取得部130,ポリゴンメッシュ生成部135,バンプマップ生成部140,モデルデータ記憶部150,制御部180およびメモリ190を有するメインの装置と、CG生成部160およびCG表示部170を有した別の装置とからなる三次元データ処理システムとして構成してもよい。
【0015】
形状取得部130は、対象物Oの高精度な立体形状データを取得する。高精度立体形状データは、対象物Oの表面形状を表すものであり、対象物Oの表面各部の3次元座標を表すものである。この形状取得部130としては、レンジファインダー又は3次元スキャナー等の3次元形状取得装置を利用することができる。
【0016】
また、形状取得部130は、取得した高精度立体形状データにより表される立体形状モデルを、ポリゴンメッシュ生成部135およびバンプマップ生成部140に出力する。
【0017】
なお、形状取得部130をメイン装置とは別の装置として構成し、該別の装置で取得した高精度立体形状データを、半導体メモリ・磁気ディスク・光ディスクなどの記録媒体に格納して、これをメイン装置に入力(読み込み)可能としてもよい。また、メイン装置を、このような記憶媒体からの高精度立体形状データの入力機能と形状取得部130とを併せ持つ構成としてもよい。
【0018】
ポリゴンメッシュ生成部135は、形状取得部130から入力された高精度立体形状データを基に、ポリゴンメッシュを生成する。ポリゴンメッシュ生成部135は、生成したポリゴンメッシュをバンプマップ生成部140およびモデルデータ記憶部150に出力する。
【0019】
ここで、ポリゴンメッシュ生成部135は、生成するポリゴンメッシュの複雑さ(頂点数およびポリゴン数)を制御可能であり、本システムのオペレータは必要とする精度と描画速度・データサイズを考慮して、生成するポリゴンメッシュの複雑さを指定することができる。なお、本実施形態で指定される複雑さは、高精度立体形状データが持つ複雑さに比べて低い(つまり簡略化した)ものとする。
【0020】
バンプマップ生成部140は、形状取得部130から入力された高精度立体形状データおよびポリゴンメッシュ生成部135から入力されたポリゴンメッシュを基にバンプマップを生成する。バンプマップ生成部140は、生成したバンプマップをモデルデータ記憶部150に出力する。なお、バンプマップ生成部140の詳しい動作については後述する。
【0021】
モデルデータ記憶部150は、ポリゴンメッシュ生成部135により生成されたポリゴンメッシュと、バンプマップ生成部140により生成されたバンプマップとを格納する。モデルデータ記憶部150は、各種の記憶媒体を利用することができ、また、上述したメモリ190をモデルデータ記憶部150として併用してもよい。モデルデータ記憶部150は、格納したポリゴンメッシュとバンプマップをCG生成部160に出力することができる。
【0022】
CG生成部160は、モデルデータ記憶部150から入力されたポリゴンメッシュとバンプマップとに基づいて、オペレータの指定などに応じた各種視点・照明環境における対象物Oの三次元画像データを生成する。具体的には、ポリゴンメッシュを用いた形状描画とバンプマップを用いた陰影付けとを行う。
【0023】
この陰影付けに必要なのは法線方向であり、一方、バンプマップ生成部140で生成されたバンプマップは位置の変位データであるが、この位置の変位をポリゴン面に沿って微分すれば法線揺らぎ(相対的な法線方向)が得られ、この法線揺らぎとポリゴンメッシュから想定される法線方向との差を求めることにより、バンプマップのテクセルごとの法線方向が得られる。
【0024】
CG表示部170は、CG生成部160により生成された三次元画像を表示する。このCG表示部170としては、CRT、LCDなどの各種表示装置を使用することができる。また、CG表示部170として、画像データを印刷可能なプリンタなどの印刷装置を用いてもよい。
【0025】
制御部180は、CPU、MPUなどのプロセッサを用いて構成され、メモリ190に格納された動作プログラムを用いて各部の動作を制御する。
【0026】
メモリ190は、三次元データ処理システム100の動作プログラムや処理に必要な各種データなどを格納する、ROMなどの不揮発性メモリと、画像データおよび必要な制御プログラムを一時的に格納するRAMなどの揮発性メモリとを含む。
【0027】
次に、上記のように構成された三次元データ処理システム100の動作(制御部180の制御によるプログラム動作)について、図4に示すフローチャートを参照しながらさらに詳しく説明する。なお、図4(および他の図のフローチャート)において、ステップは「S」と略記する。
【0028】
(ステップ1・・・形状取得ステップ)
形状取得部130は、対象物Oの形状を測定し、高精度立体形状データを取得する。高精度立体形状データは、対象物Oの表面各部に任意に配置された計測点において、少なくともその三次元座標を示すものである。ここで、三次元座標が示された計測点は、後にポリゴンメッシュ生成部135で生成されるポリゴンメッシュの頂点数に比して十分に多いものとする。
【0029】
形状取得部130は、取得した高精度立体形状データを、ポリゴンメッシュ生成部135およびバンプマップ生成部140に出力する。
【0030】
(ステップ2、ステップ3・・・ポリゴンメッシュ生成ステップ)
ポリゴンメッシュ生成部135は、形状取得部130から入力された高精度立体形状データをポリゴンメッシュに変換する。この際、オペレータにより指定された複雑さまで簡略化したポリゴンメッシュを生成する。
【0031】
ここでの具体的なポリゴンメッシュ生成手法(アルゴリズム)としては、Hoops H. et al.,”Mesh Optimization”,Computer Graphics Proceedings SIGGRAPH ‘93に紹介された手法を用いることができる。ただし、ポリゴンメッシュ生成手法はこの手法に限定されることなく、他の様々な手法を用いることができる。
【0032】
この簡略化されたポリゴンメッシュの各頂点には、バンプマップの貼り合わせ位置を指定するバンプテクスチャ座標が付与される。そして、バンプテクスチャ座標が付与されたポリゴンメッシュは、バンプマップ生成部140に出力されると共に、モデルデータ記憶部150に格納される。
【0033】
(ステップ4・・・バンプマップ生成ステップ)
バンプマップ生成部140は、ポリゴンメッシュ生成部135より入力されたポリゴンメッシュの複雑さに対応するテクセルを設定する。さらに、形状取得部130より入力された高精度立体形状データとポリゴンメッシュ生成部135より入力されたポリゴンメッシュとを比較して、それらの差である変位をテクセル毎に算出して、バンプマップとしてモデルデータ記憶部150に出力し、格納させる。
【0034】
ここで、図3は上記変位の説明図である。実線は高精度立体形状データが示す形状の断片、点線はポリゴンメッシュが示す形状の断片である。テクセルはポリゴンメッシュ上に存在し、各テクセルの位置から上記変位を表す矢印が延びている。そして、これらテクセルごとの矢印の長さがバンプマップとしてモデルデータ記憶部150に出力、記録される。なお、変位の符号は、矢印がポリゴンメッシュの外側(図3では上側)に向いていれば正(凸)、内側(図3では下側)を向いていれば負(凹)である。
【0035】
これにより、モデルデータ記憶部150に、対象物をCGで再現するのに必要なポリゴンメッシュとバンプマップとが格納される。
【0036】
(ステップ5・・・CG生成ステップ)
CG生成部160は、対象物OをCGで再現するために、CG生成部160において要求される仮想空間内での撮影装置・対象物の配置情報および照明分布と、モデルデータ記憶部150に格納された立体形状モデル(ポリゴンメッシュおよびバンプマップ)とに従って各テクセルの法線方向・照明(入射)方向・撮影(観測)方向を算出し、観測輝度を計算する。観測輝度を表示色として生成画像上の表示位置に描画することで、CG表示部170で三次元画像を表示することができる。
【0037】
この法線方向の算出の際、ポリゴンメッシュから算出される法線の他、バンプマップも考慮することによりポリゴン内においても微細な陰影を再現する。
【0038】
本実施形態のように、高精度立体形状データに基づいて、簡略化したポリゴンメッシュとこれに対応したバンプマップとを分離して作成し、これらポリゴンメッシュとバンプマップとをCG再現等における形状データの組として扱うことで、高精度立体形状データを直接用いてCG再現等を行う場合に比べて、少ないデータ量および計算量で細かな凹凸や陰影を持つ対象物の再現画像(三次元立体画像)を得ることができる。
【0039】
(実施形態2)
図5には、本発明の実施形態2である三次元データ処理システム200の構成を示している。また、図6には、図5に示した三次元データ処理システム200の各構成部間のデータの流れを示している。
【0040】
本実施形態の三次元データ処理システム200は、画像データ取得部110と、撮影パラメータ取得部120と、形状取得部130と、ポリゴンメッシュ生成部135と、表面属性推定部145と、モデルデータ記憶部150と、CG生成部160と、CG表示部170と、制御部180と、メモリ190とを有して構成されている。
【0041】
ここで、図6に示すように、三次元データ処理装置200の各部は、例えば、バスインターフェースなどを介してデータを授受可能に構成されている。
【0042】
この三次元データ処理システム200は、1つの装置(コンピュータ)として構成されていてもよいし、それぞれ別々の装置として構成されていてもよい。本実施形態では、1つの装置として構成されているものとして説明するが、例えば、画像データ取得部110,撮影パラメータ取得部120,形状取得部130,ポリゴンメッシュ生成部135,表面属性推定部145,モデルデータ記憶部150,制御部180およびメモリ190を有するメインの装置と、CG生成部160およびCG表示部170を有した別の装置とからなる三次元データ処理システムとして構成してもよい。
【0043】
画像データ取得部110は、対象物Oの撮影画像データを取得する。本実施形態では、画像データ取得部110を撮影装置112と光源114とにより構成する。つまり、光源114からの光により照明した対象物Oを撮影装置112で撮影することで、対象物Oの画像データを取得する。
【0044】
画像データ取得部110は、対象物Oにおける観測(撮影)方向・光源(照明)方向又は対象物Oの姿勢(向き)が異なる複数の画像を取得する。例えば、図7に示すように、対象物Oを、該対象物Oを載置する面に垂直な軸を中心として回転可能な回転台S上に載置し、撮影装置112および光源114を対象物Oに対して一方向からそれぞれ単独に又は同期して角度(すなわち撮影位置)を変えることで、複数方向からの撮影を行えるようにする。
【0045】
撮影装置112および光源114は、例えば三脚などに固定し、その高さを変えることで撮影角度を変えることができる。但し、これ以外に図示しない移動機構などに撮影装置112および光源114を接続し、該移動機構を制御部180により制御することで、自動的に撮影装置112および光源114の角度を変えて撮影を行うようにしてもよい。
【0046】
撮影装置112としては、デジタルスチルカメラやビデオカメラを用いることができる。撮影装置112は、RGBの3つのカラーバンドからなる画像データを作成して表面属性推定部145に出力する。光源114としては、点光源でも線又は面光源でもよい。
【0047】
なお、光源114としては専用のものでなくてもよく、照明環境測定機構を備えることにより、通常の屋内照明或いは太陽光等の光源を光源114として用いることもできる。この際、測定された照明環境情報を光源情報とする。例えば、照明環境測定機構として天周カメラを用いることができる。
【0048】
また、本実施形態では、対象物Oを一軸周りでのみ回転可能な回転台S上に載置されるが、対象物Oを複数の回転軸を有する装置に支持させるようにしてもよい。このような構成によれば、撮影装置112および光源114を所定の場所に固定していても、複数方向から撮影した対象物の画像データを取得することができる。また、対象物Oを固定し、撮影装置112又は光源114の位置を変化させながら撮影を行えるように構成してもよいし、撮影装置112,光源114および対象物Oのうち2つ以上の位置や姿勢を変化させながら撮影を行えるように構成してもよい。
【0049】
さらに、本実施形態では、画像データ取得部110をメイン装置の構成部として説明しているが、画像データ取得部110を別の装置として構成してもよい。この場合、撮影により得られた画像データを半導体メモリ・磁気ディスク・光ディスクなどの記録媒体に格納し、これをメイン装置に入力(読み込み)可能とすればよい。さらに、メイン装置が、このような記録媒体からの画像データの入力機能と画像データ取得部110とを併せ持つ構成としてもよい。
【0050】
撮影パラメータ取得部120は、画像データ取得部110において画像データに対する撮影パラメータを取得する。より詳細には、撮影パラメータ取得部120は、撮影装置112の画角などの撮影情報と、撮影位置(視点),対象物Oおよび光源114の輝度・位置・姿勢情報などの撮影時の環境情報を取得する。撮影パラメータ取得部120は、取得した撮影パラメータを表面属性推定部145に出力する。
【0051】
なお、撮影パラメータは、オペレータ(撮影者又は三次元データ処理システム200のオペレータを含む)によりキーボードなどの入力装置を介して直接、表面属性推定部145に入力してもよい。この場合、上述した画像データ取得部110が取得する画像毎の撮影時の撮影装置112・光源114・対象物Oの配置や撮影装置112の画角、光源114の輝度情報などが記録されている必要がある。また、画像データ取得部110が制御部180により制御され、対象物Oの撮影を自動的に行うのであれば、制御部180により画像毎の撮影パラメータを取得してもよい。さらに、撮影パラメータ取得部120を設けずに、半導体メモリ・磁気ディスク・光ディスクなどの記録媒体に格納された撮影パラメータをデータとして読み込み可能としてもよい。また、このような記録媒体からの撮影パラメータの読み込み機能と撮影パラメータ取得部120とを併せ持つ構成としてもよい。
【0052】
また、撮影パラメータの一部は画像撮影時に記録しなくとも、画像データ取得部110により取得する画像データから制御部180によって推定してもよい。この場合、画像撮影時に対象物Oに固定したマーカーが対象物Oと共に画像に写るようにしておけばよい。また、対象物O上にマーカーの代用となる特徴的な部分があれば、それをマーカーの代用としてもよい。そして、撮影画像上のマーカーの位置や色から撮影パラメータを推定すればよい。撮影パラメータの推定法は、例えば、「コンピュータビジョン」(コロナ社,1999)第6章にて紹介されているが、これ以外の推定方法を用いることもできる。
【0053】
形状取得部130およびポリゴンメッシュ生成部135は実施形態1と同様の機能を有する。すなわち、形状取得部130は、レンジファインダー又は3次元スキャナー等の3次元形状取得装置を利用して、対象物Oの立体形状データを取得し、ポリゴンメッシュ生成部135に出力する。そして、ポリゴンメッシュ生成部135は、形状取得部130から入力された(又は記録媒体から読み込んだ)立体形状データを基に、指定された複雑さを持つポリゴンメッシュを生成する。
【0054】
本実施形態では、形状取得部130はポリゴンメッシュ生成部135にのみ立体形状データを出力する。本実施形態では、立体形状データはポリゴンメッシュ生成にしか使われず、バンプ生成には直接使われない。このため、実施形態1の場合に比べて形状計測点は少なくて済み、その分、精度の低い3次元形状取得装置を用いることができる。
【0055】
さらに、形状取得部130は、画像データ取得部110で取得された画像データ(或いは読み込んだ画像データ)からシルエット法などによって立体形状データを得てもよい。
【0056】
ポリゴンメッシュ生成部135は、生成したポリゴンメッシュを表面属性推定部145およびモデルデータ記憶部150に出力する。
【0057】
ここで、形状取得部130およびポリゴンメッシュ生成部135を別の装置とし、半導体メモリ・磁気ディスク・光ディスクなどの記録媒体に格納された立体形状データ又はポリゴンメッシュをメイン装置に入力可能としてもよい。また、このような記録媒体からの入力機能と形状取得部130およびポリゴンメッシュ生成部135とを併せ持つ構成としてもよい。
【0058】
表面属性推定部(バンプマップ生成部)145は、画像データ取得部110、撮影パラメータ取得部120およびポリゴンメッシュ生成部135からそれぞれ入力された情報を基に、該ポリゴンメッシュに貼り付けるテクスチャマップにおけるテクセルごとの表面属性情報を推定する。ここで、本実施形態にいう表面属性とは、各テクセルにおける反射モデル定数と法線揺らぎとを含む。表面属性推定部145における具体的な処理は後述する。
【0059】
表面属性推定部145は、推定した表面属性情報をモデルデータ記憶部150に出力する。
【0060】
モデルデータ記憶部150は、ポリゴンメッシュ生成部135により生成されたポリゴンメッシュと、表面属性推定部145により推定された各テクセルの表面属性とを格納する。表面属性のうち法線揺らぎを記録したテクスチャマップがバンプマップとなる。
【0061】
データモデル記憶部150としては各種記憶媒体を用いることができ、また、上述したメモリ190を兼用してもよい。モデルデータ記憶部150は、格納したポリゴンメッシュと表面属性の情報をCG生成部160に出力する。
【0062】
なお、CG生成部160、CG表示部170、制御部180およびメモリ190の機能は実施形態1と同様である。
【0063】
次に、本実施形態の三次元データ処理システム200の動作(制御部180の制御によるプログラム動作)について、図8のフローチャートを参照しながら説明する。
【0064】
(ステップ11・・・画像データ取得ステップ)
まず、画像データ取得部110において、図7に示すように、対象物Oを回転台S上に設置し、光源114により対象物Oを照明する。これと共に、対象物Oに撮影装置112を向ける。そして回転台Sを回転させながら、撮影装置112により複数の角度で撮影し、RGBの3つのカラーバンドからなる画像データを取得する。これにより、対象物Oの姿勢が変化し、相対的に撮影方向を異にして撮影された画像データを得ることができる。また、撮影装置112もしくは光源114の対象物Oに対する角度を変えることで更に画像データを得ることができる。そして、画像データ取得部110は、これら画像データを表面属性推定部145に出力する。
【0065】
(ステップ12・・・撮影パラメータ取得ステップ)
撮影パラメータ取得部120では、画像撮影時に、撮影装置112および光源114に関する情報と、撮影装置112および対象物Oの位置や姿勢の情報を取得する。そして、これらの情報を表面属性推定部145に出力する。なお、上述したように、撮影パラメータの一部は画像撮影時に記録せずとも、画像データから推定してもよい。
【0066】
(ステップ13・・・表面形状取得ステップ)
形状取得部130は、対象物Oの形状を測定し、立体形状データを取得する。この立体形状データは、対象物Oの表面各部に任意に配置された計測点において、少なくともその三次元座標を示すものである。ここで、三次元座標が示された計測点は、後にポリゴンメッシュ生成部135で生成されるポリゴンメッシュの頂点数に比して十分に多いものとする。
【0067】
形状取得部130は、取得した立体形状データを、ポリゴンメッシュ生成部135に出力する。
【0068】
(ステップ14、ステップ15・・・ポリゴンメッシュ生成ステップ)
ポリゴンメッシュ生成部135は、形状取得部130から入力された立体形状データをポリゴンメッシュに変換する。この際、オペレータにより指定された複雑さまで簡略化したポリゴンメッシュを生成する。
【0069】
また、この簡略化されたポリゴンメッシュの各頂点には、テクスチャマップの貼り合わせ位置を指定するテクスチャ座標が付与される。そして、テクスチャ座標が付与されたポリゴンメッシュは、表面属性推定部145に出力されると共に、モデルデータ記憶部150に格納される。
【0070】
なお、ここでいうテクスチャマップとは、各テクセルの法線変位を記録するバンプマップと、反射モデル定数のうち少なくとも一部を格納する反射モデル定数マップを含み、双方は同一の解像度および貼り合わせ位置を持つ。
【0071】
(ステップ16・・・表面属性推定ステップ)
表面属性推定部145では、入力された各情報を基に、対象物Oの表面属性を推定し、得られた反射モデル定数をモデルデータ記憶部150に格納する。ここで、図9のフローチャートを用いて、この表面属性推定ステップにおける表面属性推定部145のプログラム動作を説明する。
【0072】
表面属性推定部145は、テクスチャマップ上に指定された解像度のテクセルを配置する(ステップ161)。この解像度としては、2n×2nとするのが一般的であり、画像データのピクセルが対象物Oの表面で占めるサイズと同等にするのが望ましい。ただし、解像度は上述したものに限定されない。そして以下の処理を各テクセルに対して繰り返す(ステップS162)。
【0073】
まず、図10に示すように、前述した撮影方法によって撮影された、対象物Oの姿勢や撮影方向・照明方向が異なる複数の画像データの全てに対し、1のテクセルにおけるポリゴンメッシュから想定される法線方向ベクトルNbaseと、光源方向ベクトルLと、光源照度I と、観測方向ベクトルVと、画像上輝度Eとを計算し、対応表を作成する(ステップS163)。
【0074】
ここで、光源照度Iおよび画像上輝度Eの添え字「C」はカラーバンドであり、一般には、C={R,G,B}である。
【0075】
また、法線方向、光源方向、観測方向は撮影パラメータおよびポリゴンメッシュより算出することができる。即ち、撮影時の撮影装置112、光源114、対象物Oの姿勢および配置の情報とポリゴンメッシュとから、各テクセルにおける法線方向、観測方向、光源方向および画像上の位置を算出すればよい。そして、画像から輝度を得ることができる。
【0076】
なお、画像上でテクセルが裏面であったり、他の部位の背後であったり、画像外であったりして、画像上輝度が不明である場合は、対応表には入れないものとする。
【0077】
次に、この対応表を照明分布を考慮した反射モデル関数BRDFparms(N;V,L)に代入する(ステップ164)。例えば、反射モデル関数として、式(1)に示すPhong の反射モデルを使用すると、反射モデル定数parms は、{Cd,Cd,Cd,C,n}である。
【0078】
BRDFparms(N;V,L)=Cd(N・L)+C(V・L)n ・・・(1)
なお、式(1)は、Nをz軸とする接線座標で記した式(2)と等価である。
【0079】
BRDF’parms(V’,L’)=CdL’.z+C(V’・L’)n ・・・(2)
ただし、V’,L’はV,Lを接線座標系で表現したもの、L’.zはL’のz成分である。
【0080】
ここで、さらにテクセル上の法線をNtexとし、図11に示されるようなベクトルNをポリゴンの接線ベクトルTの軸周りにθ、T軸と直交するもう1つの接線ベクトルBの軸周りにφ回転させる操作Rollθφ(N)を導入すると、式(3)の関係が得られる。
【0081】
j=IBRDFparms(Ntex=Rollθφ(Nbasej);Vj,Lj)+εj・・・(3)
ただし、εは誤差、添え字jは画像番号を示す。
【0082】
そして、上記誤差を最適な値にする定数の組{Cd,Cd,Cd,C,n,θ,φ]を求め、テクセルの反射モデル定数(Cd,Cd,Cd,C,n )と法線揺らぎ(θ,φ) としてモデルデータ記憶部150に格納(記録)する(ステップ165)。
【0083】
上記最適化には、様々な数学的手法を用いることができる。例えば、最小2乗法を用いる場合には、評価関数を式(4)に示すように誤差εjの2乗和とし、これが最小となる定数の組を求めればよい。
【0084】
【数1】
Figure 2004252603
Figure 2004252603
上述した評価関数fは全ての誤差を等価に扱っているが、各値の信頼性を考慮した評価関数を設定してもよい。
【0085】
また、上記説明では光源をV方向の1点のみとしているが、光源が複数存在したり、点でなく天球上で広がりのある光源の場合は、その分布をI(L)とし、これら光源の積分式である式(5)を式(3)に代えて適用する。
【0086】
【数2】
Figure 2004252603
Figure 2004252603
これにより、モデルデータ記憶部150に対象物OをCGで再現するのに必要なモデルデータが揃う。テクセル毎に得られた法線揺らぎはバンプマップを形成する。
【0087】
(ステップ17・・・CG生成ステップ)
CG生成部160は、対象物OをCGで再現するために、CG生成部160において要求される仮想空間内での撮影装置・対象物の配置情報および照明分布と、モデルデータ記憶部150に格納されたポリゴンメッシュおよび表面属性データ(バンプマップを含む)とに従って各テクセルの法線方向・照明(入射)方向・撮影(観測)方向を算出し、反射モデル関数に代入することによって観測輝度を計算する。観測輝度を表示色として生成画像上の表示位置に描画することで、CG表示部170で三次元画像を表示することができる。
【0088】
この法線方向の算出の際、ポリゴンメッシュから算出される法線の他、バンプマップも考慮することによりポリゴン内においても微細な陰影を再現することができる。
【0089】
なお、本実施形態において、画像データがR,G,Bの3色から構成される場合について説明したが、画像データは、単色でも、他の色でも、またはスペクトル情報でも、偏光画像でも、対応した反射モデル関数が記述できればよい。
【0090】
また、上記実施形態では、反射モデル関数として Phong反射モデルを用いた場合について説明したが、他の反射モデル関数を用いてもよい。例えば、Lambert モデル、Blinn モデル、Torrance−Sparrowモデル等の反射モデル関数でも、1つ又は複数の反射モデル定数と法線方向・光源方向・観測方向の関係から反射率が与えられるものであれば用いることができる。
【0091】
さらに言えば、本実施形態で用いることができる反射モデル関数は、少なくとも接線座標系における光源方向と観測方向を引数とし、反射率を与える双方向反射分布関数であり、反射モデル定数を要素に持つ数式である。
【0092】
また、本実施形態で用いることができる反射モデル関数は、散乱反射成分と鏡面反射成分の線形結合で表される二色性反射モデルでもよい。この場合、反射モデル定数として、散乱反射成分に関わる散乱反射モデル定数と鏡面反射成分に関わる鏡面反射モデル定数の2群に大別することもある。
【0093】
そして、上記反射モデル定数およびバンプマップを構成する法線方向は又は法線揺らぎは、撮影パラメータより求まる光源方向(照明方向)と観測方向(撮影方向)を反射モデル関数に適用した際に、画像データから導かれる測定輝度変化を最も正確に再現する値の組とする。
【0094】
また、表面属性推定部145の推定法では、全てのテクセルにおいて反射モデル定数や法線変位が一意に求まるとは限らない。しかし、求まらない定数を持つテクセルの近傍のテクセルの反射定数から補完したり、典型的な値で代用したりする等の手法を用いることでこれを解消することができる。
【0095】
また、上記実施形態では、バンプマップとしてテクセルの法線揺らぎをモデルデータ記憶部150に格納したが、この法線揺らぎとポリゴンメッシュから想定される法線方向との差からテクセルの法線方向を求めてこれをバンプマップとしてデータ記憶部150に格納したり、ポリゴンメッシュから想定される位置と立体形状上の位置との差である変位を求め、これをバンプマップとしてデータ記憶部150に格納したりしてもよい。法線揺らぎを変位に変換するには、この変位zと法線揺らぎ(θ,ρ)とが式(6)の関係を満たすことを利用すればよい。
【0096】
【数3】
Figure 2004252603
Figure 2004252603
また、式(6)から式(7)に示す制約条件が得られる。
【0097】
【数4】
Figure 2004252603
Figure 2004252603
ここで、T,Bは互いに直交するポリゴンメッシュの接線方向の単位ベクトルである。
【0098】
法線揺らぎの推定の際に、式(7)の制約条件を考慮することにより推定精度の向上を図ることができる。
【0099】
また、上記実施形態では、表面属性推定部145において、モデルデータ記憶部150に記録されるのと同一の解像度で表面属性を推定する場合について説明したが、表面属性推定部145においてより高い解像度で表面属性を推定し、モデルデータ記憶部150に格納する際に複数のテクセルの平均を取ることによって指定される解像度に変換したり、モデルデータ記憶部150に格納する際に接線方向にローパスフィルターを掛ける等の処理を行ってノイズの影響を抑えたりしてもよい。
【0100】
本実施形態では、形状データからではなく、対象物の画像データが持つ陰影からバンプマップを含む表面属性情報を推定生成するため、形状取得に関してはそれほど高い精度や計測点密度は要求されない。このため、形状取得部130において比較的簡便な3次元形状取得装置を用いて三次元データ処理装置を実現することができる。
【0101】
(実施形態3)
次に、本発明の実施形態3である三次元データ処理システムについて説明する。なお、本実施形態の装置構成は、図5および図6に示した実施形態2の装置構成と同様であるが、表面属性推定部145の動作が実施形態2とは異なるので、ここではこの表面属性推定部145の動作について説明する。
【0102】
本実施形態では、表面属性推定部145は、画像データ取得部110、撮影パラメータ取得部120およびポリゴンメッシュ生成部135からそれぞれ入力された情報を基に、各テクセルの表面属性情報を推定する。ここで、本実施形態にいう表面属性情報には、各テクセルにおける表面属性指標と法線揺らぎとを含む。表面属性推定部145は、推定した表面属性情報をデータモデル記憶部150に出力する。
【0103】
表面属性推定部145のプログラム動作を、図12のフローチャートを用いて説明する。ステップ161、ステップ162、ステップ163の動作は実施形態2と同様である。
【0104】
ステップ164’では、ステップ163で作成された対応表を、表面属性一覧中のサンプルと順次比較する。表面属性一覧とは、様々なサンプルkに対して、例えば法線方向をz軸とする接線座標における光源方向L’、観測方向V’に対する一連の反射率を示した反射率表TABLE’k(V’,L’)である。
【0105】
この反射率表TABLE’k(V’,L’)は、Nを法線とする接線座標系への変換式をV’=trans(N;V)とすれば、式(8)のように表現できる。
【0106】
TABLEk(N;V,L)=TABLE’k(V’= trans(N;V),L’=trans(N;L))・・・(8)
さらにテクセル上の法線をNtexとし、図11に示されるような、ベクトルNをポリゴンの接線ベクトルTの軸周りにθ、T軸と直交するもう1つの接線ベクトルBの軸周りにφ回転させる操作Rollθφ(N)を導入し、テクセルの表面属性がサンプルkであるときの画像輝度について、式(9)に示す関係が得られる。
【0107】
j=ITABLEk(Ntex=Rollθφ(Nbasej);Vj,Lj)+εj ・・・(9)
なお、εは誤差、添え字jは画像番号を示す。
【0108】
そして、上記誤差を最適な値にするサンプル番号kを求め、テクセルの表面属性指標kおよび法線揺らぎ(θ,φ)としてモデルデータ記憶部150に格納する。
【0109】
これにより、モデルデータ記憶部150に対象物をCGで再現するのに必要なモデルデータが揃う。
【0110】
本実施形態では、表面属性を反射モデル定数でなく、リスト中の一つを指定する指標として得るため、対象物の表面属性が何種類かに限定される場合、安定した推定を行うことができる。
【0111】
(実施形態4)
図13には本発明の実施形態4である三次元データ処理システム300の構成を、図14には、三次元データ処理システム300における各構成部間の情報の流れを示している。
【0112】
本実施形態の三次元データ処理システム300は、形状取得部130と、ポリゴンメッシュ入力部136と、バンプマップ生成部140と、モデルデータ記憶部150と、CG生成部160と、CG表示部170と、制御部180と、メモリ190とを有する。
【0113】
なお、形状取得部130、バンプマップ生成部140、モデルデータ記憶部150、CG生成部160、CG表示部170、制御部180およびメモリ190の機能は実施形態1と同様である。また、装置の動作も、実施形態1にて図4のフローチャートで説明したものとほぼ同じである。ただし、本実施形態では、実施形態1のポリゴンメッシュ生成部135に代えて、ポリゴンメッシュ入力部136を設けている。また、図4のフローチャート中のステップ2は、ポリゴンメッシュの入力ステップとなる。
ポリゴンメッシュ入力部136は、対象物Oの三次元データ生成に用いるポリゴンメッシュを取得する。具体的には、図4のフローチャート中のステップ2で、他の装置で処理され、半導体メモリ・磁気ディスク・光ディスクなどの記録媒体に格納されたポリゴンメッシュの情報を読み込んだり、ポリゴンメッシュを処理する他の装置から無線、有線といった通信回線によりポリゴンメッシュの情報を受け取ったりする。
【0114】
ポリゴンメッシュ入力部136は、ポリゴンメッシュの複雑さを制御可能であり、入力されたポリゴンメッシュが、要求される複雑さと異なる場合、要求される複雑さに適合するようポリゴンメッシュを複雑化又は単純化する。
【0115】
さらに、ポリゴンメッシュにバンプテクスチャ座標が備わっていない場合には、これを付与する。
【0116】
また、形状取得部130より入力された高精度立体形状データとポリゴンメッシュとで基準とする座標系が異なる場合には、ポリゴンメッシュ入力部136はこれらの座標系が一致するようポリゴンメッシュ又は高精度立体形状データの座標を変換する。こうして最適化されたポリゴンメッシュは、バンプマップ生成部140に出力されると共に、モデルデータ記憶部150に格納される。そして、実施形態1と同様に、モデルデータ記憶部150に格納されたポリゴンメッシュとバンプマップを用いて三次元画像を生成表示する。
【0117】
本実施形態では、例えば人の顔などを表すための共通の基本ポリゴンメッシュを用意し、個々の人の顔の形状を基本ポリゴンメッシュ上の異なったバンプマップとして生成することが可能となる。これにより、複数の人物の顔データを保持する際に、1つのポリゴンメッシュだけ保持すればよく、データ量の節約ができる。
【0118】
また、ある人物の顔から他の人物の顔へモーフィングを行うなどの特殊処理を行う際も、ポリゴンメッシュに手を加えることなく、バンプマップのみを処理すればよく、処理の簡略化が図れる。
【0119】
なお、以上説明した各実施形態において、バンプマップを生成するために必要なデータ(立体形状データ、画像データ、ポリゴンメッシュデータ等)を得る方法は、各実施形態にて説明した方法以外のどのような方法でもかまわない。
【0120】
さらに、以上説明した各実施形態は、以下に示す各発明を実施した場合の一例でもあり、下記の各発明は上記各実施形態に様々な変更や改良が加えられて実施されるものである。
【0121】
〔発明1〕 実在の対象物の表面形状を表すデータを得る第1のステップと、前記第1のステップで得た表面形状データに基づいて、前記対象物の三次元画像を作成するためのバンプマップを生成する第2のステップとを有することを特徴とする三次元データ処理方法。
【0122】
〔発明2〕 前記対象物の表面形状を簡略化して表したポリゴンメッシュを得る第3のステップを有し、
前記第2のステップにおいて、前記第3のステップで得たポリゴンメッシュに対応するバンプマップを生成することを特徴とする発明1に記載の三次元データ処理方法。
【0123】
〔発明3〕 実在の対象物の撮影画像データを得る第1のステップと、
前記第1のステップで得た画像データに基づいて、前記対象物の三次元画像を作成するためのバンプマップを生成する第2のステップとを有することを特徴とする三次元データ処理方法。
【0124】
〔発明4〕 前記第2のステップにおいて、前記第1のステップで得た画像データに基づいて前記対象物の表面属性を推定することにより、該表面属性を表すデータの構成要素としての前記バンプマップを生成することを特徴とする発明3に記載の三次元データ処理方法。
【0125】
〔発明5〕 前記表面属性データが、反射モデル関数における定数のデータと前記バンプマップを構成する法線方向に関するデータとを含むことを特徴とする発明4に記載の三次元データ処理方法。
【0126】
〔発明6〕 前記表面属性データが、接線座標系における光源方向と撮影方向に対応する一連の反射率を複数示した反射率表中から特定の反射率を指定するデータであり、前記バンプマップを構成する法線方向に関するデータを含むことを特徴とする発明4に記載の三次元データ処理方法。
【0127】
〔発明7〕 前記対象物の表面形状を簡略化して表したポリゴンメッシュを得る第3のステップを有し、
前記第2のステップにおいて、前記第3のステップで得たポリゴンメッシュと前記対象物を撮影する際のパラメータを表すデータとを用いて前記対象物の表面属性を推定することを特徴とする発明4から6のいずれかに記載の三次元データ処理方法。
【0128】
〔発明8〕 前記第2のステップにおいて、前記バンプマップ上のテクセルごとの面積と、前記画像データの1ピクセルが前記対象物の表面上で占める面積とが略同等になるように前記バンプマップを生成することを特徴とする発明3から7のいずれかに記載の三次元データ処理方法。
【0129】
〔発明9〕 前記第2のステップにおいて、指定されたバンプマップの解像度に関する情報に応じたテクセル数を有するバンプマップを生成することを特徴とする発明1から8のいずれかに記載の三次元データ処理方法。
【0130】
〔発明10〕 前記第2のステップにおいて、テクセルごとのベクトル値のrotationが零になる条件を満たす法線分布となるように前記バンプマップを生成することを特徴とする発明1から9のいずれかに記載の三次元データ処理方法。
【0131】
〔発明11〕 前記バンプマップは、前記ポリゴンメッシュに貼り付けられるテクスチャマップ上の各テクセルの前記ポリゴンメッシュに対する位置変化量を示すことを特徴とする発明2又は7に記載の三次元データ処理方法。
【0132】
〔発明12〕 前記バンプマップは、前記ポリゴンメッシュに貼り付けられるテクスチャマップ上の各テクセルの法線方向を表すことを特徴とする発明2又は7に記載の三次元データ処理方法。
【0133】
〔発明13〕 前記バンプマップは、前記ポリゴンメッシュに貼り付けられるテクスチャマップ上の各テクセルの法線方向と前記ポリゴンメッシュの法線方向との差異を示すことを特徴とする発明2又は7に記載の三次元データ処理方法。
【0134】
〔発明14〕 前記第3のステップにおいて、前記対象物の表面形状データに基づいて前記ポリゴンメッシュを生成することを特徴とする発明2又は7に記載の三次元データ処理方法。
【0135】
〔発明15〕 前記第3のステップにおいて、前記ポリゴンメッシュのデータの入力を受けることを特徴とする発明2又は7に記載の三次元データ処理方法。
【0136】
〔発明16〕 前記第3のステップにおいて、指定された頂点数又はポリゴン数に関する情報に応じた頂点数又はポリゴン数を有するポリゴンメッシュを生成することを特徴とする発明14又は15に記載の三次元データ処理方法。
【0137】
〔発明17〕 前記第3のステップにおいて、前記ポリゴンメッシュの各頂点に、前記バンプマップの貼り付け位置を指定するバンプテクスチャ座標を付与することを特徴とする発明2又は7に記載の三次元データ処理方法。
【0138】
〔発明18〕 前記第2のステップにより生成されたバンプマップを用いて前記対象物の三次元画像を生成する三次元画像生成ステップと、
該生成された三次元画像を出力する三次元画像出力ステップとを有することを特徴とする発明1から17のいずれかに記載の三次元データ処理方法。
【0139】
〔発明19〕 発明1から18のいずれかに記載の三次元データ処理方法をコンピュータに実行させることを特徴とする、コンピュータ上で動作可能な三次元データ処理プログラム。
【0140】
〔発明20〕 発明19に記載の三次元データ処理プログラムを実行するコンピュータを有することを特徴とする三次元データ処理装置。
【0141】
〔発明21〕 実在の対象物の表面形状を表すデータを得る形状データ取得部と、
前記形状データ取得部で得た表面形状データに基づいて、前記対象物の三次元画像を作成するためのバンプマップを生成するバンプマップ生成部とを有することを特徴とする三次元データ処理システム。
【0142】
〔発明22〕 前記対象物の表面形状を簡略化して表したポリゴンメッシュを得るポリゴンメッシュ取得部を有し、
前記バンプマップ生成部は、前記ポリゴンメッシュ取得部で得たポリゴンメッシュに対応するバンプマップを生成することを特徴とする発明21に記載の三次元データ処理システム。
【0143】
〔発明23〕 実在の対象物の撮影画像データを得る画像データ取得部と、
前記画像データ取得部で得た画像データに基づいて、前記対象物の三次元画像を作成するためのバンプマップを生成するバンプマップ生成部とを有することを特徴とする三次元データ処理システム。
【0144】
〔発明24〕 前記バンプマップ生成部は、前記画像データ取得部で得た画像データに基づいて前記対象物の表面属性を推定することにより、該表面属性を表すデータの構成要素としての前記バンプマップを生成することを特徴とする発明23に記載の三次元データ処理システム。
【0145】
〔発明25〕 前記表面属性データが、反射モデル関数における定数データと前記バンプマップを構成する法線方向に関するデータとを含むことを特徴とする発明24に記載の三次元データ処理システム。
【0146】
〔発明26〕 前記表面属性データが、接線座標系における光源方向と撮影方向に対応する一連の反射率を複数示した反射率表中から特定の反射率を指定するデータであり、前記バンプマップを構成する法線方向に関するデータを含むことを特徴とする発明24に記載の三次元データ処理システム。
【0147】
〔発明27〕 前記対象物の表面形状を簡略化して表したポリゴンメッシュを得るポリゴンメッシュ取得部を有し、
前記バンプマップ生成部は、前記ポリゴンメッシュ取得部で得たポリゴンメッシュと前記対象物を撮影する際のパラメータを表すデータとを用いて前記対象物の表面属性を推定することを特徴とする発明24から26のいずれかに記載の三次元データ処理システム。
【0148】
〔発明28〕 前記バンプマップ生成部は、前記バンプマップ上のテクセルごとの面積と、前記画像データの1ピクセルが前記対象物の表面上で占める面積とが略同等になるように前記バンプマップを生成することを特徴とする発明23から27のいずれかに記載の三次元データ処理システム。
【0149】
〔発明29〕 前記バンプマップ生成部は、指定されたバンプマップの解像度に関する情報に応じたテクセル数を有するバンプマップを生成することを特徴とする発明21から28のいずれかに記載の三次元データ処理システム。
【0150】
〔発明30〕 前記バンプマップ生成部は、テクセルごとのベクトル値のrotationが零になる条件を満たす法線分布となるように前記バンプマップを生成することを特徴とする発明21から29のいずれかに記載の三次元データ処理システム。
【0151】
〔発明31〕 前記バンプマップは、前記ポリゴンメッシュに貼り付けられるテクスチャマップ上の各テクセルの前記ポリゴンメッシュに対する位置変化量を示すことを特徴とする発明22又は27に記載の三次元データ処理システム。
【0152】
〔発明32〕 前記バンプマップは、前記ポリゴンメッシュに貼り付けられるテクスチャマップ上の各テクセルの法線方向を表すことを特徴とする発明22又は27に記載の三次元データ処理システム。
【0153】
〔発明33〕 前記バンプマップは、前記ポリゴンメッシュに貼り付けられるテクスチャマップ上の各テクセルの法線方向と前記ポリゴンメッシュの法線方向との差異を示すことを特徴とする発明22又は27に記載の三次元データ処理システム。
【0154】
〔発明34〕 前記ポリゴンメッシュ取得部は、前記対象物の表面形状データに基づいて前記ポリゴンメッシュを生成することを特徴とする発明22又は27に記載の三次元データ処理システム。
【0155】
〔発明35〕 前記ポリゴンメッシュ取得部は、前記ポリゴンメッシュのデータの入力を受けることを特徴とする発明22又は27に記載の三次元データ処理システム。
【0156】
〔発明36〕 前記ポリゴンメッシュ取得部は、指定された頂点数又はポリゴン数に関する情報に応じた頂点数又はポリゴン数を有するポリゴンメッシュを生成することを特徴とする発明34又は35に記載の三次元データ処理システム。
【0157】
〔発明37〕 前記ポリゴンメッシュ取得部は、前記ポリゴンメッシュの各頂点に、前記バンプマップの貼り付け位置を指定するバンプテクスチャ座標を付与することを特徴とする発明22又は27に記載の三次元データ処理システム。
【0158】
〔発明38〕 前記バンプマップ生成部により生成されたバンプマップを用いて前記対象物の三次元画像を生成する三次元画像生成部と、
該生成された三次元画像を出力する三次元画像出力部とを有することを特徴とする発明21から37のいずれかに記載の三次元データ処理システム。
【0159】
【発明の効果】
以上説明したように、本発明によれば、実在の対象物の表面形状データ又は撮影画像データに基づいて、対象物表面の微細な凹凸を表すバンプマップを生成することができるので、少ないデータ量および計算量によって表面の凹凸に基づく細かな陰影を持った対象物の三次元画像を再現することができる。
【図面の簡単な説明】
【図1】本発明の実施形態1である三次元データ処理システムの構成を示すブロック図である。
【図2】上記実施形態1の三次元データ処理システムにおけるデータの流れを示す説明図である。
【図3】上記実施形態1の三次元データ処理システムで生成されるバンプマップの説明図である。
【図4】上記実施形態1の三次元データ処理システムの動作を示すフローチャートである。
【図5】本発明の実施形態2である三次元データ処理システムの構成を示すブロック図である。
【図6】上記実施形態2の三次元データ処理システムにおけるデータの流れを示す説明図である。
【図7】上記実施形態2の三次元データ処理システムにおける画像データの取得例を示す概略図である。
【図8】上記実施形態2の三次元データ処理システムの動作を示すフローチャートである。
【図9】上記実施形態2の三次元データ処理システムにおける表面属性の推定動作を示すフローチャートである。
【図10】上記実施形態2の三次元データ処理システムにおける表面属性の推定を示す概念図である。
【図11】Rollθφ(N)の説明図である
【図12】本発明の実施形態3である三次元データ処理システムにおける表面属性の推定動作を示すフローチャートである。
【図13】本発明の実施形態4である三次元データ処理システムの構成を示すブロック図である。
【図14】上記実施形態4の三次元データ処理システムにおけるデータの流れを示す説明図である。
【符号の説明】
100,200,300 三次元データ処理システム
110 画像データ取得部
120 撮影パラメータ取得部
130 形状取得部
135 ポリゴンメッシュ生成部
136 ポリゴンメッシュ入力部
140 バンプマップ生成部
145 表面属性推定部
150 モデルデータ記憶部
160 CG生成部
170 CG表示部
180 制御部
190 メモリ

Claims (1)

  1. 実在の対象物の表面形状を表すデータ又は前記対象物の撮影画像データを得る第1のステップと、
    前記第1のステップで得たデータに基づいて、前記対象物の三次元画像を作成するためのバンプマップを生成する第2のステップとを有することを特徴とする三次元データ処理方法。
JP2003040412A 2003-02-18 2003-02-18 三次元データ処理方法 Withdrawn JP2004252603A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003040412A JP2004252603A (ja) 2003-02-18 2003-02-18 三次元データ処理方法
US10/781,211 US7565005B2 (en) 2003-02-18 2004-02-17 Three-dimensional data processing method, three-dimensional data processing program, and three-dimensional data processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003040412A JP2004252603A (ja) 2003-02-18 2003-02-18 三次元データ処理方法

Publications (2)

Publication Number Publication Date
JP2004252603A true JP2004252603A (ja) 2004-09-09
JP2004252603A5 JP2004252603A5 (ja) 2005-06-23

Family

ID=32905250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003040412A Withdrawn JP2004252603A (ja) 2003-02-18 2003-02-18 三次元データ処理方法

Country Status (2)

Country Link
US (1) US7565005B2 (ja)
JP (1) JP2004252603A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006048961A1 (ja) * 2004-11-01 2006-05-11 Sony Computer Entertainment Inc. 描画処理装置および描画処理方法
JP2008140385A (ja) * 2006-12-02 2008-06-19 Korea Electronics Telecommun キャラクタアニメーション時の皮膚のしわのリアルタイム表現方法及び装置
JP2009147754A (ja) * 2007-12-14 2009-07-02 Canon Inc 画像処理装置およびその方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004252603A (ja) * 2003-02-18 2004-09-09 Canon Inc 三次元データ処理方法
US7317992B2 (en) * 2004-06-16 2008-01-08 General Electric Company Method and apparatus for inspecting dovetail edgebreak contour
JP4881584B2 (ja) * 2005-06-28 2012-02-22 株式会社ブリヂストン 凹凸図形検査のためのマスターデータの作成方法
KR100753537B1 (ko) * 2006-06-09 2007-08-30 주식회사 아이너스기술 메시 데이터를 피처로 이용한 역설계 방법
US9767599B2 (en) * 2006-12-29 2017-09-19 X-Rite Inc. Surface appearance simulation
US8433130B2 (en) * 2007-01-29 2013-04-30 Vergence Media, Inc. Methodology to optimize and provide streaming object rotation using composite images
JP5762015B2 (ja) * 2011-01-27 2015-08-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
EP3057067B1 (en) * 2015-02-16 2017-08-23 Thomson Licensing Device and method for estimating a glossy part of radiation

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5566283A (en) * 1990-09-03 1996-10-15 Dainippon Printing Co., Ltd. Computer graphic image storage, conversion and generating apparatus
US5475452A (en) * 1994-02-24 1995-12-12 Keravision, Inc. Device and method for mapping objects
US6694163B1 (en) * 1994-10-27 2004-02-17 Wake Forest University Health Sciences Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
CA2214433A1 (en) * 1995-03-02 1996-09-06 Parametric Technology Corporation Computer graphics system for creating and enhancing texture maps
US6044170A (en) * 1996-03-21 2000-03-28 Real-Time Geometry Corporation System and method for rapid shape digitizing and adaptive mesh generation
US6858826B2 (en) * 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
JP3873401B2 (ja) * 1996-11-19 2007-01-24 コニカミノルタセンシング株式会社 3次元計測システム
US5949424A (en) * 1997-02-28 1999-09-07 Silicon Graphics, Inc. Method, system, and computer program product for bump mapping in tangent space
US6226006B1 (en) * 1997-06-27 2001-05-01 C-Light Partners, Inc. Method and apparatus for providing shading in a graphic display system
JPH1178384A (ja) * 1997-09-12 1999-03-23 Peteio:Kk 3次元形状データ処理装置並びに被彫刻板及び彫刻装置
WO1999026201A1 (en) * 1997-11-14 1999-05-27 Koninklijke Philips Electronics N.V. Computer graphics bump mapping method and device
US6075540A (en) * 1998-03-05 2000-06-13 Microsoft Corporation Storage of appearance attributes in association with wedges in a mesh data model for computer graphics
US6175368B1 (en) * 1998-03-24 2001-01-16 Ati Technologies, Inc. Method and apparatus for object rendering including bump mapping
US5974168A (en) * 1998-04-16 1999-10-26 International Business Machines Corporation Acquiring bump maps from curved objects
US6762768B2 (en) * 1998-06-01 2004-07-13 Ati Technologies, Inc. Method and apparatus for rendering an object using texture variant information
JP2000099763A (ja) * 1998-09-25 2000-04-07 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2000348213A (ja) 1999-06-07 2000-12-15 Sanyo Electric Co Ltd 三次元画像生成装置、三次元画像生成表示装置、及びその方法並びに記録媒体
JP2003505773A (ja) * 1999-07-20 2003-02-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ テクスチャ付き表面のコンピュータグラフィックス画像を計算する方法及び装置
US6509902B1 (en) * 2000-02-28 2003-01-21 Mitsubishi Electric Research Laboratories, Inc. Texture filtering for surface elements
US6532075B1 (en) * 2000-03-06 2003-03-11 Sony Corporation System and method for utilizing a topology detector to capture visual information
US7098925B1 (en) * 2000-03-10 2006-08-29 Intel Corporation Shading of images using texture
JP2001283216A (ja) * 2000-04-03 2001-10-12 Nec Corp 画像照合装置、画像照合方法、及びそのプログラムを記録した記録媒体
US6744442B1 (en) * 2000-08-29 2004-06-01 Harris Corporation Texture mapping system used for creating three-dimensional urban models
US6664956B1 (en) * 2000-10-12 2003-12-16 Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret A. S. Method for generating a personalized 3-D face model
EP1204073B1 (en) * 2000-10-27 2007-01-31 Canon Kabushiki Kaisha Image generation method and apparatus
US6493620B2 (en) * 2001-04-18 2002-12-10 Eaton Corporation Motor vehicle occupant detection system employing ellipse shape models and bayesian classification
US6853373B2 (en) * 2001-04-25 2005-02-08 Raindrop Geomagic, Inc. Methods, apparatus and computer program products for modeling three-dimensional colored objects
US7102647B2 (en) * 2001-06-26 2006-09-05 Microsoft Corporation Interactive horizon mapping
GB2381429B (en) * 2001-09-28 2005-07-27 Canon Europa Nv 3D computer model processing apparatus
JP3962588B2 (ja) * 2002-01-07 2007-08-22 キヤノン株式会社 三次元画像処理方法、三次元画像処理装置、三次元画像処理システムおよび三次元画像処理プログラム
US7020347B2 (en) * 2002-04-18 2006-03-28 Microsoft Corp. System and method for image-based surface detail transfer
US6831641B2 (en) * 2002-06-17 2004-12-14 Mitsubishi Electric Research Labs, Inc. Modeling and rendering of surface reflectance fields of 3D objects
US7006090B2 (en) * 2003-02-07 2006-02-28 Crytek Gmbh Method and computer program product for lighting a computer graphics image and a computer
JP2004252603A (ja) * 2003-02-18 2004-09-09 Canon Inc 三次元データ処理方法
GB2406252B (en) * 2003-09-18 2008-04-02 Canon Europa Nv Generation of texture maps for use in 3d computer graphics
US7432936B2 (en) * 2004-12-02 2008-10-07 Avid Technology, Inc. Texture data anti-aliasing method and apparatus
US7408550B2 (en) * 2006-07-24 2008-08-05 Bunnell Michael T System and methods for real-time rendering of deformable geometry with global illumination

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006048961A1 (ja) * 2004-11-01 2006-05-11 Sony Computer Entertainment Inc. 描画処理装置および描画処理方法
US7692662B2 (en) 2004-11-01 2010-04-06 Sony Computer Entertainment Inc. Graphic processing apparatus and method
JP2008140385A (ja) * 2006-12-02 2008-06-19 Korea Electronics Telecommun キャラクタアニメーション時の皮膚のしわのリアルタイム表現方法及び装置
JP2009147754A (ja) * 2007-12-14 2009-07-02 Canon Inc 画像処理装置およびその方法

Also Published As

Publication number Publication date
US7565005B2 (en) 2009-07-21
US20040169648A1 (en) 2004-09-02

Similar Documents

Publication Publication Date Title
Gardner et al. Deep parametric indoor lighting estimation
Lensch et al. Image-based reconstruction of spatial appearance and geometric detail
JP4335588B2 (ja) 3dオブジェクトをモデル化する方法
Müller et al. Acquisition, synthesis, and rendering of bidirectional texture functions
JP3962588B2 (ja) 三次元画像処理方法、三次元画像処理装置、三次元画像処理システムおよび三次元画像処理プログラム
Unger et al. Capturing and Rendering with Incident Light Fields.
US6831641B2 (en) Modeling and rendering of surface reflectance fields of 3D objects
Meilland et al. 3d high dynamic range dense visual slam and its application to real-time object re-lighting
US6903738B2 (en) Image-based 3D modeling rendering system
JP4035978B2 (ja) 3次元形状モデルの評価方法および生成方法並びに装置
Winnemöller et al. Light waving: Estimating light positions from photographs alone
Kersten et al. Automatic texture mapping of architectural and archaeological 3d models
JP2004252603A (ja) 三次元データ処理方法
JP4335589B2 (ja) 3dオブジェクトをモデル化する方法
JP2004252603A5 (ja)
JP4764963B2 (ja) 画像処理装置
Soh et al. Texture mapping of 3D human face for virtual reality environments
JP4394122B2 (ja) 物体表面の反射特性をサンプリングして行う実時間レンダリングの方法及びテクスチャサイズを変換する方法
Tetzlaff Image-Based Relighting of 3D Objects from Flash Photographs
Lensch et al. A framework for the acquisition, processing, transmission, and interactive display of high quality 3D models on the web
JP2023073003A (ja) レンダリング装置及びそのプログラム
Paterson et al. Efficient field capture of epigraphy via photometric stereo
Van Den Hengely et al. SecondSkin: An interactive method for appearance transfer
JP2003044872A (ja) 彩色情報付加方法及び装置、三次元画像処理方法及び装置
JP2003067772A (ja) 画像処理装置及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061212

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070213