JP2008243046A - テクスチャ処理装置、方法およびプログラム - Google Patents
テクスチャ処理装置、方法およびプログラム Download PDFInfo
- Publication number
- JP2008243046A JP2008243046A JP2007085706A JP2007085706A JP2008243046A JP 2008243046 A JP2008243046 A JP 2008243046A JP 2007085706 A JP2007085706 A JP 2007085706A JP 2007085706 A JP2007085706 A JP 2007085706A JP 2008243046 A JP2008243046 A JP 2008243046A
- Authority
- JP
- Japan
- Prior art keywords
- data
- texture
- exaggeration
- camera
- light source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
【解決手段】コンピュータグラフィックス(CG)の表現で必要となるCGモデルデータ、カメラデータ、光源データ、および、異なる条件で取得あるいは作成した1枚以上のテクスチャデータを含むCGデータを取得するCGデータ取得手段101と、CGデータを利用し、テクスチャマッピング処理において利用するあらかじめ設定された誇張パラメータに応じてCGモデルにテクスチャマッピング処理を行う際の誇張されたテクスチャ処理条件を算出する算出手段102と、テクスチャ処理条件に応じて、取得したテクスチャデータの中から特定のテクスチャデータを抽出する抽出手段103と、特定のテクスチャデータに対して、誇張パラメータに応じて誇張処理を行う処理手段104と、を具備する。
【選択図】図3
Description
本実施形態のテクスチャ処理装置、方法およびプログラムは、CG表面にマッピングされるテクスチャの変化を誇張することによって、素材の質感やCGの立体感を向上させるための技術である。
本実施形態によれば、異なる条件で取得あるいは作成した複数枚以上のテクスチャデータから、マッピングすべきテクスチャデータを選択する際に、カメラ変化、光源変化あるいはCGモデル形状の変化を誇張させることによって、その選択条件を算出する。また、選択したテクスチャデータの色変化を誇張させることによって、CGモデルにマッピングするためのテクスチャデータを生成する。このようにして、素材の質感やCGの立体感を向上させることができる。
本実施形態のテクスチャマッピング装置について図1を参照して説明する。図1は、本実施形態のテクスチャマッピング装置の構成を説明する図である。
CGデータ取得部101がCGデータを取得する(ステップS201)。処理条件算出部102がステップS201で取得した取得したCGデータを利用し、あらかじめ設定された誇張パラメータに応じてテクスチャ生成を行う際の誇張されたテクスチャ処理条件を算出する(ステップS202)。テクスチャデータ抽出部103がステップS202で算出したテクスチャ処理条件に応じて、ステップS201で取得したテクスチャデータの中から特定のテクスチャデータを抽出する(ステップS203)。テクスチャデータ処理部104がステップS203で抽出したテクスチャデータに対して、あらかじめ設定された誇張パラメータに応じて誇張処理を行う(ステップS204)。マッピング部105がステップS201で取得したCGモデルデータに対して、誇張処理を行ったテクスチャデータをマッピングし、CGを作成する(ステップS205)。CG提示部106がステップS205で作成したCGを提示する(ステップS206)。
本実施形態のテクスチャ生成装置は、図3に示すように、図1のテクスチャマッピング装置からマッピング部105、CG提示部106を除いた装置である。本実施形態のテクスチャ生成装置の動作の一例は、図4に示すように、図2のステップS205以下を除いた動作を行う。
まず、素材に対して、カメラ(視点)やライト(光源)を傾けたり回転させたりすることによって、様々な撮影条件で素材を撮影する。図5に示すような空間の中で、視点および光源の位置θc,φc,θl,φlをそれぞれ一定間隔ずつ変化させながら撮影することによって、異なる条件で撮影された複数のテクスチャデータを得ることができる。このように撮影したテクスチャデータは、撮影条件とテクスチャデータとを一対一に対応させることによってデータベース化しておく。
次に、CGモデル表面の一点一点に注目し、それぞれの点における視点条件および光源条件を算出する。視点条件および光源条件は、撮影の時と同様、θc,φc,θl,φlといった角度表現で算出する。そして次に、算出された視点条件および光源条件に従って適したテクスチャデータをデータベースの中から抽出する。また、条件のマッチするテクスチャデータが存在しない場合には、近隣条件のテクスチャデータを抽出し補間することによって、マッピングすべきテクスチャデータを作成する。そして最後に、抽出したテクスチャデータから指定されたテクスチャ座標に従ったピクセルデータ(色データ)をCGモデルの注目した一点にマッピングすることによってある程度質感の高いCGを制作することができる。
(1)角度条件の誇張
角度条件の誇張においては、従来の手法で算出した視点条件および光源条件(θc,φc,θl,φl)を角度条件誇張率によって誇張する処理を行う。例えば、角度条件誇張率が1.5であった場合、もとの視点条件および光源条件が(θc,φc,θl,φl)=(20,10,30,15)であったとすると、誇張した結果としては、(θc,φc,θl,φl)=(30,15,45,22.5)となり、角度条件が誇張された形となる。このような処理によってモデル形状の変化が急峻でないものに対してもその変化を誇張して見せることができる。ただし、角度条件には値域が存在するため、誇張した結果、値域を外れる値になってしまう場合には丸め処理を行う必要がある。
カメラ変化の誇張においては、カメラ位置がフレーム毎に移動している(カメラワークが存在する)CGデータに対して、カメラ変化誇張率によって擬似的なカメラデータを生成し、カメラ位置の変化を誇張する処理を行う。図6にカメラ変化の誇張手法を示す。C0からC4までフレーム毎にカメラ位置が変化するCGデータが存在する時、例えばC0からC1へのカメラ位置の変化ベクトルを調べ、そのベクトルに対して、カメラ変化誇張率を乗ずる。カメラ変化の誇張を行ったこのベクトルを用いることによって、C0から移動した擬似的なカメラC1’を作成する。同様に、C2’、C3’、C4’を求めることによって、誇張されたカメラワークを作り出すことができる。この擬似的なカメラを用いて視点条件を算出することによって、カメラの移動に対するテクスチャの変化を誇張して見せることができる。
光源変化の誇張においては、光源位置がフレーム毎に移動しているCGデータに対して、光源変化誇張率によって擬似的な光源データを生成し、光源位置の変化を誇張する処理を行う。図7に光源変化の誇張手法を示す。L0からL4までフレーム毎に光源位置が変化するCGデータが存在するとき、例えばL0からL1への光源位置の変化ベクトルを調べ、そのベクトルに対して、光源変化誇張率を乗ずる。光源変化誇張を行ったこのベクトルを用いることによって、L0から移動した擬似的な光源L1’を作成する。同様に、L2’、L3’、L4’を求めることによって、誇張された光源移動を作り出すことができる。この擬似的な光源を用いて光源条件を算出することによって、光源の移動に対するテクスチャの変化を誇張して見せることができる。
さらに光源変化の誇張に関しては、このような処理に加え、時間に応じて光量を変化させることによって見え方の変化を誇張させることができる。
モデル変化の誇張においては、CGモデルデータがフレーム毎に移動している(アニメーションが設定されている)CGデータに対して、モデル変化誇張率によって擬似的なCGモデルデータを生成し、モデル変化を誇張する処理を行う。図9にモデル変化の誇張手法を示す。フレームt−1においてP0からP3の頂点でCGモデルデータが構成されており、フレームtにおいてQ0からQ3の頂点でCGモデルデータが構成されているものとすると、例えば、P0とQ0のようなフレーム間の対応する点に関して、P0からQ0への頂点位置の変化ベクトルを調べ、そのベクトルに対して、モデル変化誇張率を乗ずる。モデル変化の誇張を行ったこのベクトルを用いることによって、フレームtにおける擬似的な頂点Q0’を作成する。同様にQ1’、Q2’、Q3’を求めることによって、フレームt−1からフレームtにおけるモデルの変化を誇張することができる。このような擬似的なCGモデルデータを用いて視点条件および光源条件を算出することによって、アニメーションに対するテクスチャの変化を誇張して見せることができる。ただし、フレーム間で頂点数が変化するようなCGデータに関しては、対応する頂点が存在しない場合があるので、その都度頂点分割処理を行い、対応点を作成する必要がある。
ただし、変化ベクトルに乗ずるモデル変化誇張率は必ずしも一定でなくとも良い。例えば、図10に示すようにP0からP4までのモデル形状のみを誇張させたい場合には、P0やP4の頂点は誇張させず、P2に対してはモデル変化誇張率の値で誇張させ、P1,P3に対してはモデル変化誇張率の半分の値で誇張させるようなことができる。また、誇張させたいモデル形状の領域を上記のように頂点の範囲で直接的に指定するのではなく、カメラもしくは光源に最も近い頂点を、指定されたモデル変化誇張率で誇張させ、徐々にモデル変化誇張率を減衰させながら、周囲の頂点も誇張させるような手法を採ることもできる。この場合、カメラもしくは光源に最も近い頂点からの距離に応じてどれだけモデル変化誇張率を減衰させるかを決定するための減衰率を入力する必要がある。このような擬似的なCGモデルデータを用いて視点条件および光源条件を算出することによって、モデル形状変化に対するテクスチャの変化を誇張して見せることができる。
色変化の誇張においては、カメラ条件や光源条件の変化に依存するテクスチャデータの色変化を色変化誇張率によって誇張し、擬似的な色データを生成する処理を行う。図11を用いて色データの誇張手法を説明する。あるテクスチャのあるピクセルデータに注目した時、近隣の視点条件や光源条件のテクスチャに存在する同位置のピクセルデータも抽出することができる。図11では視点条件と光源条件をそれぞれ一次元の変化軸で表現しているが、実際、本実施形態においてはそれぞれ二次元の変化軸を有している(光源条件の変化(θc,φc)、視点条件の変化(θl,φl))。この時、注目しているピクセルデータと近隣条件のピクセルデータとの色データの変化ベクトルを調べ、それぞれのベクトルに対して色変化誇張率を乗ずる。色変化誇張を行ったこれらのベクトルを合成することによって、注目したピクセルデータの擬似的な色データを作成することができる。テクスチャ処理においてこのような擬似的な色データを作成することによって、視点条件や光源条件の変化に対するテクスチャの変化を誇張して見せることができる。
なお、図1に示すテクスチャマッピング装置では、図3に示すテクスチャ生成装置で生成されたテクスチャデータを入力して利用することもできる。
また、あらかじめ誇張されたテクスチャデータを入力することによって、テクスチャマッピング処理時の計算負荷を軽減させることができる。
本実施形態では、図1に示すテクスチャマッピング装置および図3に示すテクスチャ生成装置において、複数のカメラ(多視点)でCGをレンダリングするケースを考え、多視点でのレンダリングにおける誇張表現にフォーカスしてその手法を具体的に説明する。全体的な処理フロー(図2、図4)については第1の実施形態で説明したので、本実施形態においては処理内容に違いのある部分についてのみ示す。
本実施形態においては、あらかじめ設定された誇張パラメータに従って、様々な処理条件の算出手法を決定する。誇張パラメータとして設定されている(5)カメラ変化誇張率(多視点)、(6)光源変化誇張率(多視点)、(7)モデル変化誇張率(多視点)などを利用して、カメラ変化、光源変化、モデル変化などを誇張し、処理条件を算出することができる。以下にそれぞれの誇張手法と効果について説明する。
カメラ変化の誇張においては、多視点でのレンダリング用にCGデータに複数のカメラデータが定義されているため、これらのカメラデータをカメラ変化誇張率によって擬似的に変化させることができる。図13にカメラ変化の誇張手法を示す。C0からC4までの複数のカメラデータが定義されていて、C2のカメラデータを基準カメラとした時、例えばC2からC3へのカメラ位置の変化ベクトルを調べ、そのベクトルに対して、カメラ変化誇張率を乗ずる。カメラ変化の誇張を行ったこのベクトルを用いることによって、擬似的なカメラC3’を作成する。同様に、C0’、C1’、C4’を求めることによって、擬似的な複数カメラを定義することができる。これらの擬似的なカメラを用いて視点条件を算出することによって、カメラ(視点)変化に対するテクスチャ変化を誇張して見せることができる。
・無意味な誇張が発生する
・左右反転の現象が発生する
これらの問題は、図20で示す点Pから頂点位置が変化したり、その法線Nが変化したりすることによって発生する。図21に頂点位置の変化における第1の問題点を示す。点P0を基準としてカメラの極角限界をもとにカメラ間隔を決定してしまった場合、頂点位置の変化した点P1では上記2点の問題が発生していることが分かる。左端のカメラでは、極角限界よりも大きな領域で擬似的なカメラが定義されてしまい、無意味な誇張を行っている。また、右端の本来のカメラでは、点P1を左側から見ているにも関わらず、擬似的なカメラでは右側から見ているようなテクスチャをサンプリングしてしまうということになる。
<1>擬似的なカメラは等間隔に設置する
<2>擬似的なカメラはカメラ移動ライン上に設置する
<3>無意味な誇張を避ける
<4>左右反転の現象を避ける
<5>空間的な連続性を保持する
<1>はカメラ間のレンダリング画像の連続性を保持するためであり、<2>はカメラ移動ライン上での移動によって生じる運動視差にブレが生じないようにするためである。<3>、<4>は上述したモデル非依存の誇張の問題点を解決するためである。また<5>に関しては、頂点の位置や法線に応じた異なるテクスチャサンプリングを行うために、その連続性は最低限保持させなければならないという意味で条件として加えた。
光源変化の誇張においては、複数定義された各カメラデータに対して、光源データを擬似的に移動させる。図14に光源変化の誇張手法を示す。C0からC4までの複数カメラ(C2が基準カメラ)およびLという単一の光源データが定義されていたとすると、例えば、C2からC3へのカメラ位置の変化ベクトルを調べ、そのベクトルの逆方向に光源位置を移動させることによって、カメラC3の時の擬似的な光源データL3を作成することができる。なお、光源の移動距離に関しては、光源変化誇張率によって決定することができる。同様にして、L0、L1、L4を求めることによって、カメラ(視点)の変化に対して相対的に変化量の大きい擬似的な光源データを作成することができる。この擬似的な光源データを用いて光源条件を算出することによって、カメラ(視点)変化に対するテクスチャの変化を誇張して見せることができる。
モデル変化の誇張においては、複数定義された各カメラデータに対して、CGモデルデータを擬似的に変化させる。図15にモデル変化の誇張手法を示す。C0からC4までの複数カメラ(C2が基準カメラ)と頂点Pを含むCGモデルデータが定義されていたとすると、例えば、C2からC3へのカメラ位置の変化ベクトルを調べ、そのベクトルの逆方向にCGモデルデータ(例えば頂点P)を移動させることによって、カメラC3の時の擬似的なCGモデルデータ(例えば頂点P3)を作成することができる。同様にして、P0、P1、P4を求めることができる。なお、CGモデルデータの移動距離に関しては、モデル変化誇張率によってカメラの移動量に対してどれだけの割合で移動させるかを決定することができる。また、全ての頂点に対して必ずしも一定のモデル変化誇張率で移動させなくとも良い。例えば、図15のように基準カメラC2に最も近い頂点Pに対しては指定されたモデル変化誇張率で誇張させ、徐々にモデル変化誇張率を減衰させながら、周囲の頂点も誇張させるような手法を採ることもできる。この場合、頂点Pからの距離に応じてどれだけモデル変化誇張率を減衰させるかを決定するための減衰率を入力する必要がある。このような擬似的なCGモデルデータを用いて視点条件、光源条件を算出することによって、カメラ(視点)変化に対するテクスチャの変化を誇張して見せることができ、例えば、テクスチャを立体的に見せることができる。
本実施形態では、誇張パラメータを、装置内部であらかじめ設定しておくのではなく外部から入力するテクスチャ処理装置(図16に示すテクスチャマッピング装置、図18に示すテクスチャ生成装置)について説明する。これらの装置は、図1に示すテクスチャマッピング装置および図3に示すテクスチャ生成装置に対して、誇張パラメータ取得部1601を追加した装置となっている。誇張パラメータ取得部1601が、誇張パラメータを外部から入力可能にする。なお、処理条件算出部1602は、誇張パラメータ取得部1601から誇張パラメータを入力することのみが第1および第2の実施形態とは異なる。
誇張パラメータ取得部1601が誇張パラメータを取得する(ステップS1701)。処理条件算出部1602がステップS201で取得した取得したCGデータを利用し、ステップS1701で取得した誇張パラメータに応じてテクスチャ生成を行う際の誇張されたテクスチャ処理条件を算出する(ステップS1702)。この他は、第1および第2の実施形態と同様である。
1つめは、CGデータに応じた誇張パラメータの設定である。例えば、カメラワークによるCGのダイナミックな変化を表現したいにも関わらず、入力したCGデータがカメラワークの少ないものであった場合、カメラ変化誇張率を高くすることによって、カメラの変化に対するテクスチャの変化を誇張する。
また、全体的にテクスチャの変化をダイナミックに表現したいにも関わらず、入力したテクスチャデータが条件(視点条件・光源条件)による変化の少ないもの(異方性の少ないもの)、もしくは空間的に色変化の少ないもの(柄の少ないもの)であった場合、色変化誇張率を高くすることによって、全体的なテクスチャの変化を誇張することができる。
2つめは、CGを提示する媒体に応じた誇張パラメータの設定である。これは特に、ディスプレイや印刷物の色表現力や立体ディスプレイにおける奥行き表現力などに依存する。色表現力の低い媒体に対しては、コントラストが低下してしまう可能性があるため、誇張パラメータの各誇張率を比較的高めに設定した方が良い。色表現力の高い媒体に対しては、誇張をしなくても微細な変化を再現することができるため、誇張パラメータの各誇張率を比較的低めに設定し、より実物に近い表現を行った方が良い。
一方、立体ディスプレイにおける奥行き表現力によって誇張パラメータを適応的に設定することもできる。奥行き表現力の小さな立体ディスプレイに対しては、カメラ変化誇張率(多視点)等を大きく設定することによって、立体感を向上させることができる。
3つめは、インタラクティブな誇張パラメータの設定である。CGデータやCGを提示する媒体に応じた誇張パラメータの設定を行ったとしても、最終的には、レンダリングしたCGを観察しながら、誇張パラメータを調整したいという要求があると思われる。実施形態で説明した装置では、インタラクティブな誇張パラメータの設定が可能である。
また、記憶媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本願発明における記憶媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記憶媒体も含まれる。
また、記憶媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本発明における記憶媒体に含まれ、媒体の構成は何れの構成であってもよい。
また、本願発明の実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本発明の実施形態における機能を実現することが可能な機器、装置を総称している。
Claims (16)
- コンピュータグラフィックス(CG)の表現で必要となるCGモデルデータ、カメラデータ、光源データ、および、異なる条件で取得あるいは作成した1枚以上のテクスチャデータを含むCGデータを取得するCGデータ取得手段と、
前記CGデータを利用し、テクスチャマッピング処理において利用するあらかじめ設定された誇張パラメータに応じてCGモデルにテクスチャマッピング処理を行う際の誇張されたテクスチャ処理条件を算出する算出手段と、
前記テクスチャ処理条件に応じて、前記取得したテクスチャデータの中から特定のテクスチャデータを抽出する抽出手段と、
前記特定のテクスチャデータに対して、前記誇張パラメータに応じて誇張処理を行う処理手段と、を具備することを特徴とするテクスチャ処理装置。 - コンピュータグラフィックス(CG)の表現で必要となるCGモデルデータ、カメラデータ、光源データ、および、異なる条件で取得あるいは作成した1枚以上のテクスチャデータを含むCGデータを取得するCGデータ取得手段と、
テクスチャマッピング処理において利用する誇張パラメータを取得する誇張パラメータ取得手段と、
前記CGデータを利用し、前記誇張パラメータに応じてCGモデルにテクスチャマッピング処理を行う際の誇張されたテクスチャ処理条件を算出する算出手段と、
前記テクスチャ処理条件に応じて、前記取得したテクスチャデータの中から特定のテクスチャデータを抽出する抽出手段と、
前記特定のテクスチャデータに対して、前記誇張パラメータに応じて誇張処理を行う処理手段と、を具備することを特徴とするテクスチャ処理装置。 - 前記CGモデルデータに対して、誇張処理を行ったテクスチャデータをマッピングし、CGを作成するマッピング手段と、
前記CGを提示する提示手段と、をさらに具備することを特徴とする請求項1または請求項2に記載のテクスチャ処理装置。 - 前記算出手段は、前記CGモデルデータ上の1点1点に対して、前記カメラデータとの位置関係であるカメラ条件および光源データとの位置関係である光源条件を算出し、前記カメラ条件および前記光源条件は角度によって表現されることを特徴とし、前記カメラ条件および前記光源条件に対して、前記誇張パラメータの1種である角度条件誇張率を乗ずることによって、前記カメラ条件および前記光源条件を誇張するテクスチャ処理条件を算出することを特徴とする請求項1から請求項3のいずれか1項に記載のテクスチャ処理装置。
- 前記算出手段は、カメラ位置もしくは光源位置がフレーム毎に移動しているCGデータに対して、あるフレームのカメラ位置もしくは光源位置と1フレーム前のカメラ位置もしくは光源位置とのベクトル変化量を誇張することによって、あるフレームのカメラ位置もしくは光源位置を変化させ、擬似的なカメラデータもしくは光源データを作成し、前記誇張パラメータの1種である、単視点でのカメラ変化誇張率もしくは単視点での光源変化誇張率にしたがって、前記擬似的なカメラデータもしくは擬似的な光源データを作成し、前記CGモデルデータ上の1点1点に対して、前記擬似的なカメラデータとの位置関係であるカメラ条件および前記擬似的な光源データとの位置関係である光源条件をテクスチャ処理条件として算出することを特徴とする請求項1から請求項3のいずれか1項に記載のテクスチャ処理装置。
- 前記算出手段は、フレーム毎に変化するCGモデルデータに対して、ある頂点のあるフレームにおける位置座標と1フレーム前における位置座標とのベクトル変化量を誇張することによって、擬似的なCGモデルデータを作成し、あるフレームのCGモデルデータに対して、ある頂点の位置座標と隣り合う頂点の位置座標とのベクトル変化量を誇張することによって、擬似的なCGモデルデータを作成し、前記誇張パラメータの1種である単視点でのモデル変化誇張率にしたがって、前記擬似的なCGモデルデータを作成し、前記擬似的なCGモデルデータ上の1点1点に対して、カメラデータとの位置関係であるカメラ条件および光源データとの位置関係である光源条件をテクスチャ処理条件として算出することを特徴とする請求項1から請求項3のいずれか1項に記載のテクスチャ処理装置。
- 前記処理手段は、条件毎に変化するテクスチャデータに対して、あるピクセル位置のある条件における色データと、隣り合う条件における色データとのベクトル変化量を誇張することによって、擬似的な色データを作成し、ある条件のテクスチャデータに対して、あるピクセル位置の色データと隣り合うピクセル位置の色データとのベクトル変化量を誇張することによって、擬似的な色データを作成し、前記誇張パラメータの1種である単視点での色変化誇張率にしたがって、前記擬似的な色データを作成し、該擬似的な色データを、誇張されたテクスチャデータとして出力することを特徴とする請求項1から請求項3のいずれか1項に記載のテクスチャ処理装置。
- 前記算出手段は、複数のカメラデータが設定されているCGデータに対して、あるカメラデータのカメラ位置と隣り合うカメラデータのカメラ位置とのベクトル変化量を誇張することによって、あるカメラデータのカメラ位置を変化させ、擬似的なカメラデータを作成し、カメラデータの変化に合わせて、ある光源データの光源位置を変化させ、擬似的な光源データを作成し、前記誇張パラメータの1種である、多視点でのカメラ変化誇張率もしくは多視点での光源変化誇張率にしたがって、前記擬似的なカメラデータもしくは擬似的な光源データを作成し、前記CGモデルデータ上の1点1点に対して、前記擬似的な各カメラデータとの位置関係であるカメラ条件および前記擬似的な光源データとの位置関係である光源条件をテクスチャ処理条件として算出することを特徴とする請求項1から請求項3のいずれか1項に記載のテクスチャ処理装置。
- 前記算出手段は、複数のカメラデータが設定されているCGデータに対して、ある頂点のあるカメラデータにおける位置座標と隣り合うカメラデータにおける位置座標とのベクトル変化量を誇張することによって、擬似的なCGモデルデータを作成し、前記誇張パラメータの1種である多視点でのモデル変化誇張率にしたがって、前記擬似的なCGモデルデータを作成し、前記擬似的なCGモデルデータ上の1点1点に対して、各カメラデータとの位置関係であるカメラ条件および光源データとの位置関係である光源条件をテクスチャ処理条件として算出することを特徴とする請求項1から請求項3のいずれか1項に記載のテクスチャ処理装置。
- 前記処理手段は、複数のカメラデータが設定されているCGデータに対して、あるピクセル位置のあるカメラデータにおける色データと隣り合うカメラデータにおける色データとのベクトル変化量を誇張することによって擬似的な色データを作成し、前記誇張パラメータの1種である多視点での色変化誇張率にしたがって、前記擬似的な色データを作成し、該擬似的な色データを、誇張されたテクスチャデータとして出力することを特徴とする請求項1から請求項3のいずれか1項に記載のテクスチャ処理装置。
- 前記誇張パラメータは、角度条件誇張率、単視点または多視点でのカメラ変化誇張率、単視点または多視点での光源変化誇張率、単視点または多視点での光源変化誇張率、単視点または多視点でのモデル変化誇張率、単視点または多視点での色変化誇張率を有していて、前記算出手段および前記処理手段の少なくともいずれか一方が、それぞれ処理条件の誇張計算やテクスチャデータの誇張計算を行うために前記誇張パラメータを利用し、ユーザの任意設定、前記CGデータの特性に基づく設定、および、前記提示手段の仕様に基づく設定の少なくともいずれか一方を行うことを特徴とする請求項1から請求項3のいずれか1項に記載のテクスチャ処理装置。
- 前記誇張パラメータ取得手段は、角度条件誇張率、単視点または多視点でのカメラ変化誇張率、単視点または多視点での光源変化誇張率、単視点または多視点での光源変化誇張率、単視点または多視点でのモデル変化誇張率、および、単視点または多視点での色変化誇張率を有している誇張パラメータを取得し前記CG提示手段によって提示されたCGに応じて、誇張パラメータ取得手段がインタラクティブに新たな誇張パラメータを取得することを特徴とする請求項2に記載のテクスチャ処理装置。
- コンピュータグラフィックス(CG)の表現で必要となるCGモデルデータ、カメラデータ、光源データ、および、異なる条件で取得あるいは作成した1枚以上のテクスチャデータを含むCGデータを取得し、
前記CGデータを利用し、テクスチャマッピング処理において利用するあらかじめ設定された誇張パラメータに応じてCGモデルにテクスチャマッピング処理を行う際の誇張されたテクスチャ処理条件を算出し、
前記テクスチャ処理条件に応じて、前記取得したテクスチャデータの中から特定のテクスチャデータを抽出し、
前記特定のテクスチャデータに対して、前記誇張パラメータに応じて誇張処理を行うことを特徴とするテクスチャ処理方法。 - コンピュータグラフィックス(CG)の表現で必要となるCGモデルデータ、カメラデータ、光源データ、および、異なる条件で取得あるいは作成した1枚以上のテクスチャデータを含むCGデータを取得し、
テクスチャマッピング処理において利用する誇張パラメータを取得し、
前記CGデータを利用し、前記誇張パラメータに応じてCGモデルにテクスチャマッピング処理を行う際の誇張されたテクスチャ処理条件を算出し、
前記テクスチャ処理条件に応じて、前記取得したテクスチャデータの中から特定のテクスチャデータを抽出し、
前記特定のテクスチャデータに対して、前記誇張パラメータに応じて誇張処理を行うことを特徴とするテクスチャ処理方法。 - コンピュータを、
コンピュータグラフィックス(CG)の表現で必要となるCGモデルデータ、カメラデータ、光源データ、および、異なる条件で取得あるいは作成した1枚以上のテクスチャデータを含むCGデータを取得するCGデータ取得手段と、
前記CGデータを利用し、テクスチャマッピング処理において利用するあらかじめ設定された誇張パラメータに応じてCGモデルにテクスチャマッピング処理を行う際の誇張されたテクスチャ処理条件を算出する算出手段と、
前記テクスチャ処理条件に応じて、前記取得したテクスチャデータの中から特定のテクスチャデータを抽出する抽出手段と、
前記特定のテクスチャデータに対して、前記誇張パラメータに応じて誇張処理を行う処理手段として機能させるためのテクスチャ処理プログラム。 - コンピュータを、
コンピュータグラフィックス(CG)の表現で必要となるCGモデルデータ、カメラデータ、光源データ、および、異なる条件で取得あるいは作成した1枚以上のテクスチャデータを含むCGデータを取得するCGデータ取得手段と、
テクスチャマッピング処理において利用する誇張パラメータを取得する誇張パラメータ取得手段と、
前記CGデータを利用し、前記誇張パラメータに応じてCGモデルにテクスチャマッピング処理を行う際の誇張されたテクスチャ処理条件を算出する算出手段と、
前記テクスチャ処理条件に応じて、前記取得したテクスチャデータの中から特定のテクスチャデータを抽出する抽出手段と、
前記特定のテクスチャデータに対して、前記誇張パラメータに応じて誇張処理を行う処理手段として機能させるためのテクスチャ処理プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007085706A JP4266233B2 (ja) | 2007-03-28 | 2007-03-28 | テクスチャ処理装置 |
US12/050,568 US8094148B2 (en) | 2007-03-28 | 2008-03-18 | Texture processing apparatus, method and program |
CNA2008100872809A CN101276478A (zh) | 2007-03-28 | 2008-03-26 | 纹理处理设备与方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007085706A JP4266233B2 (ja) | 2007-03-28 | 2007-03-28 | テクスチャ処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008243046A true JP2008243046A (ja) | 2008-10-09 |
JP4266233B2 JP4266233B2 (ja) | 2009-05-20 |
Family
ID=39793477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007085706A Expired - Fee Related JP4266233B2 (ja) | 2007-03-28 | 2007-03-28 | テクスチャ処理装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8094148B2 (ja) |
JP (1) | JP4266233B2 (ja) |
CN (1) | CN101276478A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010221018A (ja) * | 2009-03-24 | 2010-10-07 | Medison Co Ltd | ボリュームデータに表面レンダリングを行う超音波システムおよび方法 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011022727A (ja) * | 2009-07-14 | 2011-02-03 | Sony Corp | 画像処理装置および画像処理方法 |
JP2011023902A (ja) * | 2009-07-14 | 2011-02-03 | Sony Corp | 画像処理装置および画像処理方法 |
ES2400998B1 (es) * | 2011-05-23 | 2014-03-11 | Universidad Europea Miguel De Cervantes | Sistema y procedimiento de captura y procesado de imágenes tridimensionales con movimiento |
JP5966256B2 (ja) * | 2011-05-23 | 2016-08-10 | ソニー株式会社 | 画像処理装置および方法、プログラム、並びに記録媒体 |
ES2400153B1 (es) * | 2011-07-22 | 2014-08-11 | David CLAVERIA GABARRE | Sistema de tutoría para instrumentos musicales e instrumento realizado con dicho sistema. |
US9894384B2 (en) * | 2012-10-08 | 2018-02-13 | Lg Electronics Inc. | Multiview video signal encoding method and decoding method, and device therefor |
GB2526838B (en) * | 2014-06-04 | 2016-06-01 | Imagination Tech Ltd | Relightable texture for use in rendering an image |
JP6918648B2 (ja) * | 2017-08-31 | 2021-08-11 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN111696189A (zh) * | 2020-06-17 | 2020-09-22 | 北京中科深智科技有限公司 | 一种毛发自阴影实时绘制方法及绘制系统 |
CN117670642A (zh) * | 2022-09-07 | 2024-03-08 | 象帝先计算技术(重庆)有限公司 | 图像渲染方法、图形处理器、图形处理系统、装置及设备 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6281904B1 (en) * | 1998-06-09 | 2001-08-28 | Adobe Systems Incorporated | Multi-source texture reconstruction and fusion |
JP3442344B2 (ja) | 2000-05-17 | 2003-09-02 | 株式会社ナムコ | ゲームシステム及び情報記憶媒体 |
US6750873B1 (en) * | 2000-06-27 | 2004-06-15 | International Business Machines Corporation | High quality texture reconstruction from multiple scans |
US6906714B2 (en) * | 2002-06-21 | 2005-06-14 | Intel Corporation | Accelerated visualization of surface light fields |
JP3901644B2 (ja) * | 2003-01-30 | 2007-04-04 | 株式会社東芝 | テクスチャ画像圧縮装置及び方法、テクスチャ画像抽出装置及び方法、データ構造、記憶媒体 |
US7129954B2 (en) | 2003-03-07 | 2006-10-31 | Kabushiki Kaisha Toshiba | Apparatus and method for synthesizing multi-dimensional texture |
US7359562B2 (en) * | 2003-03-19 | 2008-04-15 | Mitsubishi Electric Research Laboratories, Inc. | Enhancing low quality videos of illuminated scenes |
US7738725B2 (en) * | 2003-03-19 | 2010-06-15 | Mitsubishi Electric Research Laboratories, Inc. | Stylized rendering using a multi-flash camera |
JP4015090B2 (ja) | 2003-09-08 | 2007-11-28 | 株式会社東芝 | 立体表示装置および画像表示方法 |
JP4199170B2 (ja) | 2004-07-20 | 2008-12-17 | 株式会社東芝 | 高次元テクスチャマッピング装置、方法及びプログラム |
KR100603601B1 (ko) * | 2004-11-08 | 2006-07-24 | 한국전자통신연구원 | 다시점 콘텐츠 생성 장치 및 그 방법 |
JP4282587B2 (ja) | 2004-11-16 | 2009-06-24 | 株式会社東芝 | テクスチャ・マッピング装置 |
JP4444180B2 (ja) | 2005-07-20 | 2010-03-31 | 株式会社東芝 | テクスチャ符号化装置、テクスチャ復号化装置、方法、およびプログラム |
-
2007
- 2007-03-28 JP JP2007085706A patent/JP4266233B2/ja not_active Expired - Fee Related
-
2008
- 2008-03-18 US US12/050,568 patent/US8094148B2/en not_active Expired - Fee Related
- 2008-03-26 CN CNA2008100872809A patent/CN101276478A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010221018A (ja) * | 2009-03-24 | 2010-10-07 | Medison Co Ltd | ボリュームデータに表面レンダリングを行う超音波システムおよび方法 |
US9069062B2 (en) | 2009-03-24 | 2015-06-30 | Samsung Medison Co., Ltd. | Surface rendering for volume data in an ultrasound system |
Also Published As
Publication number | Publication date |
---|---|
US20080238930A1 (en) | 2008-10-02 |
JP4266233B2 (ja) | 2009-05-20 |
CN101276478A (zh) | 2008-10-01 |
US8094148B2 (en) | 2012-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4266233B2 (ja) | テクスチャ処理装置 | |
US11663778B2 (en) | Method and system for generating an image of a subject from a viewpoint of a virtual camera for a head-mountable display | |
US10096157B2 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
JP4764305B2 (ja) | 立体画像生成装置、方法およびプログラム | |
KR101697184B1 (ko) | 메쉬 생성 장치 및 그 방법, 그리고, 영상 처리 장치 및 그 방법 | |
JP4125252B2 (ja) | 画像生成装置、画像生成方法、及び画像生成プログラム | |
JP6147275B2 (ja) | 立体画像処理装置、立体画像処理方法、及びプログラム | |
KR20180111798A (ko) | 파노라마 프레임 생성 프로세스에서 프레임의 적응적 스티칭 | |
TWI764959B (zh) | 用於產生光強度影像之裝置與方法 | |
CN103426163A (zh) | 用于渲染受影响的像素的系统和方法 | |
TWI786157B (zh) | 用於產生場景之舖磚式三維影像表示之設備及方法 | |
TW201505420A (zh) | 內容感知顯示適應方法 | |
JP2012244396A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
WO2012140397A2 (en) | Three-dimensional display system | |
Bleyer et al. | Temporally consistent disparity maps from uncalibrated stereo videos | |
KR101208767B1 (ko) | 곡면 투사를 이용한 입체 영상 생성 방법, 장치 및 시스템, 이를 위한 기록 매체 | |
KR101425321B1 (ko) | 적응형 렌즈 어레이를 구비하는 3차원 집적 영상 디스플레이 시스템 및 적응형 렌즈 어레이에 대한 요소 영상 생성 방법 | |
JP6313569B2 (ja) | 立体映像生成装置、そのプログラム及び立体映像表示装置 | |
Chlubna et al. | Lightweight all-focused light field rendering | |
JP2015103960A (ja) | 画像奥行き指定方法、プログラム、および装置 | |
Pujades et al. | The stereoscopic zoom | |
Scandolo et al. | Gradient‐Guided Local Disparity Editing | |
Kovács et al. | Analysis and optimization of pixel usage of light-field conversion from multi-camera setups to 3D light-field displays | |
Byalmarkova et al. | Approaches in Creation of 3D Content for Autostereoscopic Displays | |
CN113115018A (zh) | 一种图像的自适应显示方法及显示设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081104 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090210 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090213 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |