JP2007265269A - テクスチャマッピング装置、方法およびプログラム - Google Patents
テクスチャマッピング装置、方法およびプログラム Download PDFInfo
- Publication number
- JP2007265269A JP2007265269A JP2006092233A JP2006092233A JP2007265269A JP 2007265269 A JP2007265269 A JP 2007265269A JP 2006092233 A JP2006092233 A JP 2006092233A JP 2006092233 A JP2006092233 A JP 2006092233A JP 2007265269 A JP2007265269 A JP 2007265269A
- Authority
- JP
- Japan
- Prior art keywords
- data
- texture
- model
- control command
- model data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
Abstract
【解決手段】テクスチャマッピングの各処理の制御命令を生成する生成手段と、制御命令により複数のモデルデータおよびテクスチャデータの中からモデルデータおよびテクスチャデータを選択し、データ配置を決定し、データ配置によりモデルデータおよびテクスチャデータを格納する手段104と、制御命令によりモデルデータおよびテクスチャデータの中から描画に利用するモデルデータおよびテクスチャデータを選択する手段105と、制御命令により描画に利用するモデルデータおよびテクスチャデータを補正する手段106と、制御命令によって補正されたモデルデータおよびテクスチャデータをそれぞれのデータ間で補間する手段107と、制御命令により補間されたテクスチャデータを補間されたモデルデータにマッピングする手段108とを具備する。
【選択図】 図1
Description
Dana, et.al, "Reflectance and Texture of Real World Surfaces", ACM Transaction on Graphics, 18(1):1-34, 1999. Y. Yamauchi, M. Sekine, S. Yanagawa, "Bidirectional Texture Mapping for Realistic Cloth Rendering", ACM SIGGRAPH2003 sketch, 2003.
本発明の実施形態のテクスチャマッピング装置、方法およびプログラムは、複数の異なる条件で取得あるいは作成されたテクスチャ群を、適切な制御を与えながらCGモデルにマッピングし、CGデータを作成するためのものである。また、本実施形態のテクスチャマッピング装置、方法およびプログラムは、ネットワーク上などにデータベース化されたモデルデータおよびテクスチャデータを適宜取得してCGデータを作成するような形態でも利用することができる。
本実施形態のテクスチャマッピング装置について図1を参照して説明する。図1は、本実施形態のテクスチャマッピング装置の構成を説明する図である。
この装置は、複数のモデルデータおよび複数の異なる条件で取得あるいは作成したテクスチャデータを入力し、制御データに基づいた適応的なテクスチャマッピングを行ない、CGデータを出力するものである。
本実施形態のテクスチャマッピング装置は、入力部101、制御データ作成部102、テクスチャマッピング制御部103、格納部104、選択部105、補正部106、補間部107、描画部108、出力部109を備えている。
入力部101は、素材表面を様々な形状に変化させて撮影したテクスチャデータを入力する。素材表面の様々な形状変化とは、図3および図4に示すような変化である。すなわち、素材をφdだけ歪ませて取得したもの(図3)や、素材をdwだけ横に伸ばして取得したもの(図4)、素材をdhだけ縦に伸ばして取得したもの(図4)などである。本実施形態では、図5に示すようにCGモデルにマッピングされるテクスチャの歪みに応じて、テクスチャデータを選択し、補正・補間をしながらマッピングする処理について説明する。
テクスチャマッピング制御部103の指示が、例えば、これから描画しようとするCGデータに、素材が伸び縮みするような表現が使われていない、または、そういった表現があるが、実写のテクスチャデータを使うほどの品質の高い表現は必要としないといった場合には、格納部104は、図4に示すような様々な伸び縮みで取得した複数のテクスチャデータをメモリ上に格納する必要がなく、標準的な単一のテクスチャデータのみをメモリ上に格納すればよい。
テクスチャマッピング制御部103が行う最適なデータ配置に関する制御命令は、マッピングする際の処理内容や用いるグラフィックスLSIの特性を考慮して、効率の良いデータ配置を指示する。格納部104は、例えば、利用するハードウェアの特性に応じて、キャッシュへのヒット率が向上する、かつ、データをロードする回数ができるだけ少なくなるようなデータ配置を決定する。例えば、斜めに歪んだテクスチャデータをそのままメモリ上に配置するのは効率的ではないため、格納部104は、アフィン変換処理などを行ない、矩形のテクスチャデータに置換してからメモリ上に格納する。例えば、図6、図7に示すようなメモリ配置を行なう。
例えば、φd=100°のテクスチャをマッピングする際に、選択部105がφd=90°のテクスチャデータとφd=110°のテクスチャデータを選択したとする。この時、補正部106が、φd=90°のテクスチャデータをφd=100°のテクスチャデータの状態に近づけるような補正をすることによって、よりリアルな表現を実現することができる。但し、ここで制御データによる制御を与えない限りは、図8の右上に示すような線形的な補正しか行なうことができない。しかしながら、テクスチャマッピング制御部103が、図8の左下に模式的に示すような制御データを与えることによって、図8の右下の示すような不規則な補正を行なうことができる。ここで与えられた制御データは、素材特性の物理モデルが反映されたものであり、複数の歪み条件で取得したテクスチャデータを解析することによって導出される。
補間部107までで図9の左上のようなテクスチャデータが得られた場合に、そのまま描画してしまうと全体的に映像の精細度が低下してしまう可能性がある。その際に、テクスチャマッピング制御部103が、より理想的な映像を描画するための指示を行なうような制御データ(テクスチャデータ)を与える。こうすることによって、描画部108は図9の左下に模式的に示したようにできるだけ格子模様の柄だけは再現したいことを認識し、描画部108がテクスチャデータを若干、色補正することによって、比較的精細度の高い映像を描画することができる。
図10に示すテクスチャマッピング装置は、図1に示すテクスチャマッピング装置が備えている制御データ作成部102を持たず、入力部1001によって制御データを外部から入力している。このような装置によって、モデルデータおよびテクスチャデータからは作成することのできない全く別の制御データを入力することもできる(ステップS1101)。
従来のテクスチャマッピング装置においては、モデルデータおよびテクスチャデータに応じた適用的な処理を行なうことができず、単純なテクスチャの選択・補正・補間によってのみテクスチャマッピングを実現することになる。例えば、図12に示したような空間の中で、視点の位置および光源の位置θc,φc,θl,φlをそれぞれ一定間隔ずつ変化させながら取得したテクスチャ群をマッピングする場合を考えてみる。一定間隔で取得した複数のテクスチャデータを規則的にメモリ上に格納しておき、CGモデルの頂点毎に視点・光源条件を算出した後、その条件に対応するテクスチャデータを選択し、選択されたテクスチャデータをCGモデルにマッピングするといった処理となる。また、視点・光源条件が正しくマッチングするテクスチャデータが存在しない場合には、近隣の複数のテクスチャデータを利用して、線形補間することによってマッピングする色情報を求める。しかしながら、従来のテクスチャマッピング装置では、このような単純な処理しか行なうことができず。モデルデータやテクスチャデータに応じて、適応的に処理の内容を変化させることができない。
本実施形態では、図1または図10に示すテクスチャマッピング装置を用いて、CG表面にマッピングされる素材の状態変化を表現するための処理について示す。テクスチャマッピング装置における全体的な処理フロー(図2)については第1の実施形態で説明したので、本実施形態では特徴的な処理方法についてのみ示す。
本実施形態では、入力部101は、複数の異なる条件で取得あるいは作成したテクスチャデータとして、図13に示すような複数のテクスチャデータを入力する。この例は、ぬいぐるみや絨毯などに使われる短い毛を様々な状態に変化させて取得したものである。毛の状態を厳密に揃えるのは実際には困難であるが、大まかに言えば、「毛の状態1」は表面に対して毛が90°の状態、「毛の状態2」は表面に対して毛が70°の状態、「毛の状態3」は表面に対して毛が50°の状態、「毛の状態4」は表面に対して毛が30°の状態、「毛の状態5」は表面に対して毛が10°の状態といったように、入力部101が複数の素材表面の状態でテクスチャデータを取得する。
ここで問題となるのが、その境界部分である。毛の状態変化の特性を考えてみると、「毛の状態(1)」と「毛の状態(2)」との境界では、はっきりと境界線が見えている部分もあれば滑らかに変化している部分もある。そこで、図15Cに示すような制御データを用意し、補間の方法を制御する。ここでは、指で触り始めた部分に関しては「毛の状態(1)」と「毛の状態(2)」とを滑らかに補間し、指の両脇部分に関しては補間をせずにはっきりと境界線を出すような処理を行なっている。補間部107は、「毛の状態(1)」と「毛の状態(2)」との補間は、例えば、これらの状態の物理モデルによる値にそれぞれ重みをつけて、加算して補間する。このようにして、補間をしたりしなかったり、もしくは線形補間ではなく、非線形な補間をしたりと、制御データによって自由な補間処理を行なうことができる。
本実施形態では、図1または図10に示すテクスチャマッピング装置を用いて、マッピングするテクスチャに応じてアニメーションを変化させたり、アニメーションの動きに合わせてテクスチャのマッピング方法を変化させたりする方法について説明する。本実施形態では、特に、モデルデータの制御について具体例とともに説明する。テクスチャマッピング装置における全体的な処理フロー(図2)については第1の実施形態で説明したので、本実施形態では特徴的な処理方法についてのみ示す。
本実施形態では、図1または図10に示すテクスチャマッピング装置を用いて、多様な変化を同時に表現する際の処理方法について示す。テクスチャマッピング装置における全体的な処理フロー(図2)については第1の実施形態で説明したので、本実施形態では特徴的な処理方法についてのみ示す。
変形例として、具体的な例を図17および図18を参照して説明する。テクスチャマッピング制御部が、テクスチャマッピングにおける全ての処理に対して制御命令を与える必要はなく、必要に応じて、例えば、補正部1705のみに制御命令を与えたり、補間部1804のみに制御命令を与えたりしてもよい(図17、図18)。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
また、様々な条件によって変化するテクスチャ群を、制御データに基づいてCGモデルに適応的にマッピングすることによって、CGモデル表面のリアルな質感を表現することができる。また、制御データによって、必要最低限のモデルデータおよびテクスチャデータを取捨選択することができ、より少ないデータ量で、高品位なCGデータを出力することができる。
また、記憶媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーションシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本願発明における記憶媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記憶媒体も含まれる。
また、記憶媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本発明における記憶媒体に含まれ、媒体の構成は何れの構成であってもよい。
また、本願発明の実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本発明の実施形態における機能を実現することが可能な機器、装置を総称している。
Claims (16)
- 複数のモデルデータおよび複数の異なる条件において取得あるいは作成した複数のテクスチャデータを入力する入力手段と、
前記複数のモデルデータおよび前記複数のテクスチャデータに応じて、テクスチャマッピングに用いる制御データを作成する作成手段と、
前記作成された制御データに対応する制御命令であって、テクスチャマッピングの処理ごとに対応する制御命令を生成する生成手段と、
対応する前記制御命令に基づいて、前記複数のモデルデータおよび前記複数のテクスチャデータの中から1以上のモデルデータおよび複数のテクスチャデータを選択する格納選択手段と、
前記選択されたモデルデータおよび前記選択されたテクスチャデータのデータ配置を決定する決定手段と、
前記決定されたデータ配置に基づいて、前記選択されたモデルデータおよび前記選択されたテクスチャデータを格納する格納手段と、
対応する前記制御命令に基づいて、前記格納されたモデルデータおよびテクスチャデータの中から、描画に利用するモデルデータおよび描画に利用するテクスチャデータを選択する描画データ選択手段と、
対応する前記制御命令によって指定された手法で、描画に利用する前記選択されたモデルデータおよび描画に利用する前記選択されたテクスチャデータを補正する補正手段と、
対応する前記制御命令によって指定された手法で、前記補正されたモデルデータおよびテクスチャデータをそれぞれのデータ間で補間する補間手段と、
対応する前記制御命令によって指定された手法で、前記補間されたテクスチャデータを前記補間されたモデルデータにマッピングするマッピング手段と、
前記マッピングされたデータをコンピュータグラフィックスデータとして出力する出力手段と、を具備することを特徴とするテクスチャマッピング装置。 - 複数のモデルデータおよび複数の異なる条件において取得あるいは作成した複数のテクスチャデータと、テクスチャマッピングに用いる制御データと、を入力する入力手段と、
前記制御データに対応する制御命令であって、テクスチャマッピングの処理ごとに対応する制御命令を生成する生成手段と、
対応する前記制御命令に基づいて、前記複数のモデルデータおよび前記複数のテクスチャデータの中から1以上のモデルデータおよび複数のテクスチャデータを選択する格納選択手段と、
前記選択されたモデルデータおよび前記選択されたテクスチャデータのデータ配置を決定する決定手段と、
前記決定されたデータ配置に基づいて、前記選択されたモデルデータおよび前記選択されたテクスチャデータを格納する格納手段と、
対応する前記制御命令に基づいて、前記格納されたモデルデータおよびテクスチャデータの中から、描画に利用するモデルデータおよび描画に利用するテクスチャデータを選択する描画データ選択手段と、
対応する前記制御命令によって指定された手法で、描画に利用する前記選択されたモデルデータおよび描画に利用する前記選択されたテクスチャデータを補正する補正手段と、
対応する前記制御命令によって指定された手法で、前記補正されたモデルデータおよびテクスチャデータをそれぞれのデータ間で補間する補間手段と、
対応する前記制御命令によって指定された手法で、前記補間されたテクスチャデータを前記補間されたモデルデータにマッピングするマッピング手段と、
前記マッピングされたデータをコンピュータグラフィックスデータとして出力する出力手段と、を具備することを特徴とするテクスチャマッピング装置。 - 前記格納選択手段は、前記制御命令に基づいてどの程度の容量のデータをメモリ上に格納するかを決定し、
前記決定手段は、利用するハードウェアの特性に応じて、キャッシュへのヒット率が向上する、かつ、データをロードする回数ができるだけ少なくなるようなデータ配置を決定し、
前記格納手段は、前記モデルデータおよび前記テクスチャデータを、前記決定手段によって決定されたデータ配置に変換するために、正規化された矩形データに変換するアフィン変換処理や並べ替え処理を行った上で、メモリに格納することを特徴とする請求項1または請求項2に記載のテクスチャマッピング装置。 - 前記描画データ選択手段は、前記制御命令に最も近い複数のテクスチャデータを選択するか、前記制御命令に最も近い単一のテクスチャデータを選択するかを切り替え、前記複数の異なる条件による変化のうち、優先的に品質を向上させる変化に対しては選択するクスチャデータ数を増やし、品質を向上させない変化に対しては選択するテクスチャデータ数を減らすことを特徴とし、前記複数の異なる条件による変化のうち、ある条件の変化に対する第1のテクスチャデータが、他の条件の変化に対する第2のテクスチャデータによって表現できる場合には、前記第1のテクスチャデータを選択することを特徴とする請求項1から請求項3のいずれか1つに記載のテクスチャマッピング装置。
- 前記生成手段は、前記制御命令として、マッピングされるテクスチャデータに応じて該テクスチャの素材の特性を反映させる素材特性命令を生成し、
前記描画データ選択手段は、前記素材特性命令に対応した、モデルデータ、あるいはモデルデータに含まれているアニメーションデータを選択することを特徴とする請求項1から請求項4のいずれか1つに記載のテクスチャマッピング装置。 - 前記補正手段は、前記制御命令として、前記複数の異なる条件で取得あるいは作成したテクスチャデータを、物理法則に則った物理モデル、もしくは複数のテクスチャデータから得られた物理モデルにしたがって補正することを特徴とする請求項1から請求項5のいずれか1つに記載のテクスチャマッピング装置。
- 前記補正手段は、前記制御命令として、マッピングされるテクスチャデータ、モデルデータの状態、もしくはアニメーションデータの状態に応じて、モデルデータに含まれる、頂点データの位置座標やテクスチャ座標を補正することを特徴とする請求項1から請求項6のいずれか1つに記載のテクスチャマッピング装置。
- 前記補正手段は、前記補正手段が前記描画に利用する選択されたモデルデータおよび前記描画に利用する選択されたテクスチャデータに対して行った補正の規模が大きいほど、該モデルデータおよび該テクスチャデータに対して低い信頼度を付与し、
前記補間手段は、前記制御命令として、前記信頼度が低いほど、補間する割合である補間率を低くすることを特徴とする請求項1から請求項7のいずれか1つに記載のテクスチャマッピング装置。 - 前記生成手段は、前記制御命令として参照テクスチャデータを生成し、
前記描画手段は、前記参照テクスチャデータに前記補間されたテクスチャデータに近づくように補正することを特徴とする請求項1から請求項8のいずれか1項に記載のテクスチャマッピング装置。 - 前記生成手段は、請求項3、請求項4、請求項5、請求項6、請求項7、請求項8、および、請求項9に記載の制御命令を、モデルデータおよびテクスチャデータを解析することによって生成することを特徴とする請求項1から請求項9のいずれか1項に記載のテクスチャマッピング装置。
- 前記生成手段は、前記テクスチャデータを、テクスチャデータを解析することによって、物理モデルによって表現できる連続的変化と、テクスチャデータでしか表現することのできない非連続的変化とを切り分け、連続的変化部分に対しては、物理法則もしくはモデルデータおよびテクスチャデータの解析結果を基にして、前記物理モデルを生成し、非連続変化部分に対しては、テクスチャデータを選択するための制御命令を生成し、前記物理モデルで表現される部分との前記テクスチャデータとの差分を制御命令として生成することを特徴とする請求項1から請求項9のいずれか1項に記載のテクスチャマッピング装置。
- 前記生成手段は、請求項10、請求項11記載の前記制御命令を用いて、請求項3、請求項4、請求項5、請求項6、請求項7、請求項8、請求項9に記載の格納選択手段、描画データ選択手段、補正手段、補間手段、描画手段に対して制御命令を出力することを特徴とする請求項1から請求項11のいずれか1項に記載のテクスチャマッピング装置。
- 複数のモデルデータおよび複数の異なる条件において取得あるいは作成した複数のテクスチャデータを入力し、
前記複数のモデルデータおよび前記複数のテクスチャデータに応じて、テクスチャマッピングに用いる制御データを作成し、
前記作成された制御データに対応する制御命令であって、テクスチャマッピングの処理ごとに対応する制御命令を生成し、
対応する前記制御命令に基づいて、前記複数のモデルデータおよび前記複数のテクスチャデータの中から1以上のモデルデータおよび複数のテクスチャデータを選択し、
前記選択されたモデルデータおよび前記選択されたテクスチャデータのデータ配置を決定し、
前記決定されたデータ配置に基づいて、前記選択されたモデルデータおよび前記選択されたテクスチャデータを格納する格納手段を用意し、
対応する前記制御命令に基づいて、前記格納されたモデルデータおよびテクスチャデータの中から、描画に利用するモデルデータおよび描画に利用するテクスチャデータを選択し、
対応する前記制御命令によって指定された手法で、描画に利用する前記選択されたモデルデータおよび描画に利用する前記選択されたテクスチャデータを補正し、
対応する前記制御命令によって指定された手法で、前記補正されたモデルデータおよびテクスチャデータをそれぞれのデータ間で補間し、
対応する前記制御命令によって指定された手法で、前記補間されたテクスチャデータを前記補間されたモデルデータにマッピングし、
前記マッピングされたデータをコンピュータグラフィックスデータとして出力することを特徴とするテクスチャマッピング方法。 - 複数のモデルデータおよび複数の異なる条件において取得あるいは作成した複数のテクスチャデータと、テクスチャマッピングに用いる制御データと、を入力し、
前記制御データに対応する制御命令であって、テクスチャマッピングの処理ごとに対応する制御命令を生成し、
対応する前記制御命令に基づいて、前記複数のモデルデータおよび前記複数のテクスチャデータの中から1以上のモデルデータおよび複数のテクスチャデータを選択し、
前記選択されたモデルデータおよび前記選択されたテクスチャデータのデータ配置を決定し、
前記決定されたデータ配置に基づいて、前記選択されたモデルデータおよび前記選択されたテクスチャデータを格納する格納手段を用意し、
対応する前記制御命令に基づいて、前記格納されたモデルデータおよびテクスチャデータの中から、描画に利用するモデルデータおよび描画に利用するテクスチャデータを選択し、
対応する前記制御命令によって指定された手法で、描画に利用する前記選択されたモデルデータおよび描画に利用する前記選択されたテクスチャデータを補正し、
対応する前記制御命令によって指定された手法で、前記補正されたモデルデータおよびテクスチャデータをそれぞれのデータ間で補間し、
対応する前記制御命令によって指定された手法で、前記補間されたテクスチャデータを前記補間されたモデルデータにマッピングし、
前記マッピングされたデータをコンピュータグラフィックスデータとして出力することを特徴とするテクスチャマッピング方法。 - コンピュータを、
複数のモデルデータおよび複数の異なる条件において取得あるいは作成した複数のテクスチャデータを入力する入力手段と、
前記複数のモデルデータおよび前記複数のテクスチャデータに応じて、テクスチャマッピングに用いる制御データを作成する作成手段と、
前記作成された制御データに対応する制御命令であって、テクスチャマッピングの処理ごとに対応する制御命令を生成する生成手段と、
対応する前記制御命令に基づいて、前記複数のモデルデータおよび前記複数のテクスチャデータの中から1以上のモデルデータおよび複数のテクスチャデータを選択する格納選択手段と、
前記選択されたモデルデータおよび前記選択されたテクスチャデータのデータ配置を決定する決定手段と、
前記決定されたデータ配置に基づいて、前記選択されたモデルデータおよび前記選択されたテクスチャデータを格納する格納手段と、
対応する前記制御命令に基づいて、前記格納されたモデルデータおよびテクスチャデータの中から、描画に利用するモデルデータおよび描画に利用するテクスチャデータを選択する描画データ選択手段と、
対応する前記制御命令によって指定された手法で、描画に利用する前記選択されたモデルデータおよび描画に利用する前記選択されたテクスチャデータを補正する補正手段と、
対応する前記制御命令によって指定された手法で、前記補正されたモデルデータおよびテクスチャデータをそれぞれのデータ間で補間する補間手段と、
対応する前記制御命令によって指定された手法で、前記補間されたテクスチャデータを前記補間されたモデルデータにマッピングするマッピング手段と、
前記マッピングされたデータをコンピュータグラフィックスデータとして出力する出力手段として機能させるためのテクスチャマッピングプログラム。 - コンピュータを、
複数のモデルデータおよび複数の異なる条件において取得あるいは作成した複数のテクスチャデータと、テクスチャマッピングに用いる制御データと、を入力する入力手段と、
前記制御データに対応する制御命令であって、テクスチャマッピングの処理ごとに対応する制御命令を生成する生成手段と、
対応する前記制御命令に基づいて、前記複数のモデルデータおよび前記複数のテクスチャデータの中から1以上のモデルデータおよび複数のテクスチャデータを選択する格納選択手段と、
前記選択されたモデルデータおよび前記選択されたテクスチャデータのデータ配置を決定する決定手段と、
前記決定されたデータ配置に基づいて、前記選択されたモデルデータおよび前記選択されたテクスチャデータを格納する格納手段と、
対応する前記制御命令に基づいて、前記格納されたモデルデータおよびテクスチャデータの中から、描画に利用するモデルデータおよび描画に利用するテクスチャデータを選択する描画データ選択手段と、
対応する前記制御命令によって指定された手法で、描画に利用する前記選択されたモデルデータおよび描画に利用する前記選択されたテクスチャデータを補正する補正手段と、
対応する前記制御命令によって指定された手法で、前記補正されたモデルデータおよびテクスチャデータをそれぞれのデータ間で補間する補間手段と、
対応する前記制御命令によって指定された手法で、前記補間されたテクスチャデータを前記補間されたモデルデータにマッピングするマッピング手段と、
前記マッピングされたデータをコンピュータグラフィックスデータとして出力する出力手段として機能させるためのテクスチャマッピングプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006092233A JP4594892B2 (ja) | 2006-03-29 | 2006-03-29 | テクスチャマッピング装置、方法およびプログラム |
US11/687,745 US7639261B2 (en) | 2006-03-29 | 2007-03-19 | Texture mapping apparatus, method and program |
CNB2007100913109A CN100552721C (zh) | 2006-03-29 | 2007-03-29 | 纹理映射设备和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006092233A JP4594892B2 (ja) | 2006-03-29 | 2006-03-29 | テクスチャマッピング装置、方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007265269A true JP2007265269A (ja) | 2007-10-11 |
JP4594892B2 JP4594892B2 (ja) | 2010-12-08 |
Family
ID=38558189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006092233A Expired - Fee Related JP4594892B2 (ja) | 2006-03-29 | 2006-03-29 | テクスチャマッピング装置、方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US7639261B2 (ja) |
JP (1) | JP4594892B2 (ja) |
CN (1) | CN100552721C (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011022726A (ja) * | 2009-07-14 | 2011-02-03 | Sony Corp | 画像処理装置および画像処理方法 |
JP2011530136A (ja) * | 2008-08-04 | 2011-12-15 | マイクロソフト コーポレーション | Gpuシーン構成およびアニメーション |
WO2017131071A1 (ja) * | 2016-01-28 | 2017-08-03 | 日本電信電話株式会社 | 仮想環境構築装置、映像提示装置、モデル学習装置、最適奥行き決定装置、それらの方法、およびプログラム |
WO2023148826A1 (ja) * | 2022-02-01 | 2023-08-10 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、画像処理方法、及びプログラム |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100914846B1 (ko) * | 2007-12-15 | 2009-09-02 | 한국전자통신연구원 | 2차원 환경에서 3차원 모델의 텍스쳐 맵 제작 방법 및시스템 |
US8601398B2 (en) * | 2008-10-13 | 2013-12-03 | Autodesk, Inc. | Data-driven interface for managing materials |
CN101751687B (zh) * | 2008-12-18 | 2014-03-05 | 超威半导体(上海)有限公司 | 确定纹理映射参数以定义代表像素投影足迹的方法和装置 |
JP2011023902A (ja) * | 2009-07-14 | 2011-02-03 | Sony Corp | 画像処理装置および画像処理方法 |
JP2011022727A (ja) * | 2009-07-14 | 2011-02-03 | Sony Corp | 画像処理装置および画像処理方法 |
US8313437B1 (en) | 2010-06-07 | 2012-11-20 | Suri Jasjit S | Vascular ultrasound intima-media thickness (IMT) measurement system |
US8485975B2 (en) | 2010-06-07 | 2013-07-16 | Atheropoint Llc | Multi-resolution edge flow approach to vascular ultrasound for intima-media thickness (IMT) measurement |
US8639008B2 (en) | 2010-04-20 | 2014-01-28 | Athero Point, LLC | Mobile architecture using cloud for data mining application |
US8532360B2 (en) | 2010-04-20 | 2013-09-10 | Atheropoint Llc | Imaging based symptomatic classification using a combination of trace transform, fuzzy technique and multitude of features |
US8708914B2 (en) | 2010-06-07 | 2014-04-29 | Atheropoint, LLC | Validation embedded segmentation method for vascular ultrasound images |
KR20120066305A (ko) * | 2010-12-14 | 2012-06-22 | 한국전자통신연구원 | 비디오 움직임 예측 및 보상용 캐싱 장치 및 방법 |
CN107393502B (zh) * | 2011-12-14 | 2019-11-05 | 英特尔公司 | 用于多遍渲染的技术 |
US9760116B2 (en) | 2012-12-05 | 2017-09-12 | Mobile Tech, Inc. | Docking station for tablet device |
JP6756090B2 (ja) * | 2015-06-17 | 2020-09-16 | 凸版印刷株式会社 | 画像処理装置、方法、及びプログラム |
US10517056B2 (en) | 2015-12-03 | 2019-12-24 | Mobile Tech, Inc. | Electronically connected environment |
US10251144B2 (en) | 2015-12-03 | 2019-04-02 | Mobile Tech, Inc. | Location tracking of products and product display assemblies in a wirelessly connected environment |
US11109335B2 (en) | 2015-12-03 | 2021-08-31 | Mobile Tech, Inc. | Wirelessly connected hybrid environment of different types of wireless nodes |
US10728868B2 (en) | 2015-12-03 | 2020-07-28 | Mobile Tech, Inc. | Remote monitoring and control over wireless nodes in a wirelessly connected environment |
EP3487457B1 (en) * | 2016-07-25 | 2023-09-06 | Facebook Technologies, LLC. | Adaptive system for deriving control signals from measurements of neuromuscular activity |
US10101770B2 (en) | 2016-07-29 | 2018-10-16 | Mobile Tech, Inc. | Docking system for portable computing device in an enclosure |
JP6930091B2 (ja) * | 2016-11-15 | 2021-09-01 | 富士フイルムビジネスイノベーション株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
CN106683171B (zh) * | 2016-12-12 | 2020-04-28 | 中国航空工业集团公司西安航空计算技术研究所 | 一种GPU多线程纹理映射SystemC建模结构 |
CN106682424A (zh) * | 2016-12-28 | 2017-05-17 | 上海联影医疗科技有限公司 | 医学图像的调节方法及其系统 |
US10008031B1 (en) | 2017-03-31 | 2018-06-26 | Cae Inc. | Heat rendering in an interactive computer simulation system |
CN107958480B (zh) * | 2017-11-23 | 2021-04-30 | 腾讯科技(上海)有限公司 | 图像渲染方法、装置及存储介质 |
US20220070620A1 (en) | 2018-10-25 | 2022-03-03 | Mobile Tech, Inc | Proxy nodes for expanding the functionality of nodes in a wirelessly connected environment |
US10593443B1 (en) | 2019-01-24 | 2020-03-17 | Mobile Tech, Inc. | Motion sensing cable for intelligent charging of devices |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08110952A (ja) * | 1994-10-07 | 1996-04-30 | Yamaha Corp | テクスチャマッピング装置 |
JPH10208067A (ja) * | 1997-01-21 | 1998-08-07 | Namco Ltd | 画像生成装置及び画像生成方法 |
JP2004272580A (ja) * | 2003-03-07 | 2004-09-30 | Toshiba Corp | 高次元テクスチャを合成する装置および方法およびプログラム |
JP2006031561A (ja) * | 2004-07-20 | 2006-02-02 | Toshiba Corp | 高次元テクスチャマッピング装置、方法及びプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2267203B (en) * | 1992-05-15 | 1997-03-19 | Fujitsu Ltd | Three-dimensional graphics drawing apparatus, and a memory apparatus to be used in texture mapping |
EP0747858B1 (en) * | 1995-06-06 | 2005-12-28 | Hewlett-Packard Company, A Delaware Corporation | Texture cache |
DE69635066T2 (de) * | 1995-06-06 | 2006-07-20 | Hewlett-Packard Development Co., L.P., Houston | Unterbrechungsschema zum Aktualisieren eines Lokalspeichers |
US5790130A (en) * | 1995-06-08 | 1998-08-04 | Hewlett-Packard Company | Texel cache interrupt daemon for virtual memory management of texture maps |
US5757292A (en) * | 1996-11-13 | 1998-05-26 | International Business Machines Corporation | Keyboard cap extension apparatus |
US6636225B2 (en) * | 2000-11-20 | 2003-10-21 | Hewlett-Packard Development Company, L.P. | Managing texture mapping data in a computer graphics system |
US7030884B2 (en) * | 2003-02-13 | 2006-04-18 | Hewlett-Packard Development Company, L.P. | System and method for resampling texture maps |
US7129954B2 (en) | 2003-03-07 | 2006-10-31 | Kabushiki Kaisha Toshiba | Apparatus and method for synthesizing multi-dimensional texture |
JP4282587B2 (ja) | 2004-11-16 | 2009-06-24 | 株式会社東芝 | テクスチャ・マッピング装置 |
JP4444180B2 (ja) | 2005-07-20 | 2010-03-31 | 株式会社東芝 | テクスチャ符号化装置、テクスチャ復号化装置、方法、およびプログラム |
-
2006
- 2006-03-29 JP JP2006092233A patent/JP4594892B2/ja not_active Expired - Fee Related
-
2007
- 2007-03-19 US US11/687,745 patent/US7639261B2/en not_active Expired - Fee Related
- 2007-03-29 CN CNB2007100913109A patent/CN100552721C/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08110952A (ja) * | 1994-10-07 | 1996-04-30 | Yamaha Corp | テクスチャマッピング装置 |
JPH10208067A (ja) * | 1997-01-21 | 1998-08-07 | Namco Ltd | 画像生成装置及び画像生成方法 |
JP2004272580A (ja) * | 2003-03-07 | 2004-09-30 | Toshiba Corp | 高次元テクスチャを合成する装置および方法およびプログラム |
JP2006031561A (ja) * | 2004-07-20 | 2006-02-02 | Toshiba Corp | 高次元テクスチャマッピング装置、方法及びプログラム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011530136A (ja) * | 2008-08-04 | 2011-12-15 | マイクロソフト コーポレーション | Gpuシーン構成およびアニメーション |
JP2011022726A (ja) * | 2009-07-14 | 2011-02-03 | Sony Corp | 画像処理装置および画像処理方法 |
WO2017131071A1 (ja) * | 2016-01-28 | 2017-08-03 | 日本電信電話株式会社 | 仮想環境構築装置、映像提示装置、モデル学習装置、最適奥行き決定装置、それらの方法、およびプログラム |
JPWO2017131071A1 (ja) * | 2016-01-28 | 2018-11-08 | 日本電信電話株式会社 | 仮想環境構築装置、仮想環境構築方法、プログラム、および記録媒体 |
WO2023148826A1 (ja) * | 2022-02-01 | 2023-08-10 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、画像処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP4594892B2 (ja) | 2010-12-08 |
CN100552721C (zh) | 2009-10-21 |
US7639261B2 (en) | 2009-12-29 |
US20070229529A1 (en) | 2007-10-04 |
CN101046891A (zh) | 2007-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4594892B2 (ja) | テクスチャマッピング装置、方法およびプログラム | |
Barnes et al. | PatchMatch: A randomized correspondence algorithm for structural image editing | |
JP5985619B2 (ja) | 仮想環境におけるオブジェクトの制御 | |
US8743126B2 (en) | Systems and methods for portable animation rigs | |
CN109964255B (zh) | 使用3d视频数据的3d打印 | |
US20150235392A1 (en) | Drawing data generation device and image drawing device | |
JP2019032820A (ja) | 画像を入力とする関数を学習するためのデータセット | |
WO2014076744A1 (ja) | 画像処理装置および画像処理方法 | |
JP4206547B2 (ja) | 画像処理方法、その画像処理装置及びそれに利用する一体整形モデルデータ及び画像処理プログラムを記録した記録媒体 | |
US20060139356A1 (en) | Adaptive caching of animation controls | |
JP4224093B2 (ja) | テクスチャフィルタリング装置、テクスチャマッピング装置、方法およびプログラム | |
US11170550B2 (en) | Facial animation retargeting using an anatomical local model | |
JP5007633B2 (ja) | 画像処理用プログラム、当該プログラムを記録したコンピュータ読み取り可能な記録媒体、画像処理装置、画像処理方法 | |
JP7039294B2 (ja) | プログラム、画像処理方法、及び画像処理装置 | |
CN106716500A (zh) | 程序、信息处理装置、深度定义方法及记录介质 | |
US11410361B2 (en) | Digital content editing using a procedural model | |
JP2010152870A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP3638568B2 (ja) | 画像処理プログラム、画像処理プログラムを記録した記録媒体、画像処理装置及び方法 | |
US10636210B2 (en) | Dynamic contour volume deformation | |
US20060164440A1 (en) | Method of directly manipulating geometric shapes | |
JP4203780B2 (ja) | 表示要素立体化装置及びその方法 | |
JP2021056542A (ja) | 画像データからの物体のポーズ検出 | |
JP2002175541A (ja) | アニメーション生成方法および装置 | |
JP3706545B2 (ja) | 画像の生成方法及びそれに用いるプログラム | |
WO2022215186A1 (ja) | 学習装置、学習方法及び学習プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070926 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100302 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100506 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100608 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100806 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100824 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100917 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130924 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130924 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |