JP2004272580A - Device, method and program for composing high-dimensional texture - Google Patents
Device, method and program for composing high-dimensional texture Download PDFInfo
- Publication number
- JP2004272580A JP2004272580A JP2003062180A JP2003062180A JP2004272580A JP 2004272580 A JP2004272580 A JP 2004272580A JP 2003062180 A JP2003062180 A JP 2003062180A JP 2003062180 A JP2003062180 A JP 2003062180A JP 2004272580 A JP2004272580 A JP 2004272580A
- Authority
- JP
- Japan
- Prior art keywords
- texture
- dimensional texture
- image
- dimensional
- index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/12—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements
- A61B1/126—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements provided with means for cleaning in-use
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00064—Constructional details of the endoscope body
- A61B1/00071—Insertion part of the endoscope body
- A61B1/0008—Insertion part of the endoscope body characterised by distal tip features
- A61B1/00091—Nozzles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/012—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
- A61B1/015—Control of fluid supply or evacuation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2217/00—General characteristics of surgical instruments
- A61B2217/002—Auxiliary appliance
- A61B2217/005—Auxiliary appliance with suction drainage system
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、3次元コンピュータグラフィックス分野における高品位テクスチャマッピングに好適な画像合成技術に属し、視点方向や光源方向などの条件に応じて変化する多数のテクスチャ画像から、これら条件に応じた任意サイズのテクスチャ画像を合成するための装置、方法、およびプログラムに関する。ならびに本発明は、多数のテクスチャ画像を種々の記録媒体に効率的に格納し管理するためのデータ構造に関する。
【0002】
【従来の技術】
3次元物体の見え方、すなわち3次元物体の形状およびその表面の色や質感は、この3次元物体を眺める方向(視点方向)および光を照射する方向(光源方向)に依存して変化する。3次元コンピュータグラフィックスの分野では、3次元物体の表面をポリゴンと称する多数の2次元平面単位に分割し、ポリゴンごとに描画を行って2次元画像を生成し、これを3次元物体の表示画像としている。
【0003】
視点方向および光源方向が変化する際の3次元物体の見え方は、表示ポリゴンの向き(3次元姿勢)やポリゴンの光学的特性(輝度等)を視点方向および光源方向とともに変化させることで表現することができる。ところが、従来は描画の単位であるポリゴンの向き(3次元姿勢)を定義する法線と視点方向あるいは光源方向との関係を計算するためには浮動小数点精度のベクトル演算が必須であり、これはハードウェアおよびソフトウェアのどちらの観点からみても演算コストが高く、実用化が困難であった。そこで、ポリゴンを構成する頂点単位に設定した色でポリゴン内部を一様に塗りつぶすフラットシェーディングと呼ばれる描画手法や、ポリゴンを構成する頂点単位に設定した色に基づいて単調な線形補間によりポリゴン内部に色を塗るスムースシェーディングと呼ばれる描画手法が用いられることがある。
【0004】
また、例えば模様や柄などポリゴン内部のディテールを表現したいという要求に対してはテクスチャマッピングと呼ばれる手法が用いられる。テクスチャマッピングとは、模様や柄が表現された画像(テクスチャ画像)をポリゴン表面に配置(マッピング)する画像処理技術である。ポリゴンを構成する頂点単位でテクスチャ画像内の対応する画像内座標を定義するなどしてテクスチャ画像の向きを制御したり、テクスチャ画像に実写画像を用いる等、これまでになされたテクスチャマッピングへの幾つかの改良は、より高品質なレンダリングを可能にした。しかし、このような改良を行ったとしても、このテクスチャマッピングでは、視点方向や光源方向に応じて変化すべき物体表面の光学的特性を表現することまでは行えない。これは、ポリゴンの3次元姿勢とは無関係に単一のテクスチャ画像を貼り付けているためである。
【0005】
物体表面の光学的特性を表現するために、従来、いくつかの改良手法が提案されているが、以下に説明するように、これらの改良手法にはそれぞれ固有の問題がある。
【0006】
(1)物体表面の法線ディテールを擬似的に変化させ、光学的な特性を変化させる手法がある。これには、バンプマッピングと呼ばれる手法が存在するが、法線のゆらし計算など3次元ベクトル計算が必要であり、計算コストが高いという問題がある。
【0007】
(2)一般にポリゴン表面のテクスチャ成分を視線方向、光源方向に応じて表現したものをBTF(Bi−directional Texture Function)と呼ぶ(下記非特許文献1参照)。しかし、BTFのデータにおいて視点方向および光源方向を表す4個の変数のすべてを変化させながら画像のサンプリングをこれまでに行った例はなく、2個あるいは3個の変数を変化させたサブセットを扱っている(下記非特許文献2参照)。
【0008】
(3)光源方向や視点方向に依存した輝度変化を関数で近似する手法として、PTM(Polynomial Texture Mapping)と呼ばれる手法が提案されている(下記特許文献1参照)。PTMでは、ピクセル毎の輝度変化を2次元光源方向パラメータの2次関数で近似し、その関数係数(6つ)を持つテクスチャに変換して保持する。描画時には、この関数係数テクスチャから描画対象ピクセルの関数係数を取り出す。そして、取り出した関数係数と光源方向パラメータとの積和演算により、光源依存なテクセル・カラー情報を求めている。近年のグラフィックス・ハードウェアでは、ハードウェア上の演算ユニットをプログラマブルに利用してシェーディングを行なう機能(ピクセルシェーダ)が実装されている。そのため、PTMのような演算を高速に実行させることが可能となってきている。しかし、視点方向も含めた輝度変化を関数化する場合、さらに高次な関数化が必要となる。その結果、関数係数が増えるのみならず、関数近似に要する時間も多大になることが予想され、視点方向と光源方向の双方に依存したテクスチャを生成することは原理上、困難である。
【0009】
(4)一方、視点方向に応じた画像を生成する手法としては、Light Field Rendering(下記特許文献2および非特許文献3参照)やLumigraph(下記非特許文献4参照)に代表されるイメージベース・レンダリング手法がある。イメージベース・レンダリング手法は、離散的に設定された複数視点画像から、新規視点から見た画像をサンプリングによって生成しようとするものである。しかし、視点自由度や画質を高めようとすると複数視点画像を大量に用意しておく必要があり、データ量が膨大になるという問題がある。
【0010】
従来のテクスチャマッピングにおいては、3次元物体の表面の大きさに対してテクスチャ画像のサイズが小さい場合、テクスチャ画像を繰り返し配置しながら、マッピングを行なっている。しかしこの方法では、テクスチャ画像の模様や柄が単調な繰り返しパターンとして現れてしまったり、境界線が目立ってしまったりする。これは、観察者に不自然な印象を与える。
【0011】
そこで近年では、小さなテクスチャ画像から任意サイズのテクスチャ画像を合成する方式が提案されている(下記非特許文献5および非特許文献6参照)。これは、元の小さなテクスチャ画像を参照しながら、任意サイズのテクスチャ画像をスキャンし、元の画像に近いテクスチャ画像を合成するというものである。またその応用として、参照している小さなテクスチャ画像の他に目標とするテクスチャ画像を用意し、この目標とするテクスチャ画像の模様や柄を有し、かつ、参照している小さなテクスチャ画像の素材に近い画像を合成する方式も提案されている。
【0012】
しかし、このような従来のテクスチャ画像合成技術は、単に1枚のテクスチャ画像を合成するというものであり、多視点/多光源についての多数のテクスチャ画像を一括に扱って合成することはできない。
【0013】
【特許文献1】
米国特許第6297834号明細書
【0014】
【特許文献2】
米国特許第6097394号明細書
【0015】
【非特許文献1】
Dana, et.al, ”Reflectance and Texture of Real World Surfaces”, ACM Transaction on Graphics,18(1):1−34,1999.
【0016】
【非特許文献2】
Chen, et.al, ”Light Field Mapping Efficient Representation and Hardware Rendering of Surface Light Fields”, Proceedings SIGGRAPH 2002,pp.447−456.
【0017】
【非特許文献3】
Levoy, et.al, ”Light Field Rendering”, Proceedings SIGGRAPH 1996,pp.31−42.
【0018】
【非特許文献4】
Gortler, et.al, ”The Lumigraph”, Proceedings SIGGRAPH 1996,pp.43−54.
【0019】
【非特許文献5】
Li−Yi Wei, Marc Levoy, ”Fast Texture Synthesis Using Tree−structured Vector Quantization”, Proceedings SIGGRAPH 2000, pp.479−488.
【0020】
【非特許文献6】
Michael Ashikhmin, ”Synthesizing Natural Textures”, 2001 ACM Symposium on Interactive 3D Graphics, pp.217−226.
【0021】
【発明が解決しようとする課題】
以上述べたように、視点方向および光源方向に応じて変化する物体表面の光学的特性をテクスチャで表現した場合には、視点方向や光源方向が異なる大量のテクスチャ画像が必要であり、また演算量も膨大となる。かかる問題を解決した実用的なシステムはこれまでに提供されていない。また、大量のテクスチャ画像を一括に扱ったテクスチャ合成手法が存在しないため、任意サイズのテクスチャ画像を視点方向および光源方向に応じて変化させた時に、物体表面の光学的特性をリアルに表現することもできない。
【0022】
そこで、本発明では、視点方向および光源方向に応じて変化する物体表面の光学的特性をリアルに表現することのできる任意サイズのテクスチャ画像を大量のテクスチャ画像データから効率的に合成することを目的とする。また、テクスチャマッピングにおいて効率的な演算が可能となる高次元テクスチャのデータ構造を提供することを目的とする。
【0023】
【課題を解決するための手段】
本発明の一観点に係る高次元テクスチャ合成装置は、複数の異なる条件で取得または作成された1つ以上のテクスチャ画像を利用し、前記複数の異なる条件のそれぞれに対応する任意サイズのテクスチャ画像を生成するための新規高次元テクスチャを合成する高次元テクスチャ合成装置である。この装置は、前記1つ以上のテクスチャ画像を参照テクスチャ画像として入力し、同一ピクセルの色情報を取り出してまとめ、参照高次元テクスチャを生成する参照高次元テクスチャ生成手段と、前記参照高次元テクスチャを1つ以上の量子化レベルで量子化するとともにコードブックを生成する参照高次元テクスチャ量子化手段と、前記量子化レベルに対応する前記参照高次元テクスチャの階層性に従って、前記参照テクスチャ画像のインデックスを画像化してなる参照インデックス画像から、任意の画像サイズを有する新規インデックス画像を合成するインデックス画像合成手段と、前記インデックス画像合成手段により合成された新規インデックス画像と、前記参照高次元テクスチャ量子化手段により生成されたコードブックとを組み合わせて、新規高次元テクスチャを生成する新規高次元テクスチャ生成手段と、を備える。
【0024】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施形態を説明する。
【0025】
(第1の実施形態)
図1は本発明の第1の実施形態に係る高次元テクスチャ合成装置の構成図である。まず概略構成を説明する。この装置は、複数の異なる条件で取得あるいは作成された1つ以上の参照テクスチャ画像を入力し、同一のピクセルの色情報を取り出してまとめ、参照高次元テクスチャを生成する参照高次元テクスチャ生成部101と、生成された参照高次元テクスチャを、1つ以上の量子化レベルに従ってベクトル量子化し、コードブックを生成する参照高次元テクスチャ量子化部102とを備える。なお、参照高次元テクスチャの生成方法、高次元テクスチャのデータ構造およびベクトル量子化方法の詳細については後述する。
【0026】
また、量子化済み参照高次元テクスチャを入力し、この量子化済み参照高次元テクスチャに基づいて、類似ピクセル探索を繰り返すことにより任意サイズの新規インデックス画像を合成するインデックス画像合成部103を備える。なお、新規インデックス画像の合成方法の詳細については後述する。
【0027】
さらに、インデックス画像合成部103で生成された新規インデックス画像と参照高次元テクスチャ量子化部102で生成されたコードブックとを組み合わせ、高次元テクスチャのデータ構造に従った新規高次元テクスチャを生成する新規高次元テクスチャ生成部104と、新規高次元テクスチャを入力し、特定の取得条件あるいは作成条件に対応したテクスチャ画像を出力する新規テクスチャ画像変換部105とを備える。
【0028】
図2は第1の実施形態の変形例に係る高次元テクスチャ合成装置の構成図である。この装置は、図1の装置から新規テクスチャ画像変換部105を取り除いた構成を有する。この装置は、新規高次元テクスチャ生成部104から出力された新規高次元テクスチャに基づいて新規テクスチャ画像を出力するものであり、任意の3次元物体への効率的なテクスチャマッピングを行なうことができる。
【0029】
図3は第1の実施形態に係る高次元テクスチャ合成装置により実現される一連の処理を示す図である。以下、この一連の処理の各々を詳細に説明する。
【0030】
図4は参照高次元テクスチャ生成部101における参照高次元テクスチャ生成(301)のフローチャートである。まず、複数の異なる条件で取得あるいは作成された1つ以上の参照テクスチャ画像を入力する(401)。本実施形態では、複数のカメラ位置(以下、視点と呼ぶ)および光源位置で取得した実写画像を用いる。ここでは、前述した通り、視点方向または光源方向に応じて変化する物体表面の光学的特性をリアルに表現することを目的としている。
【0031】
図5は様々な条件(視点/光源)におけるテクスチャ画像の取得方法を説明するための図である。撮像物体表面の法線ベクトルを軸とし、撮像物体表面が赤道面(赤道を通る面)となる球極座標系を考える。この座標系において、極角θと方位角φとを用いると、入力データとしてあらかじめ用意する多視点/多光源テクスチャ画像は、視点方向(θE,φE)、光源方向(θI,φI)の4パラメータで指定することができる。そこで、本実施形態では、ある特定の視点/光源で取得したテクスチャ画像をT(θE,φE,θI,φI)というパラメータで識別する。また、本実施形態では、視点方向のサンプルをθEの軸にW個、φEの軸にX個とし、光源方向のサンプルをθIの軸にY個、φIの軸にZ個とする。したがって、W×X視点とY×Z光源のすべての組み合わせで取得した(W×X)×(Y×Z)枚のテクスチャ画像が、参照テクスチャ画像として入力される。
【0032】
図4における処理(402)以降は、参照高次元テクスチャを生成するための繰り返し処理からなる。高次元テクスチャのデータ構造の一例を図6に示す。高次元テクスチャは、コードブックとインデックス画像とで構成される。コードブックは、高次元ピクセルデータと呼ばれるデータ(後述)の集まりで構成され、インデックス画像は、コードブック内の高次元ピクセルデータを指定するためのインデックス情報の集まりで構成される。本実施形態では、R成分/G成分/B成分それぞれの色成分に対して、インデックス画像とコードブックを作成するようにしている。なお、RGB成分のすべてを一括に扱う高次元テクスチャや、輝度成分と色成分とが分離された高次元テクスチャなども同様に作成することができる。高次元ピクセルデータとは、あるピクセルにおける色情報を集めたものであり、R成分/G成分/B成分の高次元ピクセルデータをそれぞれR(l),G(m),B(n)とする。これらは、それぞれインデックスl、m、nに対応する高次元ピクセルデータである。図5に示されるR成分/G成分/B成分のコードブックサイズは、それぞれL、M、Nである。このコードブックサイズが大きいほど、高次元ピクセルデータは多様なものとなる。
【0033】
参照高次元テクスチャは、以下のような手順で生成される。参照テクスチャ画像のあるピクセル(i,j)に注目し(402)、全ての参照テクスチャ画像の中から、注目しているピクセル(i,j)の色情報を抽出する(403)。
【0034】
図7は、複数の参照テクスチャ画像からの、同一ピクセルの色情報の抽出を説明するための図である。前記(W×X)×(Y×Z)枚の参照テクスチャ画像から同一ピクセルの色成分を取り出して、それらを所定のフォーマットに合わせて1つのデータにまとめ、高次元ピクセルデータを生成する(404)。次に、生成した高次元ピクセルデータをコードブックに登録し、注目ピクセル(i,j)に対してインデックスを割り当てる(405)。以上の処理を全ピクセルに対して行ない(406)、参照高次元テクスチャ生成の処理を終了する。
【0035】
図8は本実施形態における高次元ピクセルデータの形式を説明するための図である。これは、横軸φI、縦軸θIとして並べたある特定視点における光源依存ピクセルデータをブロック化し、そのブロックを横軸θE、縦軸φEとして視点ごとに並べた形式である。参照テクスチャ画像が全てU×Vピクセルであった場合、参照高次元テクスチャ生成部101の入出力は以下のようになる。
【0036】
【表1】
【0037】
図9は参照高次元テクスチャ量子化部102における参照高次元テクスチャ量子化(302)のフローチャートである。まず、参照高次元テクスチャを入力し、R成分/G成分/B成分を別々に分割する(901)。次に、R成分/G成分/B成分いずれかの成分の参照高次元テクスチャを入力し(902)、量子化処理を開始する。量子化レベルqといったパラメータを用意し、初期値0からインクリメントしていく(903、907)。量子化レベルでは、コードブックサイズの指定を行ない、qの値が大きくなるほど、コードブックサイズを大きくする。コードブックサイズが参照テクスチャ画像のピクセル数と等しくなった量子化レベルで量子化処理を終了する(906)。参照テクスチャ画像のサイズが32×32ピクセルであった場合の、量子化レベルの設定方法の例を以下に示す。
【0038】
【表2】
【0039】
各量子化レベルにおける量子化処理は、一般によく知られたベクトル量子化(Vector Quantization:VQ)を利用すればよい。しかし本実施形態では、本装置に適した改良方式を用いることとする。すなわち、誤差ゼロのクラスタを固定する処理を追加した全探索ベクトル量子化(Full Search Vector Quantization:FSVQ)、もしくは木構造のコードブックを出力する木構造ベクトル量子化(Tree Structured Vector Quantization:TSVQ)である。前者の方式は、前処理として誤差ゼロのクラスタを固定してしまい、これを以後のクラスタ分割の対象には含めない。この方式によれば、全探索でありながらも、比較的短時間で目的の量子化レベルまで達することができる。一方、後者の方式は、木構造を成すようなクラスタ分割をしていくものである。この方式によって、前述の方式に比べて、量子化の精度が落ちる反面、短時間で量子化することができる。さらに、TSVQによって量子化を行なった場合には、後述するインデックス画像合成部においても処理時間に大きな効果をもたらす。
【0040】
量子化を行なった後、それぞれの量子化レベルにおける参照高次元テクスチャ、すなわち、インデックス画像とコードブックを出力する(905)。以上の処理をR成分/G成分/B成分に対して行ない(908)、参照高次元テクスチャ量子化の処理を終了する。
【0041】
参照高次元テクスチャ量子化部102が出力する量子化済み参照高次元テクスチャの構成を図10に示す。R成分/G成分/B成分が、それぞれ別々に、量子化レベルごとの参照高次元テクスチャを保持している。qが大きくなるほど、コードブックサイズが大きくなっており、参照高次元テクスチャが階層的に表現されている。
【0042】
図11はインデックス画像合成部103におけるインデックス画像合成(303)のフローチャートである。まず、パラメータを入力する(1101)。このパラメータは、参照テクスチャ画像サイズ、参照テクスチャ画像数(高次元ピクセルデータのサイズ)、参照高次元テクスチャ名(入力ファイル名)、新規テクスチャ画像サイズ、新規高次元テクスチャ名(出力ファイル名)、階層数H、各階層における量子化レベル(R成分/G成分/B成分)、各階層におけるスキャン回数Sh、各スキャンにおける書き換えブロックサイズ、各スキャンにおける近傍ブロックサイズを含む。
【0043】
次に、階層番号hを初期化(h=0)し、階層番号がH−1となるまで階層ごとのインデックス画像合成処理を行なう(1102、1111、1112)。各階層では、パラメータで指定された量子化レベルの参照高次元テクスチャを入力する(1103)。各階層における量子化レベルの指定は、R成分/G成分/B成分ごとに別々に行ない、階層番号が大きくなるほど指定する量子化レベルを大きくする。
【0044】
次に、入力した参照高次元テクスチャ内に存在する高次元ピクセルデータの類似性を計算する(1104)。この処理は、後述する類似ピクセル探索を行なう際に用いられる評価値を計算する処理を含む。入力した参照高次元テクスチャのインデックス画像に注目し、全通りのピクセルの組み合わせについて、インデックスが指し示す高次元ピクセルデータ間の類似性をSAD(Sum of Absolute Difference)、相関値、または内積を評価値として用いることによって評価する。なお、参照高次元テクスチャ量子化部102により、上述したTSVQによる量子化が行なわれた場合には、木構造を成すコードブックをなぞるだけで類似性を評価できるため、1104において計算を行なう必要は無い。
【0045】
次に、新規インデックス画像の初期画像として、参照インデックス画像に存在するインデックスをランダムに割り当てたノイズ画像を生成する(1105)。
【0046】
次に、スキャン番号sを初期化(s=0)し、スキャン番号がSh−1になるまで新規インデックス画像を繰り返しスキャンしながら、後述する類似ピクセル探索によるインデックスの書き換えを行なう(1106、1109、1110)。
【0047】
各スキャンにおける新規インデックス画像の合成(1107)では、新規インデックス画像を左上から右下に向かって、指定されたブロックサイズごとに書き換えていく。インデックスの書き換えには、類似ピクセル探索を用いる。類似ピクセル探索とは、書き換えるブロックの近傍ブロックを利用し、参照インデックス画像内に存在する同じ形状のブロックの中から、もっとも類似性の高いブロックを見つけることである。
【0048】
参照インデックス画像内に存在する同じ形状のブロックを全通り評価してもよいが、始めから候補をリストアップしておいてもよい。近傍ブロックの各ピクセルが参照している位置に対応するブロックを候補とし、その中から選出するという方法もある。近傍ブロックのピクセル数が20であった場合、候補は高々20個ということになり、効率よく探索することができる。
【0049】
類似ピクセル探索には、現在の階層hのデータだけではなく、1つ前の階層h−1のデータも用いる。1つ前の階層を用いることによって、1つ前の階層での処理を反映させることができ、精度が向上する。
【0050】
図12は類似ピクセル探索におけるブロックの選び方を説明する図である。類似ピクセル探索ではL字型探索(図12(a))もしくは方形探索(図12(b))のいずれかを行なう。図12の場合においては、書き換えブロック120のサイズを3×3ピクセル、近傍ブロック121のサイズを7×7ピクセルとしている。また、方形探索では7×7ピクセルの近傍ブロックの全てを利用して探索を行なうのに対して、L字型探索では、7×7ピクセルの近傍ブロックのうち既に書き換えが行なわれた部分のブロックを利用して探索を行なう。なお本実施形態の方形探索では、書き替え済みのブロックと書き替え済みでないブロックの両者からなるブロック122を用いる。
【0051】
図13は階層hにおける類似ピクセル探索を説明するための図である。h=0の時は、階層0でのL字型探索を行ない、その類似性だけで評価を行なう。また、h=0でない時は、階層hでのL字型探索と、階層h−1での方形探索を行ない、その類似性の合計によって評価を行なう。
【0052】
以上の処理では、各階層ごとに、あるいは各スキャンごとに、書き換えブロックサイズや近傍ブロックサイズを任意に変更できる。書き換えブロックサイズに関しては、これを下位の階層において拡大すれば、おおまかなテクスチャの特徴を捉えることができ、上位の階層において縮小すれば、細部のテクスチャの特徴を捉ることができる。計算時間に大きく影響する近傍ブロックサイズは、できるだけ小さいことが好ましい。全ての階層について全てのスキャンにより新規インデックス画像の合成が終了した後、その新規インデックス画像を出力する(1108)。
【0053】
次に、新規高次元テクスチャ生成部104における新規高次元テクスチャ生成(304)について説明する。新規高次元テクスチャ生成部104では、まず、インデックス画像合成部103から出力された新規インデックス画像と、参照高次元テクスチャ量子化部102から出力された様々な量子化レベルでのコードブックを入力する。次に、任意の階層で合成された新規インデックス画像と、任意の量子化レベルでのコードブックとを組み合わせることによって、新規高次元テクスチャを生成する。ただし、新規インデックス画像とコードブックとの量子化レベルが一致していれば、両者を組み合わせるだけであるが、一致していなければ、コードブックの量子化レベルに合わせて新規インデックス画像を書き換える必要がある。書き換えの際には、参照インデックス画像のどのピクセルを参照しているかを調べることによって、他の量子化レベルでインデックスと対応づける。
【0054】
新規高次元テクスチャ生成部104に様々な量子化レベルの新規高次元テクスチャを出力させることにより、ディテールのはっきりした鮮明な新規テクスチャ画像からおおまかな柄だけを再現したような粗い新規テクスチャ画像まで、様々なテクスチャ画像を生成することができる。
【0055】
次に、新規テクスチャ画像変換部105おける新規テクスチャ画像生成(305)について説明する。新規テクスチャ画像変換部105では、まず、新規高次元テクスチャを入力し、生成したい新規テクスチャ画像の視点/光源条件を与える。次に、ピクセルごとにインデックス画像内のインデックスからコードブックを参照し、指定された視点/光源条件の色情報を取り出し、新規テクスチャ画像を描画していく。すべてのピクセルを描画した後、新規テクスチャ画像を出力する。
【0056】
出力された新規テクスチャ画像は、3次元物体へのテクスチャマッピングに適用することができる。3次元物体の各ポリゴンの法線と、視点方向および光源方向との関係を計算し、対応する視点/光源に最も近い新規テクスチャ画像をマッピングすればよい。また、複数の新規テクスチャ画像を用いて補間することによって、よりリアルな画像を生成することもできる。ただし、ポリゴン単位でピクセルを描画するため、必ずしも新規テクスチャ画像を生成する必要はなく、新規高次元テクスチャからピクセルの色情報を抽出しながら描画することもできる。新規高次元テクスチャを用いてテクスチャマッピングすることによって、メモリを有効に活用することができる。
【0057】
(第2の実施形態)
図14は本発明の第2の実施形態に係る高次元テクスチャ合成装置の構成図である。まず概略構成を説明する。この装置は、第1の実施形態で示した装置に目標テクスチャを利用する処理を追加したものである。参照高次元テクスチャ生成部1401は、第1の実施形態で示した参照高次元テクスチャ生成部101と同様である。参照高次元テクスチャ量子化部1403は、第1の実施形態で示した参照高次元テクスチャ量子化部102に、目標インデックス画像生成部1404へのコードブックの出力処理を追加したものである。インデックス画像合成部1405は、第1の実施形態で示したインデックス画像合成部103と同様の構成であるが、類似ピクセル探索において目標インデックス画像を利用するように変更したものである。新規高次元テクスチャ生成部1406および新規テクスチャ画像変換部1407は、それぞれ第1の実施形態で示した新規高次元テクスチャ生成部104、新規テクスチャ画像変換部105と同様の構成である。本実施形態においては、目標高次元テクスチャ生成部1402と目標インデックス画像生成部1404の存在が、第1の実施形態と大きく異なる部分である。目標高次元テクスチャ生成部1402では、参照高次元テクスチャ生成部1401と同様に、1つ以上の目標テクスチャ画像から目標高次元テクスチャを生成する。また、目標インデックス画像生成部1404は、参照高次元テクスチャ量子化部1403から出力されたコードブックに対応するように、目標インデックス画像を生成する。
【0058】
図15は第2の実施形態の変形例に係る高次元テクスチャ合成装置の構成図である。この装置は、図14の装置から新規テクスチャ画像変換部1407を取り除いた構成を有し、第1の実施形態の図2で示した高次元テクスチャ合成装置と同様の用途に用いられる。すなわち、最終的な出力画像として、新規テクスチャ画像を出力する。
【0059】
図16は図14に示される第2の実施形態の高次元テクスチャ合成装置により実現される一連の処理を示す図である。以下、この一連の処理について、第1の実施形態と異なる部分に絞って説明する。本実施形態では、目標高次元テクスチャ生成部1402に、複数の異なる条件で取得あるいは作成された1つ以上の目標テクスチャ画像を入力する。目標テクスチャ画像のサイズは、要求する新規テクスチャ画像サイズと等しいものとする。
【0060】
目標高次元テクスチャ生成部1402では、図4に示したものと同様のフローチャートに従って目標高次元テクスチャを生成する。ただし、高次元ピクセルデータのフォーマットは参照高次元テクスチャ生成部1401と同様のものとし、視点/光源の位置に対応した高次元ピクセルデータのそれぞれの部分に、それぞれの視点/光源の位置で目標とする目標テクスチャ画像の色情報を書き込む。目標のない視点/光源の位置には、データを書き込まない。
【0061】
目標インデックス画像生成部1404では、まず、目標高次元テクスチャと、参照高次元テクスチャ量子化部1403で生成されたコードブックとを入力する。次に、目標高次元テクスチャのコードブックを参照高次元テクスチャのコードブックに置き換え、インデックスの書き換えを行なう。インデックスを書き換える際には、目標高次元テクスチャ生成器1402で生成された高次元ピクセルデータとコードブック内の高次元ピクセルデータとを比較し、もっとも類似性の高い高次元ピクセルデータに対応するインデックスを割り当てる。ただし、類似性の評価では、目標のない視点/光源の位置は比較対象に含めず、SAD(Sum of Absolute Difference)、相関値、または内積によって評価を行なう。以上のような処理を参照高次元テクスチャ量子化部1403から入力される量子化レベルに応じた複数のコードブックに対して行ない、各量子化レベルに応じた目標インデックス画像を出力する。
【0062】
インデックス画像合成部1405では、第1の実施形態で示したインデックス画像合成部103と同様の処理に加え、目標インデックス画像を入力する処理と、目標インデックス画像を利用した類似ピクセル探索処理とが行なわれる。
【0063】
図17は階層hにおける類似ピクセル探索を説明するための図である。目標インデックス画像は、階層hにおける量子化レベルのものが用いられる。ここでは、h=0の時は、階層0での方形探索を行ない、その類似性だけで評価を行なう。また、h=0でない時は、階層hでの方形探索と階層h−1での方形探索を行ない、その類似性の合計によって評価を行なう。階層hでは、図12(d)に示すような方形探索を行なう。方形ブロックの中で、書き換え済みのブロック1221に関しては、新規インデックス画像のブロックを利用し、書き換え済みでないブロック1222に関しては、目標インデックス画像を利用する。階層h−1では、図12(c)に示すような方形探索を行なう。他の部分の処理方法は、第1の実施形態で説明したものと同様である。
【0064】
(第3の実施形態)
本実施形態は、第1の実施形態および第2の実施形態におけるインデックス画像合成部を変更したものである。まず概略構成を説明する。本実施形態の高次元テクスチャ合成装置は、第1の実施形態で述べた図1の装置、または第2の実施形態で述べた図14の装置とほぼ同様の構成であり、インデックス画像合成部を除く他の構成要素は、第1の実施形態または第2の実施形態と同じ機能を持つ。図18はこのインデックス画像合成部におけるインデックス画像合成のフローチャートである。本実施形態に係るインデックス画像合成部では、まずパラメータを入力する(1801)。本装置は、各階層ごとにスキャンをするものではないため、1つのスキャン回数Sを設定するだけでよい。それ以外のパラメータは第1の実施形態または第2の実施形態と同様である。
【0065】
次に、全階層の参照インデックス画像と量子化誤差を入力する(1802)。本装置では、1つの新規インデックス画像を合成するために、量子化誤差が異なる2つ以上の参照インデックス画像を用いる。また、近似的な類似性評価を行なうために、各階層の量子化誤差を用いる。また、目標インデックス画像が存在する場合には、目標インデックス画像も入力する。
【0066】
次に、新規インデックス画像の初期画像を生成する(1803)。これは、第1の実施形態または第2の実施形態と同様のノイズ画像とする。
【0067】
次に、スキャン番号sを初期化(s=0)し、スキャン番号がS−1となるまで、新規インデックス画像を繰り返しスキャンしながら、後述する類似ピクセル探索によるインデックスの書き換えを行なう(1804、1808,1808)。
【0068】
各スキャンにおける新規インデックス画像の合成(1805)では、新規インデックス画像を左上から右下に向かって、指定されたブロックサイズごとに書き換えていく。インデックスの書き換えでは、入力した参照インデックス画像の中で最上位(量子化誤差が最も小さい)のものを参照しながら、類似ピクセル探索を行なう。探索の方法は第1の実施形態ならびに第2の実施形態と同様であり、評価の方法が異なる。本実施形態における類似ピクセル探索では、量子化誤差の異なる2つ以上の参照インデックス画像の階層性を利用して評価を行なう。ピクセルの類似性評価の具体例を図19に示す。書き換えるブロックの近傍ブロック(L字型もしくは方形)と、参照インデックス画像もしくは目標インデックス画像中の同じ形状のブロックとの類似性を評価するために、上位階層の参照インデックス画像もしくは目標インデックス画像から順に参照していく。比較している2つのブロック中のあるピクセルのインデックスが、ある階層で初めて一致した場合、その階層の量子化誤差を、そのピクセルにおける近似的な誤差であるとする。このような近似的な誤差をブロック中の全ピクセルに対して求め、ブロックの類似性を評価する。各スキャンにおける新規インデックス画像の合成が終了した後、その新規インデックス画像を出力する(1806)。
【0069】
以上説明した本発明の実施形態によれば、視点方向または光源方向などの条件によって変化するテクスチャ画像を用いて、任意サイズの新規テクスチャ画像を合成することができる。第1の実施形態で述べた装置によれば、参照テクスチャ画像の特性をそのまま再現したものを合成することができ、第2の実施形態で述べた装置によれば、目標テクスチャ画像に近い柄や模様を保持しつつ、かつ参照テクスチャ画像の特性を再現したような新規テクスチャ画像を合成することができる。また第3の実施形態で述べた装置によれば、高次元ピクセルデータを用いた計算を可能な限り省くことができ、データ量や計算時間において効率的であり、しかも合成の精度を維持することができる。また、上述した高次元テクスチャのデータ構造によれば、高次元のテクスチャ画像データを効率よく保持することができ、効率的なテクスチャマッピングを実現することができる。
【0070】
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
【0071】
例えば、複数の異なる条件で取得あるいは作成した1つ以上の画像、映像、音声などのマルチメディアデータを利用し、それぞれの条件に対応した任意サイズあるいは任意時間長のマルチメディアデータを合成する装置に本発明を適用することもできる。この高次元マルチメディアデータ合成装置は、1つ以上のマルチメディアデータから、同一の位置あるいは同一の時間のデータを取り出してまとめ、高次元マルチメディアデータを生成する高次元マルチメディアデータ生成部と、高次元マルチメディアデータを、1つ以上の量子化レベルで量子化する高次元マルチメディアデータ量子化部と、量子化レベルに応じた高次元マルチメディアデータの階層性を利用して、量子化インデックスの空間的あるいは時間的な配列を、任意サイズあるいは任意時間長の配列に合成するインデックス合成部と、インデックス合成部で合成された新規インデックスデータと、高次元マルチメディアデータ量子化部で生成されたコードブックとを合わせて、新規高次元マルチメディアデータを生成する新規高次元マルチメディアデータ生成部と、を備える。
【0072】
【発明の効果】
本発明によれば、視点方向および光源方向に応じて変化する物体表面の光学的特性をリアルに表現することのできる任意サイズのテクスチャ画像を大量のテクスチャ画像データから効率的に合成することのできる高次元テクスチャ合成装置、方法、およびプログラムを提供できる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る高次元テクスチャ合成装置の構成図
【図2】第1の実施形態の変形例に係る高次元テクスチャ合成装置の構成図
【図3】第1の実施形態に係る高次元テクスチャ合成装置により実現される一連の処理を示す図
【図4】参照高次元テクスチャおよび目標高次元テクスチャ生成のフローチャート
【図5】様々な条件(視点/光源)におけるテクスチャ画像の取得方法を説明するための図
【図6】高次元テクスチャのデータ構造の一例を示す図
【図7】複数の参照テクスチャ画像からの、同一ピクセルの色情報の抽出を説明するための図
【図8】高次元ピクセルデータの形式を示す図
【図9】参照高次元テクスチャ量子化のフローチャート
【図10】階層化された高次元テクスチャの構成を示す図
【図11】インデックス画像合成のフローチャート
【図12】類似ピクセル探索を説明するための図
【図13】階層hにおける類似ピクセル探索を説明するための図
【図14】本発明の第2の実施形態に係る高次元テクスチャ合成装置の構成図
【図15】第2の実施形態の変形例に係る高次元テクスチャ合成装置の構成図
【図16】第2の実施形態に係る高次元テクスチャ合成装置により実現される一連の処理を示す図
【図17】階層hにおける類似ピクセル探索を説明するための図
【図18】本発明の第3の実施形態に係るインデックス画像合成のフローチャート
【図19】ピクセルの類似性評価を説明するための図
【符号の説明】
101…参照高次元テクスチャ、102…参照高次元テクスチャ量子化部、103…インデックス画像合成部、104…新規高次元テクスチャ生成部、105…新規テクスチャ画像変換部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention belongs to an image synthesis technique suitable for high-quality texture mapping in the field of three-dimensional computer graphics, and, from a large number of texture images that change according to conditions such as a viewpoint direction and a light source direction, an arbitrary size corresponding to these conditions. The present invention relates to an apparatus, a method, and a program for synthesizing a texture image. The present invention also relates to a data structure for efficiently storing and managing a large number of texture images on various recording media.
[0002]
[Prior art]
The appearance of the three-dimensional object, that is, the shape and the color and texture of the surface of the three-dimensional object change depending on the direction in which the three-dimensional object is viewed (viewpoint direction) and the direction in which light is emitted (light source direction). In the field of three-dimensional computer graphics, the surface of a three-dimensional object is divided into a number of two-dimensional plane units called polygons, and a drawing is performed for each polygon to generate a two-dimensional image. And
[0003]
The appearance of the three-dimensional object when the viewpoint direction and the light source direction change is expressed by changing the orientation of the display polygon (three-dimensional posture) and the optical characteristics (luminance and the like) of the polygon together with the viewpoint direction and the light source direction. be able to. However, conventionally, in order to calculate the relationship between a normal defining the orientation (three-dimensional orientation) of a polygon, which is a unit of drawing, and a viewpoint direction or a light source direction, a vector operation with floating-point precision is indispensable. The operation cost is high from both viewpoints of hardware and software, and practical use has been difficult. Therefore, a drawing method called flat shading that uniformly fills the inside of the polygon with the color set for each vertex of the polygon, and the color inside the polygon by monotonous linear interpolation based on the color set for each vertex of the polygon There is a case where a drawing technique called smooth shading is used.
[0004]
For a request to represent details inside a polygon such as a pattern or a pattern, a technique called texture mapping is used. Texture mapping is an image processing technique for arranging (mapping) an image (texture image) representing a pattern or pattern on the surface of a polygon. Controls the orientation of the texture image by defining the corresponding image coordinates in the texture image in units of vertices that make up the polygon, and uses the actual mapping image for the texture image, etc. The improvements enabled higher quality rendering. However, even if such an improvement is made, this texture mapping cannot be performed to express the optical characteristics of the object surface that should be changed according to the viewpoint direction or the light source direction. This is because a single texture image is pasted regardless of the three-dimensional posture of the polygon.
[0005]
In order to express the optical characteristics of the surface of an object, several improved methods have been proposed in the past, but as described below, each of these improved methods has its own problems.
[0006]
(1) There is a method of changing optical details by artificially changing normal details of the object surface. Although there is a technique called bump mapping, there is a problem that a three-dimensional vector calculation such as a normal deviation calculation is required, and the calculation cost is high.
[0007]
(2) In general, a texture component on the surface of a polygon expressed in accordance with a line-of-sight direction and a light source direction is called a BTF (Bi-directional Texture Function) (see Non-Patent
[0008]
(3) As a method of approximating a luminance change depending on a light source direction and a viewpoint direction by a function, a method called PTM (Polynomical Texture Mapping) has been proposed (see
[0009]
(4) On the other hand, as a method of generating an image according to the viewpoint direction, image-based techniques such as Light Field Rendering (see
[0010]
In the conventional texture mapping, when the size of the texture image is smaller than the size of the surface of the three-dimensional object, the mapping is performed while repeatedly arranging the texture images. However, in this method, the pattern or pattern of the texture image appears as a monotonous repetitive pattern, or the boundary line becomes conspicuous. This gives the observer an unnatural impression.
[0011]
Therefore, in recent years, a method of synthesizing a texture image of an arbitrary size from a small texture image has been proposed (see Non-Patent
[0012]
However, such a conventional texture image synthesizing technique simply synthesizes a single texture image, and cannot combine and synthesize a large number of texture images for multiple viewpoints / multiple light sources.
[0013]
[Patent Document 1]
U.S. Pat. No. 6,297,834
[0014]
[Patent Document 2]
U.S. Pat. No. 6,097,394
[0015]
[Non-patent document 1]
Dana, et. al, "Reflectance and Texture of Real World Surfaces", ACM Transaction on Graphics, 18 (1): 1-334, 1999.
[0016]
[Non-patent document 2]
Chen, et. al, "Light Field Mapping Efficient Representation and Hardware Rendering of Surface Light Fields", Procedings SIGGRAPH 2002, pp. 447-456.
[0017]
[Non-Patent Document 3]
Levoy, et. al, "Light Field Rendering", Proceedings SIGGRAPH 1996, pp. 31-42.
[0018]
[Non-patent document 4]
Gortler, et. al, "The Lumigraph", Proceedings SIGGRAPH 1996, pp. 43-54.
[0019]
[Non-Patent Document 5]
Li-Yi Wei, Marc Levoy, "Fast Texture Synthesis Using Tree-structured Vector Quantization", Proceedings SIGGRAPH 2000, pp. 197 479-488.
[0020]
[Non-Patent Document 6]
Michael Ashkimmin, "Synthesizing Natural Textures", 2001 ACM Symposium on Interactive 3D Graphics, pp. 217-226.
[0021]
[Problems to be solved by the invention]
As described above, when the optical characteristics of the object surface that change according to the viewpoint direction and the light source direction are expressed by texture, a large number of texture images with different viewpoint directions and light source directions are required, and the amount of computation is large. Will also be huge. A practical system that solves such a problem has not been provided so far. Also, since there is no texture synthesis method that handles a large number of texture images at once, it is necessary to realistically express the optical characteristics of the object surface when changing the texture image of any size according to the viewpoint direction and the light source direction. I can't do that either.
[0022]
In view of the above, an object of the present invention is to efficiently synthesize a texture image of an arbitrary size capable of realistically expressing an optical characteristic of an object surface that changes according to a viewpoint direction and a light source direction from a large amount of texture image data. And It is another object of the present invention to provide a data structure of a high-dimensional texture that enables efficient calculation in texture mapping.
[0023]
[Means for Solving the Problems]
A high-dimensional texture synthesizing apparatus according to one aspect of the present invention uses one or more texture images acquired or created under a plurality of different conditions, and generates a texture image of an arbitrary size corresponding to each of the plurality of different conditions. This is a high-dimensional texture synthesis device that synthesizes a new high-dimensional texture to be generated. This apparatus inputs the one or more texture images as a reference texture image, extracts and summarizes color information of the same pixel, generates a reference high-dimensional texture, and generates the reference high-dimensional texture. A reference high-dimensional texture quantization unit that quantizes at one or more quantization levels and generates a codebook; and an index of the reference texture image according to a hierarchy of the reference high-dimensional texture corresponding to the quantization level. An index image synthesizing unit for synthesizing a new index image having an arbitrary image size from the imaged reference index image, a new index image synthesized by the index image synthesizing unit, and the reference high-dimensional texture quantization unit. Combine with the generated codebook Comprising Align Te, and new high-order texture generation means for generating a new high-dimensional texture, the.
[0024]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0025]
(1st Embodiment)
FIG. 1 is a configuration diagram of a high-dimensional texture synthesis device according to the first embodiment of the present invention. First, the schematic configuration will be described. This apparatus receives one or more reference texture images acquired or created under a plurality of different conditions, extracts and collects color information of the same pixel, and generates a reference high-dimensional texture. And a reference high-dimensional
[0026]
An index image synthesizing unit 103 that inputs a quantized reference high-dimensional texture and repeats similar pixel search based on the quantized reference high-dimensional texture to synthesize a new index image of an arbitrary size. The details of the method of synthesizing the new index image will be described later.
[0027]
Further, a new index image generated by the index image synthesizing unit 103 and a codebook generated by the reference high-dimensional
[0028]
FIG. 2 is a configuration diagram of a high-dimensional texture synthesizing device according to a modification of the first embodiment. This device has a configuration in which the new texture
[0029]
FIG. 3 is a diagram showing a series of processing realized by the high-dimensional texture synthesis device according to the first embodiment. Hereinafter, each of the series of processes will be described in detail.
[0030]
FIG. 4 is a flowchart of reference high-dimensional texture generation (301) in the reference high-dimensional
[0031]
FIG. 5 is a diagram for explaining a method of acquiring a texture image under various conditions (viewpoint / light source). A spherical polar coordinate system in which the surface of the imaging object is an equatorial plane (a plane passing through the equator) with the normal vector of the surface of the imaging object as an axis is considered. In this coordinate system, when the polar angle θ and the azimuth angle φ are used, the multi-viewpoint / multi-light source texture image prepared in advance as input data is in the viewpoint direction (θ E , Φ E ), Light source direction (θ I , Φ I ) Can be specified. Therefore, in the present embodiment, a texture image acquired from a specific viewpoint / light source is represented by T (θ E , Φ E , Θ I , Φ I ). In the present embodiment, the sample in the viewpoint direction is θ E W axis on the axis of φ E And X in the axis of I Y axis, φ I Axis is Z. Therefore, (W × X) × (Y × Z) texture images acquired by all combinations of the W × X viewpoint and the Y × Z light source are input as reference texture images.
[0032]
The processing (402) and subsequent steps in FIG. 4 include repetitive processing for generating a reference high-dimensional texture. FIG. 6 shows an example of the data structure of the high-dimensional texture. The high-dimensional texture is composed of a code book and an index image. The codebook is composed of a group of data (described later) called high-dimensional pixel data, and the index image is composed of a group of index information for specifying high-dimensional pixel data in the codebook. In the present embodiment, an index image and a code book are created for each of the color components of the R component / G component / B component. Note that a high-dimensional texture that handles all of the RGB components collectively, a high-dimensional texture in which a luminance component and a color component are separated, and the like can be similarly created. The high-dimensional pixel data is a collection of color information on a certain pixel, and the high-dimensional pixel data of the R component / G component / B component is R (l), G (m), and B (n), respectively. . These are high-dimensional pixel data corresponding to the indices l, m, and n, respectively. The codebook sizes of the R component / G component / B component shown in FIG. 5 are L, M, and N, respectively. The larger the codebook size, the more diverse the high-dimensional pixel data.
[0033]
The reference high-dimensional texture is generated in the following procedure. Attention is paid to a certain pixel (i, j) of the reference texture image (402), and color information of the attention pixel (i, j) is extracted from all the reference texture images (403).
[0034]
FIG. 7 is a diagram for describing extraction of color information of the same pixel from a plurality of reference texture images. The color components of the same pixel are extracted from the (W × X) × (Y × Z) reference texture images, and are combined into one data according to a predetermined format to generate high-dimensional pixel data (404). ). Next, the generated high-dimensional pixel data is registered in the code book, and an index is assigned to the target pixel (i, j) (405). The above process is performed for all pixels (406), and the process of generating the reference high-dimensional texture is completed.
[0035]
FIG. 8 is a diagram for explaining the format of high-dimensional pixel data in the present embodiment. This is the horizontal axis φ I , The vertical axis θ I The light source dependent pixel data at a specific viewpoint arranged as a block is divided into blocks, and the block is represented by a horizontal axis θ. E , Vertical axis φ E It is a format arranged for each viewpoint. When all the reference texture images are U × V pixels, the input and output of the reference high-dimensional
[0036]
[Table 1]
[0037]
FIG. 9 is a flowchart of the reference high-dimensional texture quantization (302) in the reference high-dimensional
[0038]
[Table 2]
[0039]
The quantization processing at each quantization level may use generally well-known vector quantization (Vector Quantization: VQ). However, in this embodiment, an improved method suitable for the present apparatus is used. That is, full search vector quantization (FSVQ) to which a process of fixing a cluster with zero error is added, or tree structure vector quantization (TSVQ) that outputs a tree-structured codebook. is there. In the former method, a cluster having zero error is fixed as preprocessing, and this is not included in the subsequent cluster division. According to this method, it is possible to reach the target quantization level in a relatively short time, even though the entire search is performed. On the other hand, the latter method is to perform cluster division so as to form a tree structure. According to this method, although the precision of the quantization is reduced as compared with the above-described method, the quantization can be performed in a short time. Further, when the quantization is performed by the TSVQ, a great effect is brought about on the processing time in the index image synthesizing section described later.
[0040]
After the quantization, a reference high-dimensional texture at each quantization level, that is, an index image and a codebook are output (905). The above process is performed on the R component / G component / B component (908), and the process of reference high-dimensional texture quantization is completed.
[0041]
FIG. 10 shows the configuration of the quantized reference high-dimensional texture output from the reference high-dimensional
[0042]
FIG. 11 is a flowchart of the index image synthesis (303) in the index image synthesis unit 103. First, parameters are input (1101). The parameters are: reference texture image size, reference texture image number (high-dimensional pixel data size), reference high-dimensional texture name (input file name), new texture image size, new high-dimensional texture name (output file name), hierarchy It includes the number H, the quantization level (R component / G component / B component) in each layer, the number of scans Sh in each layer, the rewritten block size in each scan, and the neighboring block size in each scan.
[0043]
Next, the layer number h is initialized (h = 0), and the index image combining process is performed for each layer until the layer number becomes H-1 (1102, 1111, 1112). In each layer, a reference high-dimensional texture of a quantization level specified by a parameter is input (1103). The quantization level in each layer is specified separately for each of the R component / G component / B component, and the specified quantization level increases as the layer number increases.
[0044]
Next, the similarity of the high-dimensional pixel data existing in the input reference high-dimensional texture is calculated (1104). This process includes a process of calculating an evaluation value used when performing a similar pixel search described later. Paying attention to the index image of the input reference high-dimensional texture, for all combinations of pixels, the similarity between the high-dimensional pixel data indicated by the index is determined as SAD (Sum of Absolute Difference), the correlation value, or the inner product as the evaluation value. Evaluate by using. When the reference high-dimensional
[0045]
Next, a noise image to which an index existing in the reference index image is randomly assigned is generated as an initial image of the new index image (1105).
[0046]
Next, the scan number s is initialized (s = 0), and while the new index image is repeatedly scanned until the scan number becomes Sh-1, the index is rewritten by a similar pixel search described later (1106, 1109, 1110).
[0047]
In synthesizing a new index image in each scan (1107), the new index image is rewritten from the upper left to the lower right for each designated block size. To rewrite the index, a similar pixel search is used. The similar pixel search is to find a block having the highest similarity from blocks of the same shape existing in the reference index image by using a block near the block to be rewritten.
[0048]
Although all blocks of the same shape existing in the reference index image may be evaluated, candidates may be listed from the beginning. There is also a method in which a block corresponding to a position referred to by each pixel of a neighboring block is set as a candidate and selected from the candidates. If the number of pixels in the neighboring block is 20, the number of candidates is at most 20, and it is possible to search efficiently.
[0049]
The similar pixel search uses not only the data of the current layer h but also the data of the immediately preceding layer h-1. By using the immediately preceding layer, the processing in the immediately preceding layer can be reflected, and the accuracy is improved.
[0050]
FIG. 12 is a diagram for explaining how to select a block in a similar pixel search. In the similar pixel search, either an L-shaped search (FIG. 12A) or a square search (FIG. 12B) is performed. In the case of FIG. 12, the size of the
[0051]
FIG. 13 is a diagram for explaining a similar pixel search in the hierarchy h. When h = 0, an L-shaped search is performed in the
[0052]
In the above processing, the rewrite block size and the neighboring block size can be arbitrarily changed for each layer or for each scan. Regarding the rewrite block size, if it is expanded in a lower layer, rough texture characteristics can be captured, and if it is reduced in an upper layer, fine texture characteristics can be captured. It is preferable that the neighboring block size that greatly affects the calculation time is as small as possible. After the synthesis of the new index image is completed by all scans for all layers, the new index image is output (1108).
[0053]
Next, generation of a new high-dimensional texture (304) in the new high-dimensional
[0054]
By causing the new high-dimensional
[0055]
Next, generation of a new texture image (305) in the new texture
[0056]
The output new texture image can be applied to texture mapping to a three-dimensional object. The relationship between the normal line of each polygon of the three-dimensional object, the viewpoint direction and the light source direction may be calculated, and the new texture image closest to the corresponding viewpoint / light source may be mapped. Further, by interpolating using a plurality of new texture images, a more realistic image can be generated. However, since pixels are drawn in units of polygons, it is not always necessary to generate a new texture image, and drawing can be performed while extracting pixel color information from a new high-dimensional texture. By performing texture mapping using the new high-dimensional texture, the memory can be effectively used.
[0057]
(Second embodiment)
FIG. 14 is a configuration diagram of a high-dimensional texture synthesizing apparatus according to the second embodiment of the present invention. First, the schematic configuration will be described. This device is obtained by adding a process using a target texture to the device described in the first embodiment. The reference high-dimensional
[0058]
FIG. 15 is a configuration diagram of a high-dimensional texture synthesizing device according to a modification of the second embodiment. This device has a configuration in which the new texture
[0059]
FIG. 16 is a diagram showing a series of processing realized by the high-dimensional texture synthesizing device of the second embodiment shown in FIG. Hereinafter, this series of processes will be described focusing on portions different from those of the first embodiment. In the present embodiment, one or more target texture images acquired or created under a plurality of different conditions are input to the target high-dimensional
[0060]
The target high-dimensional
[0061]
First, the target index image generation unit 1404 receives the target high-dimensional texture and the codebook generated by the reference high-dimensional
[0062]
The index image synthesizing unit 1405 performs a process of inputting a target index image and a similar pixel search process using the target index image, in addition to the same processes as those of the index image synthesizing unit 103 described in the first embodiment. .
[0063]
FIG. 17 is a diagram for explaining a similar pixel search in the hierarchy h. As the target index image, the one at the quantization level in the hierarchy h is used. Here, when h = 0, a rectangular search is performed in the
[0064]
(Third embodiment)
This embodiment is obtained by changing the index image combining unit in the first embodiment and the second embodiment. First, the schematic configuration will be described. The high-dimensional texture synthesizing device of the present embodiment has substantially the same configuration as the device of FIG. 1 described in the first embodiment or the device of FIG. 14 described in the second embodiment. Except for the other components, the components have the same functions as those of the first embodiment or the second embodiment. FIG. 18 is a flowchart of the index image composition in the index image composition unit. In the index image synthesizing unit according to the present embodiment, first, parameters are input (1801). Since the present apparatus does not perform scanning for each layer, it is only necessary to set one scan count S. Other parameters are the same as in the first embodiment or the second embodiment.
[0065]
Next, a reference index image and a quantization error of all layers are input (1802). In the present apparatus, two or more reference index images having different quantization errors are used to synthesize one new index image. Further, in order to perform an approximate similarity evaluation, a quantization error of each layer is used. If the target index image exists, the target index image is also input.
[0066]
Next, an initial image of the new index image is generated (1803). This is a noise image similar to that of the first embodiment or the second embodiment.
[0067]
Next, the scan number s is initialized (s = 0), and the new index image is repeatedly scanned until the scan number becomes S-1, and the index is rewritten by a similar pixel search described later (1804, 1808). , 1808).
[0068]
In the synthesis of the new index image in each scan (1805), the new index image is rewritten from the upper left to the lower right for each designated block size. In rewriting the index, a similar pixel search is performed while referring to the highest-order (the smallest quantization error) image among the input reference index images. The search method is the same as the first embodiment and the second embodiment, and the evaluation method is different. In the similar pixel search according to the present embodiment, evaluation is performed by using the hierarchy of two or more reference index images having different quantization errors. FIG. 19 shows a specific example of the pixel similarity evaluation. In order to evaluate the similarity between a block (L-shaped or rectangular) near the block to be rewritten and a block of the same shape in the reference index image or the target index image, refer to the reference index image or the target index image in the upper hierarchy in order. I will do it. If the index of a certain pixel in two blocks being compared matches for the first time in a certain layer, the quantization error of that layer is assumed to be an approximate error in that pixel. Such an approximate error is obtained for all pixels in the block, and the similarity of the blocks is evaluated. After the synthesis of the new index image in each scan is completed, the new index image is output (1806).
[0069]
According to the embodiment of the present invention described above, a new texture image having an arbitrary size can be synthesized using a texture image that changes depending on conditions such as a viewpoint direction or a light source direction. According to the device described in the first embodiment, it is possible to synthesize a reproduction of the characteristics of the reference texture image as it is, and according to the device described in the second embodiment, a pattern or a pattern close to the target texture image is obtained. A new texture image that reproduces the characteristics of the reference texture image while retaining the pattern can be synthesized. Further, according to the apparatus described in the third embodiment, it is possible to reduce the calculation using high-dimensional pixel data as much as possible, to be efficient in the amount of data and calculation time, and to maintain the accuracy of synthesis. Can be. According to the data structure of the high-dimensional texture described above, high-dimensional texture image data can be held efficiently, and efficient texture mapping can be realized.
[0070]
Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying constituent elements in an implementation stage without departing from the scope of the invention. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Further, components of different embodiments may be appropriately combined.
[0071]
For example, a device that synthesizes multimedia data of an arbitrary size or an arbitrary time length corresponding to each condition using one or more multimedia data such as images, videos, and sounds acquired or created under a plurality of different conditions. The present invention can also be applied. The high-dimensional multimedia data synthesizing device extracts high-dimensional multimedia data from one or more pieces of multimedia data at the same position or at the same time, and generates high-dimensional multimedia data. A high-dimensional multimedia data quantization unit that quantizes high-dimensional multimedia data at one or more quantization levels, and a quantization index using a hierarchy of the high-dimensional multimedia data according to the quantization level. An index synthesizing unit that synthesizes a spatial or temporal array into an array of an arbitrary size or time length, new index data synthesized by the index synthesizing unit, and a high-dimensional multimedia data generated by a quantization unit. New high-order to generate new high-dimensional multimedia data in combination with codebook Comprising a multimedia data generation unit.
[0072]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, the texture image of arbitrary sizes which can express the optical characteristic of the object surface which changes according to a viewpoint direction and a light source direction realistically can be efficiently synthesize | combined from a large amount of texture image data. A high-dimensional texture synthesis device, method, and program can be provided.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a high-dimensional texture synthesis device according to a first embodiment of the present invention.
FIG. 2 is a configuration diagram of a high-dimensional texture synthesizing apparatus according to a modification of the first embodiment.
FIG. 3 is a diagram showing a series of processing realized by the high-dimensional texture synthesis device according to the first embodiment;
FIG. 4 is a flowchart of generating a reference high-dimensional texture and a target high-dimensional texture.
FIG. 5 is a diagram for explaining a method of acquiring a texture image under various conditions (viewpoints / light sources).
FIG. 6 is a diagram illustrating an example of a data structure of a high-dimensional texture.
FIG. 7 is a view for explaining extraction of color information of the same pixel from a plurality of reference texture images.
FIG. 8 is a diagram showing a format of high-dimensional pixel data.
FIG. 9 is a flowchart of reference high-dimensional texture quantization.
FIG. 10 is a diagram showing a configuration of a hierarchized high-dimensional texture.
FIG. 11 is a flowchart of index image synthesis.
FIG. 12 is a view for explaining a similar pixel search.
FIG. 13 is a view for explaining a similar pixel search in a layer h.
FIG. 14 is a configuration diagram of a high-dimensional texture synthesis device according to a second embodiment of the present invention.
FIG. 15 is a configuration diagram of a high-dimensional texture synthesis device according to a modification of the second embodiment.
FIG. 16 is a diagram showing a series of processing realized by the high-dimensional texture synthesis device according to the second embodiment.
FIG. 17 is a view for explaining a similar pixel search in the hierarchy h.
FIG. 18 is a flowchart of index image synthesis according to the third embodiment of the present invention.
FIG. 19 is a view for explaining pixel similarity evaluation;
[Explanation of symbols]
101: Reference high-dimensional texture, 102: Reference high-dimensional texture quantization unit, 103: Index image synthesis unit, 104: New high-dimensional texture generation unit, 105: New texture image conversion unit
Claims (21)
前記1つ以上のテクスチャ画像を参照テクスチャ画像として入力し、同一ピクセルの色情報を取り出してまとめ、参照高次元テクスチャを生成する参照高次元テクスチャ生成手段と、
前記参照高次元テクスチャを1つ以上の量子化レベルで量子化するとともにコードブックを生成する参照高次元テクスチャ量子化手段と、
前記量子化レベルに対応する前記参照高次元テクスチャの階層性に従って、前記参照テクスチャ画像のインデックスを画像化してなる参照インデックス画像から、任意の画像サイズを有する新規インデックス画像を合成するインデックス画像合成手段と、
前記インデックス画像合成手段により合成された新規インデックス画像と、前記参照高次元テクスチャ量子化手段により生成されたコードブックとを組み合わせて、新規高次元テクスチャを生成する新規高次元テクスチャ生成手段と、
を備える高次元テクスチャ合成装置。A high-dimensional texture combining one or more texture images acquired or created under a plurality of different conditions and synthesizing a new high-dimensional texture for generating a texture image of an arbitrary size corresponding to each of the plurality of different conditions A synthesizer,
A reference high-dimensional texture generating means for inputting the one or more texture images as a reference texture image, extracting and combining color information of the same pixel, and generating a reference high-dimensional texture;
A reference high-dimensional texture quantization means for quantizing the reference high-dimensional texture at one or more quantization levels and generating a codebook;
An index image synthesizing means for synthesizing a new index image having an arbitrary image size from a reference index image obtained by imaging the index of the reference texture image according to the hierarchy of the reference high-dimensional texture corresponding to the quantization level; ,
A new high-dimensional texture generating means for generating a new high-dimensional texture by combining the new index image synthesized by the index image synthesizing means and the codebook generated by the reference high-dimensional texture quantizing means;
A high-dimensional texture synthesis device comprising:
前記参照高次元テクスチャ量子化手段により生成されたコードブックを用いて、前記目標高次元テクスチャを量子化し、目標インデックス画像を生成する目標インデックス画像生成手段と、をさらに具備し、
前記インデックス画像合成手段は前記目標インデックス画像を用いる請求項1乃至10のいずれかに記載の高次元テクスチャ合成装置。A target high-dimensional texture generation means for inputting one or more texture images acquired or created under a plurality of different conditions as a target texture image, extracting and combining color information of the same pixel, and generating a target high-dimensional texture;
A target index image generation unit that quantizes the target high-dimensional texture using a codebook generated by the reference high-dimensional texture quantization unit and generates a target index image;
The high-dimensional texture synthesizing apparatus according to claim 1, wherein the index image synthesizing unit uses the target index image.
類似ピクセル探索においては、新規インデックス画像の合成に用いている参照インデックス画像よりも、下位階層の参照インデックス画像を利用し、近傍ブロックのインデックスが、下位階層において初めて一致する階層の量子化誤差を近似的な評価値とする請求項11乃至14のいずれかに記載の高次元テクスチャ合成装置。The index image synthesizing unit receives a reference high-dimensional texture at two or more arbitrary quantization levels from the reference high-dimensional texture quantization unit, and uses a hierarchy according to the quantization level to generate a new image having an arbitrary size. Generate an index image,
In the similar pixel search, the reference index image of the lower layer is used rather than the reference index image used for synthesizing the new index image, and the index of the neighboring block approximates the quantization error of the layer in which the lower layer matches for the first time. The high-dimensional texture synthesizing apparatus according to claim 11, wherein the evaluation value is a typical evaluation value.
前記1つ以上のテクスチャ画像を参照テクスチャ画像として入力し、同一ピクセルの色情報を取り出してまとめ、参照高次元テクスチャを生成する参照高次元テクスチャ生成ステップと、
前記参照高次元テクスチャを1つ以上の量子化レベルで量子化するとともにコードブックを生成する参照高次元テクスチャ量子化ステップと、
前記量子化レベルに対応する前記参照高次元テクスチャの階層性に従って、前記参照テクスチャ画像のインデックスを画像化してなる参照インデックス画像から、任意の画像サイズを有する新規インデックス画像を合成するインデックス画像合成ステップと、
前記インデックス画像合成ステップにおいて合成された新規インデックス画像と、前記参照高次元テクスチャ量子化ステップにおいて生成されたコードブックとを組み合わせて、新規高次元テクスチャを生成する新規高次元テクスチャ生成ステップと、
を備える高次元テクスチャ合成方法。A high-dimensional texture combining one or more texture images acquired or created under a plurality of different conditions and synthesizing a new high-dimensional texture for generating a texture image of an arbitrary size corresponding to each of the plurality of different conditions A synthesis method,
A reference high-dimensional texture generation step of inputting the one or more texture images as a reference texture image, extracting and combining color information of the same pixel, and generating a reference high-dimensional texture;
A reference high-dimensional texture quantization step of quantizing the reference high-dimensional texture at one or more quantization levels and generating a codebook;
An index image synthesizing step of synthesizing a new index image having an arbitrary image size from a reference index image obtained by imaging the index of the reference texture image according to the hierarchy of the reference high-dimensional texture corresponding to the quantization level; ,
A new high-dimensional texture generating step of generating a new high-dimensional texture by combining the new index image synthesized in the index image synthesizing step and the code book generated in the reference high-dimensional texture quantization step;
A high-dimensional texture synthesis method comprising:
コンピュータに、
前記1つ以上のテクスチャ画像を参照テクスチャ画像として入力し、同一ピクセルの色情報を取り出してまとめ、参照高次元テクスチャを生成する参照高次元テクスチャ生成手順と、
前記参照高次元テクスチャを1つ以上の量子化レベルで量子化するとともにコードブックを生成する参照高次元テクスチャ量子化手順と、
前記量子化レベルに対応する前記参照高次元テクスチャの階層性に従って、前記参照テクスチャ画像のインデックスを画像化してなる参照インデックス画像から、任意の画像サイズを有する新規インデックス画像を合成するインデックス画像合成手順と、
前記インデックス画像合成ステップにおいて合成された新規インデックス画像と、前記参照高次元テクスチャ量子化ステップにおいて生成されたコードブックとを組み合わせて、新規高次元テクスチャを生成する新規高次元テクスチャ生成手順と、
を実行させるための高次元テクスチャ合成プログラム。A high-dimensional texture combining one or more texture images obtained or created under a plurality of different conditions and synthesizing a new high-dimensional texture for generating a texture image of an arbitrary size corresponding to each of the plurality of different conditions A synthesis program,
On the computer,
A reference high-dimensional texture generation step of inputting the one or more texture images as a reference texture image, extracting and combining color information of the same pixel, and generating a reference high-dimensional texture;
A reference high-dimensional texture quantization procedure for quantizing the reference high-dimensional texture at one or more quantization levels and generating a codebook;
An index image synthesizing step of synthesizing a new index image having an arbitrary image size from a reference index image formed by imaging the index of the reference texture image according to the hierarchy of the reference high-dimensional texture corresponding to the quantization level; ,
A new high-dimensional texture generating procedure for generating a new high-dimensional texture by combining the new index image synthesized in the index image synthesizing step and the code book generated in the reference high-dimensional texture quantization step;
High-dimensional texture synthesis program for executing
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003062180A JP3906170B2 (en) | 2003-03-07 | 2003-03-07 | Apparatus, method and program for synthesizing high-dimensional texture |
KR1020040013455A KR100579772B1 (en) | 2003-03-07 | 2004-02-27 | Apparatus and method for synthesizing high-dimensional texture, and computer readable medium strong a high-dimensional texture synthesis program |
CNB2004100073333A CN1290064C (en) | 2003-03-07 | 2004-03-01 | Equipment and method for synthetizing higher-dimensional grain |
US10/792,842 US7129954B2 (en) | 2003-03-07 | 2004-03-05 | Apparatus and method for synthesizing multi-dimensional texture |
US11/519,097 US20070013713A1 (en) | 2003-03-07 | 2006-09-12 | Apparatus and method for synthesizing multi-dimensional texture |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003062180A JP3906170B2 (en) | 2003-03-07 | 2003-03-07 | Apparatus, method and program for synthesizing high-dimensional texture |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004272580A true JP2004272580A (en) | 2004-09-30 |
JP3906170B2 JP3906170B2 (en) | 2007-04-18 |
Family
ID=33124178
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003062180A Expired - Fee Related JP3906170B2 (en) | 2003-03-07 | 2003-03-07 | Apparatus, method and program for synthesizing high-dimensional texture |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP3906170B2 (en) |
KR (1) | KR100579772B1 (en) |
CN (1) | CN1290064C (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007265269A (en) * | 2006-03-29 | 2007-10-11 | Toshiba Corp | Texture mapping device, method and program |
JP2010033297A (en) * | 2008-07-28 | 2010-02-12 | Namco Bandai Games Inc | Program, information storage medium, and image generation system |
US7907147B2 (en) | 2006-09-25 | 2011-03-15 | Kabushiki Kaisha Toshiba | Texture filtering apparatus, texture mapping apparatus, and method and program therefor |
KR101356629B1 (en) | 2012-01-20 | 2014-02-04 | 한국과학기술원 | Image partitioning method using correlation clustering, system processing the method and recording medium |
JP6378855B1 (en) * | 2017-01-20 | 2018-08-22 | 楽天株式会社 | Image search system, image search method and program |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0504570D0 (en) * | 2005-03-04 | 2005-04-13 | Falanx Microsystems As | Method of and apparatus for encoding data |
US7733350B2 (en) * | 2006-06-30 | 2010-06-08 | Microsoft Corporation | Anisometric texture synthesis |
KR100914844B1 (en) * | 2007-12-12 | 2009-09-02 | 한국전자통신연구원 | System for providing surface texture mapping with sample texture synthesis |
-
2003
- 2003-03-07 JP JP2003062180A patent/JP3906170B2/en not_active Expired - Fee Related
-
2004
- 2004-02-27 KR KR1020040013455A patent/KR100579772B1/en not_active IP Right Cessation
- 2004-03-01 CN CNB2004100073333A patent/CN1290064C/en not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007265269A (en) * | 2006-03-29 | 2007-10-11 | Toshiba Corp | Texture mapping device, method and program |
JP4594892B2 (en) * | 2006-03-29 | 2010-12-08 | 株式会社東芝 | Texture mapping apparatus, method and program |
US7907147B2 (en) | 2006-09-25 | 2011-03-15 | Kabushiki Kaisha Toshiba | Texture filtering apparatus, texture mapping apparatus, and method and program therefor |
JP2010033297A (en) * | 2008-07-28 | 2010-02-12 | Namco Bandai Games Inc | Program, information storage medium, and image generation system |
KR101356629B1 (en) | 2012-01-20 | 2014-02-04 | 한국과학기술원 | Image partitioning method using correlation clustering, system processing the method and recording medium |
JP6378855B1 (en) * | 2017-01-20 | 2018-08-22 | 楽天株式会社 | Image search system, image search method and program |
Also Published As
Publication number | Publication date |
---|---|
KR100579772B1 (en) | 2006-05-15 |
CN1527250A (en) | 2004-09-08 |
JP3906170B2 (en) | 2007-04-18 |
CN1290064C (en) | 2006-12-13 |
KR20040080344A (en) | 2004-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20070013713A1 (en) | Apparatus and method for synthesizing multi-dimensional texture | |
US7643033B2 (en) | Multi-dimensional texture mapping apparatus, method and program | |
Alatan et al. | Scene representation technologies for 3DTV—A survey | |
Furukawa et al. | Appearance Based Object Modeling using Texture Database: Acquisition Compression and Rendering. | |
Hollander et al. | Manylods: Parallel many‐view level‐of‐detail selection for real‐time global illumination | |
JP2004234285A (en) | Device and method for compressing texture image, device and method for extracting texture image, data structure, and storage medium | |
CN113822993B (en) | Digital twinning method and system based on 3D model matching | |
CN110390708A (en) | Render the System and method for and non-volatile memory medium of optical distortion effect | |
WO2023043993A1 (en) | Displaced micro-meshes for ray and path tracing | |
GB2406252A (en) | Generation of texture maps for use in 3D computer graphics | |
GB2585708A (en) | Generating three-dimensional facial data | |
Friedrich et al. | On the potential and challenges of neural style transfer for three-dimensional shape data | |
US6947055B2 (en) | System and method for synthesis of parametric texture map textures | |
JP3906170B2 (en) | Apparatus, method and program for synthesizing high-dimensional texture | |
Martin-Brualla et al. | Gelato: Generative latent textured objects | |
CN116580156A (en) | Text generation 3D printing model method based on big data deep learning | |
Rabby et al. | Beyondpixels: A comprehensive review of the evolution of neural radiance fields | |
JP4155573B2 (en) | High-dimensional texture synthesis apparatus, method, and program using a combination of a plurality of materials | |
Leung et al. | Tileable btf | |
Liu et al. | Neural impostor: Editing neural radiance fields with explicit shape manipulation | |
JP4473921B2 (en) | High-dimensional texture synthesis apparatus, method, and program using a combination of a plurality of materials | |
Vyatkin et al. | Shadow Generation Method for Volume-Oriented Visualization of Functionally Defined Objects | |
Boubekeur et al. | Simod: Making freeform deformation size-insensitive | |
Ma-thi et al. | Image-Based Approach for Preparing Artifacts for Virtual Puppetry Museum | |
Mihajlovic | A Differentiable 3D Representation for Online Appearance Fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070115 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110119 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120119 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130119 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |