JP2006228231A - 3次元イメージ特殊効果表現方法及びその装置、並びに、vrmlノード及びその生成方法 - Google Patents

3次元イメージ特殊効果表現方法及びその装置、並びに、vrmlノード及びその生成方法 Download PDF

Info

Publication number
JP2006228231A
JP2006228231A JP2006041571A JP2006041571A JP2006228231A JP 2006228231 A JP2006228231 A JP 2006228231A JP 2006041571 A JP2006041571 A JP 2006041571A JP 2006041571 A JP2006041571 A JP 2006041571A JP 2006228231 A JP2006228231 A JP 2006228231A
Authority
JP
Japan
Prior art keywords
image
field
dimensional image
texture
textures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006041571A
Other languages
English (en)
Inventor
Keechang Lee
基 彰 李
Do-Kyoon Kim
金 道 均
Jeonghwan Ahn
庭 桓 安
Seyoon Tak
世 潤 卓
Sang-Oak Woo
禹 相 玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2006228231A publication Critical patent/JP2006228231A/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/0207Wire harnesses
    • B60R16/0215Protecting, fastening and routing means therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02GINSTALLATION OF ELECTRIC CABLES OR LINES, OR OF COMBINED OPTICAL AND ELECTRIC CABLES OR LINES
    • H02G3/00Installations of electric cables or lines or protective tubing therefor in or on buildings, equivalent structures or vehicles
    • H02G3/30Installations of cables or lines on walls, floors or ceilings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Abstract

【課題】3次元グラフィックイメージに多重特殊効果と多重テクスチャとを合成して表現するための方法を提供する。
【解決手段】複数の特殊効果を表現するためのノードをVRML(Virtual Reality Modeling Language)で定義するステップと、3次元イメージ及び3次元イメージに表現しようとする複数の特殊効果についての情報を、定義されたノードによって有するVRMLファイルが入力されるステップと、入力されたVRMLファイルを利用して3次元イメージを生成するステップと、入力されたVRMLファイルのうち、複数の特殊効果についての情報を利用して、生成された3次元イメージに複数の特殊効果を表現するステップとを含む3次元イメージ特殊効果の表現方法。
【選択図】図3

Description

本発明は、3次元イメージの表現方法及びその装置に係り、特に、3次元イメージに多重特殊効果及び多重テクスチャを表現するためのVRML(Virtual Reality Modeling Language)ノード及びその生成方法、並びに、この定義されたVRMLノードを利用して、3次元イメージに多重特殊効果と多重テクスチャとを合成して表現する3次元イメージの特殊効果の表現方法及びその装置に関する。
VRMLは、インターネット等で3次元グラフィックイメージを表現するための標準言語である。VRMLを利用して3次元グラフィックイメージを表現するためには、まず、VRML空間の客体を構成する基本要素であるノードと、それぞれのノードを構成する特定値またはノードを指定するフィールドが定義されなければならない。
VRML標準は、基本的なノードを定義しており、また、ユーザーは、この定義されたノード以外に、必要に応じて追加拡張のために新たなノードをプロトタイプとして新たに定義できる。
図1は、VRML標準で基本的に定義されたノードの構造を示す図面である。‘Shape’ノードは、ルートノードであって、3次元イメージ客体を生成するためのノードであり、‘Geometry’ノードは、この3次元イメージ客体の形態を指定するためのノードであり、‘Appearance’ノードは、前記3次元イメージ客体の外観を指定するためのノードである。‘TextureCoordinate’ノードは、3次元イメージ客体の外観に表示されるテクスチャの座標を指定するノードであり、‘Material’ノードは、3次元イメージ客体の外観の色などの表面属性を指定するノードであり、‘TextureTransform’ノードは、テクスチャの変形を指定するノードである。‘ImageTexture’ノードは、静止イメージを利用して前記客体に表すテクスチャマップを定義するノードであり、‘PixelTexture’ノードは、点イメージを利用して前記客体に表すテクスチャマップを定義するノードであり、‘MovieTexture’ノードは、動画イメージを利用して時間によって変わるテクスチャマップを定義するノードである。テクスチャに関する3個のノードは、‘Appearance’ノードに含まれる‘texture’フィールドを利用して指定される。これらのノードは、3次元イメージ客体の表現のための特定値または他のノードを指定するために定義されたフィールドを備える。
以下では、前記の通りに定義されたVRMLノード及びそのフィールドによって、3次元イメージを表現する方法について説明する。
ユーザーは、3次元イメージを表現するために、前記のように定義されたノード及びフィールドによってVRMLファイルを作成し、この作成したVRMLファイルを、VRMLブラウザを利用して読み取る。VRMLブラウザに含まれるパーサーは、読み取られたVRMLファイルを分析して、このVRMLファイルに含まれるノードを、VRML標準で基本的に定義された内蔵ノードと、ユーザーにより新たに定義されたプロトタイプノードとを区分する。そして、VRMLブラウザは、VRMLファイルの分析結果を利用して、変換階層及びルートグラフを生成する。VRMLブラウザに含まれる実行エンジンは、3次元イメージの初期形状を画面に出力し、ユーザーの入力まで待機する。ユーザーの入力があれば、実行エンジンは、生成されたルートグラフを参照して、各ノードで定義されたイベントを処理し、それにより変換された3次元イメージを画面に出力する。
3次元グラフィックイメージの表現時に、ユーザーが所望の複数の特殊効果を3次元イメージに合成して表現したり、複数のテクスチャを合成して3次元イメージに表す多重特殊効果を表現したりするための方法及び装置が要求されている。また、図1に示したVRML標準のノードは、単純テクスチャ表現のみを支援可能であるため、3次元イメージ表現のための標準言語のVRMLを利用して、3次元イメージに多重特殊効果またはテクスチャを表現するためのノード及びフィールドの定義が必要であり、この定義されたノード及びフィールドを利用して、3次元イメージに多重特殊効果及びテクスチャを表現する方法及び装置が必要とされている。
したがって、本発明の目的は、3次元イメージに複数のテクスチャを合成して表現できる多重テクスチャの表現方法及びその装置を提供することである。
また、本発明の他の目的は、3次元イメージに複数の特殊効果及び複数のテクスチャを表現するためのVRMLノード及びそのフィールドを定義し、このノード及びフィールドを生成する方法を提供することである。
さらに、本発明の他の目的は、定義されたVRMLノード及びそのフィールドを利用して作成されたVRMLファイルを入力されて、3次元イメージに複数の特殊効果及び複数のテクスチャを表現する方法及びその装置を提供することである。
前記の目的を達成するためになされた本発明による3次元イメージ特殊効果表現方法は、複数の特殊効果を表現するためのノードをVRMLで定義するステップと、前記3次元イメージ及び前記3次元イメージに表現しようとする複数の特殊効果についての情報を、前記定義されたノードによって有するVRMLファイルが入力されるステップと、前記入力されたVRMLファイルを利用して前記3次元イメージを生成するステップと、前記入力されたVRMLファイルのうち、複数の特殊効果についての情報を利用して、前記生成された3次元イメージに前記複数の特殊効果を表現するステップと、を含むことを特徴とする。
好ましくは、前記複数の特殊効果は、複数のテクスチャを合成して表現する多重テクスチャ効果、3次元イメージに凹凸を表現するバンプマッピング効果、3次元イメージに周辺イメージを反映するとともに、凹凸を表現する環境バンプマッピング効果のうち、少なくとも1つを含む。
前記複数の特殊効果を表現するステップは、前記生成された3次元イメージに前記複数の特殊効果のうち、何れか一つを表現して結果イメージを生成するステップと、前記生成された3次元イメージに前記複数の特殊効果のうち、何れか一つを表現してソースイメージを生成し、前記結果イメージに前記ソースイメージを合成するステップと、前記3次元イメージに前記複数の特殊効果がすべて表現されるまで、前記結果イメージにソースイメージを合成するステップを繰り返すステップと、を含むことが好ましい。
好ましくは、前記特殊効果は、三角形に分割された前記生成された3次元イメージに対して、前記三角形の頂点レベルでの演算及びピクセルレベルでの演算により、前記生成された3次元イメージに表現される。
前記バンプマッピング効果は、前記三角形の頂点に対して新たな直交ベクトルを生成するステップと、前記生成された新たな直交ベクトルによってライティング演算を行うステップと、前記ライティング演算が行われた3次元イメージにテクスチャを表すステップを行うことにより前記3次元イメージに表現されることが好ましい。
好ましくは、前記環境バンプマッピング効果は、前記三角形の頂点に対して新たな直交ベクトルを生成するステップと、前記生成された新たな直交ベクトルを利用して、前記三角形のピクセルに対して反射ベクトルを生成するステップと、前記生成された反射ベクトル及び前記3次元イメージの周辺イメージを利用して、前記周辺イメージに対するテクスチャを生成するステップと、前記3次元イメージに前記生成されたテクスチャを表すステップと、を行うことにより前記3次元イメージに表現される。
前記複数の特殊効果の表現のためのノードは、前記結果イメージと前記ソースイメージとの合成時、前記ソースイメージに乗算される値が指定される‘srcBlending’フィールド、前記結果イメージに乗算される値が指定される‘dstBlending’フィールド、前記結果イメージとソースイメージとの演算を指定する‘blendingOp’フィールド、前記ソースイメージの透明度テストのための演算を指定する‘alphaOp’フィールド、前記ソースイメージの透明度テストのための基準値を指定する‘alphaRef’フィールドのうち、少なくとも何れか1つを備えることが好ましい。
好ましくは、前記結果イメージに前記ソースイメージを合成するステップは、前記ソースイメージに、前記‘srcBlending’フィールドで指定された値が乗算された結果と、前記結果イメージに前記‘dstBlending’フィールドで指定された値が乗算された結果とに対して、前記‘blendingOp’フィールドで指定された演算を行って合成された結果イメージを生成する。
前記結果イメージに前記ソースイメージを合成するステップは、前記‘alphaOp’フィールドで指定された演算を利用して、前記ソースイメージの透明度と前記‘alphaRef’フィールドで指定された基準値とを比較して、前記ソースイメージに対する透明度テストを行うステップと、前記ソースイメージが前記透明度テストを通過した場合、前記ソースイメージに前記‘srcBlending’フィールドで指定された値が乗算された結果と、前記結果イメージに前記‘dstBlending’フィールドで指定された値が乗算された結果とに対して、前記‘blendingOp’フィールドで指定された演算を行って合成された結果イメージを生成するステップと、を含むことが好ましい。
前記の他の目的を達成するためになされた本発明による3次元イメージ特殊効果表現方法は、前記3次元イメージに複数のテクスチャを合成して表現する多重テクスチャ効果のためのノードをVRMLで定義するステップと、前記3次元イメージ及び前記複数のテクスチャについての情報を、前記定義されたノードによって有するVRMLファイルが入力されるステップと、前記入力されたVRMLファイルを利用して前記3次元イメージを生成するステップと、前記入力されたVRMLファイルのうち、複数のテクスチャについての情報を利用して、前記生成された3次元イメージに前記複数のテクスチャを合成して表現するステップと、を含むことを特徴とする。
好ましくは、前記複数のテクスチャは、前記3次元イメージの大きさに比例する大きさのテクスチャを前記イメージに表現するMipMapテクスチャと、前記3次元イメージの周辺イメージを前記3次元イメージに反映するキューブ環境テクスチャとのうち、少なくとも1つを備える。
前記テクスチャは、三角形に分割された前記生成された3次元イメージに対して、前記三角形のピクセルレベルでの演算により、前記生成された3次元イメージに表現されることが好ましい。
好ましくは、前記複数のテクスチャを合成して表現するステップは、前記生成された3次元イメージに、前記複数のテクスチャのうち、何れか一つを表現して結果イメージを生成するステップと、前記生成された3次元イメージに、前記複数のテクスチャのうち、何れか一つを表現してテクスチャイメージを生成し、前記結果イメージに前記テクスチャイメージを合成するステップと、前記3次元イメージに前記複数のテクスチャがすべて表現されるまで、前記結果イメージに前記テクスチャイメージを合成するステップを繰り返すステップと、を含むことを特徴とする。
前記多重テクスチャ効果のためのノードは、基本色を指定する‘tfactorColor’フィールド、基本透明度値を指定する‘tfactorAlpha’フィールド、前記結果イメージと前記テクスチャイメージとの色の混合時に使用される演算が指定される‘colorStages’フィールド、前記結果イメージの透明度の決定時に使用される演算が指定される‘alphaStages’フィールド、前記3次元イメージに表現しようとする複数のテクスチャを指定する‘textureIndices’フィールド、前記複数のテクスチャの座標値を指定する‘texGeneration’フィールド、及び、前記複数のテクスチャについての変換情報を指定する‘texTransformIndices’フィールドのうち、少なくとも1つを備えることが好ましい。
好ましくは、前記結果イメージにテクスチャイメージを合成するステップは、前記結果イメージの色、前記テクスチャイメージの色、前記‘tfactorColor’フィールドで指定された基本色のうち、少なくとも何れか1つで前記‘colorStages’フィールドで指定された演算を行って、前記合成された結果イメージの色を決定するステップと、前記結果イメージの透明度、前記テクスチャイメージの透明度、前記‘tfactorAlpha’フィールドで指定された基本透明度のうち、少なくとも何れか1つで前記‘alphaStages’フィールドで指定された演算を行って、前記合成された結果イメージの透明度を決定するステップとを含む。
前記した他の目的を達成するためになされた本発明による3次元イメージ特殊効果表現方法は、前記3次元イメージに前記複数のテクスチャのうち、何れか1つを表現して結果イメージを生成するステップと、前記3次元イメージに前記複数のテクスチャのうち、何れか1つを表現してテクスチャイメージを生成し、前記結果イメージの色、前記テクスチャイメージの色、及び、所定の基本色のうち、少なくとも何れか1つで第1所定演算を行って前記結果イメージの色を決定し、前記結果イメージの透明度、前記テクスチャイメージの透明度、及び、所定の基本透明度のうち、少なくとも何れか1つで第2所定演算を行って前記結果イメージの透明度を決定して、前記結果イメージにテクスチャイメージを合成するステップと、前記3次元イメージに前記複数のテクスチャがすべて表現されるまで、前記結果イメージに前記テクスチャイメージを合成するステップを繰り返すステップとを含むことを特徴とする。
前記の他の目的を達成するためになされた本発明による3次元イメージ特殊効果の表現のためのVRML(Virtual Reality Modeling Language)ノードを生成するVRMLノード生成方法は、それぞれの特殊効果が表現された第1イメージ及び第2イメージの合成時、前記第1イメージ及び前記第2イメージのそれぞれに乗算される値が指定される‘srcBlending’フィールドと‘dstBlending’フィールドとを生成するステップと、
前記第1イメージ及び前記第2イメージの演算を指定する‘blendingOp’フィールドを生成するステップとを含むことを特徴とする。
前記VRMLノード生成方法は、前記第2イメージの透明度テストのための演算を指定する‘alphaOp’フィールド、前記第2イメージの透明度テストのための基準値を指定する‘alphaRef’フィールドのうち、少なくとも何れかを生成するステップをさらに含むことが好ましい。
前記の他の目的を達成するためになされた本発明による3次元イメージ特殊効果の表現のためのVRML(Virtual Reality Modeling Language)ノードを生成するVRMLノード生成方法は、前記3次元イメージに合成して表現しようとする複数のテクスチャを指定する‘textureIndices’フィールドを生成するステップと、前記複数のテクスチャがそれぞれ表現されたイメージの色混合時に使用される演算が指定される‘colorStages’フィールドを生成するステップとを含むことを特徴とする。
前記VRMLノード生成方法は、基本色を指定する‘tfactorColor’フィールド、基本透明度値を指定する’tfactorAlpha’フィールド、前記複数のテクスチャが合成された結果イメージの透明度の決定時に使用される演算が指定される‘alphaStages’フィールド、前記複数のテクスチャの座標値を指定する‘texGeneration’フィールド、及び、前記複数のテクスチャについての変換情報を指定する‘texTransformIndices’フィールドのうち、少なくとも何れか1つを生成するステップをさらに含むことが好ましい。
前記3次元イメージ特殊効果表現方法及びVRMLノード生成方法は、好ましくは、コンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体で具現でき、前記生成されたノード及びフィールドは、記録媒体に保存されることが好ましい。
前記の目的を達成するためになされた本発明による3次元イメージ特殊効果表現装置は、複数の特殊効果を前記3次元イメージに表現するために、VRMLで定義されたノードについての情報が保存されたメモリと、前記3次元イメージに表現しようとする複数の特殊効果についての情報を有するVRMLファイルが入力されるファイル入力部と、前記入力されたVRMLファイルを、前記メモリに保存されたノード情報を利用して分析して、前記複数の特殊効果についての情報を出力するファイル分析部と、前記分析された複数の特殊効果についての情報を利用して、前記3次元イメージに前記複数の特殊効果を表現する多重効果合成部と、を備えることを特徴とする。
好ましくは、前記複数の特殊効果は、複数のテクスチャを合成して表現する多重テクスチャ効果、3次元イメージに凹凸を表現するバンプマッピング効果、3次元イメージに周辺イメージを反映するとともに、凹凸を表現する環境バンプマッピング効果のうち、少なくとも1つを含む。
前記多重効果合成部は、前記3次元イメージに前記複数の特殊効果のそれぞれを表現してソースイメージを生成する効果処理部と、前記効果処理部からソースイメージを入力されて保存するソースイメージバッファと、前記3次元イメージに前記特殊効果が表現された結果イメージを保存する結果イメージバッファと、前記結果イメージバッファに保存された結果イメージと、前記ソースイメージバッファに保存されたソースイメージとを合成するイメージ合成部と、を備えることが好ましい。
好ましくは、前記効果処理部は、三角形に分けられた前記3次元イメージに対して、前記表現しようとする特殊効果を利用して前記三角形の頂点レベルで所定の演算を行う頂点処理部と、前記表現しようとする特殊効果を利用して、前記三角形のピクセルレベルで所定の演算を行うピクセル処理部とを備える。
前記複数の特殊効果の表現のためのノードは、前記結果イメージと前記ソースイメージとの合成時、前記ソースイメージに乗算される値が指定される‘srcBlending’フィールド、前記結果イメージに乗算される値が指定される‘dstBlending’フィールド、前記結果イメージと前記ソースイメージとの演算を指定する‘blendingOp’フィールド、前記ソースイメージの透明度テストのための演算を指定する‘alphaOp’フィールド、及び、前記ソースイメージの透明度テストのための基準値を指定する‘alphaRef’フィールドのうち、少なくとも何れか1つを備えることが好ましい。
好ましくは、前記イメージ合成部は、前記ソースイメージに前記‘srcBlending’フィールドで指定された値が乗算された結果と、前記結果イメージに前記‘dstBlending’フィールドで指定された値が乗算された結果に対して、前記‘blendingOp’フィールドで指定された演算を行って合成された結果イメージを生成する。
前記3次元イメージ特殊効果表現装置は、前記‘alphaOp’フィールドで指定された演算を利用して、前記ソースイメージの透明度と前記‘alphaRef’フィールドで指定された基準値とを比較して、前記ソースイメージに対する透明度テストを行い、前記ソースイメージが前記透明度テストを通過した場合、前記イメージ合成部を動作させる信号を生成して出力するテスト実行部をさらに備えることが好ましい。
前記の他の目的を達成するためになされた本発明による3次元イメージ特殊効果の表現装置は、複数のテクスチャを前記3次元イメージに合成して表現するために、VRMLで定義されたノードについての情報が保存されたメモリと、前記3次元イメージに表現しようとする複数のテクスチャについての情報を有するVRMLファイルが入力されるファイル入力部と、前記入力されたVRMLファイルを前記メモリに保存されたノード情報を利用して分析して、前記複数の特殊効果についての情報を出力するファイル分析部と、前記分析された複数のテクスチャについての情報を利用して、前記3次元イメージに前記複数のテクスチャを合成する多重テクスチャ合成部と、を備えることを特徴とする。
好ましくは、前記複数のテクスチャは、前記3次元イメージの大きさに比例する大きさのテクスチャを前記3次元イメージに表現するMipMapテクスチャと、前記3次元イメージの周辺イメージを前記3次元イメージに反映するキューブ環境テクスチャのうち、少なくとも1つを備える。
前記多重テクスチャ合成部は、前記3次元イメージに前記複数のテクスチャのそれぞれを表現してテクスチャイメージを生成するテクスチャ表現部と、前記テクスチャ表現部からテクスチャイメージを入力されて保存するテクスチャイメージバッファと、前記3次元イメージに前記特殊効果が表現された結果イメージを保存する結果イメージバッファと、前記結果イメージバッファに保存された結果イメージと、前記テクスチャイメージバッファに保存されたテクスチャイメージとを合成するイメージ合成部と、を備えることが好ましい。
好ましくは、前記テクスチャ表現部は、三角形に分割された前記3次元イメージに対して、前記表現しようとするテクスチャを利用して前記三角形のピクセルレベルで所定の演算を行う。
前記多重テクスチャ効果のためのノードは、基本色を指定する‘tfactorColor’フィールド、基本透明度値を指定する‘tfactorAlpha’フィールド、前記結果イメージと前記テクスチャイメージとの色混合時に使用される演算が指定される‘colorStages’フィールド、前記結果イメージの透明度の決定時に使用される演算が指定される‘alphaStages’フィールド、前記3次元イメージに表現しようとする複数のテクスチャを指定する‘textureIndices’フィールド、前記複数のテクスチャの座標値を指定する‘texGeneration’フィールド、前記複数のテクスチャについての変換情報を指定する‘texTransformIndices’フィールドのうち、少なくとも何れか1つを備えることが好ましい。
好ましくは、前記イメージ合成部は、前記結果イメージの色、前記テクスチャイメージの色、前記‘tfactorColor’フィールドで指定された基本色のうち、少なくとも何れか1つで前記‘colorStages’フィールドで指定された演算を行って、前記合成された結果イメージの色を演算する色演算部と、前記結果イメージの透明度、前記テクスチャイメージの透明度、前記‘tfactorAlpha’フィールドで指定された基本透明度のうち、少なくとも何れか1つで前記‘alphaStages’フィールドで指定された演算を行って、前記合成された結果イメージの透明度を演算する透明度演算部とを備える。
本発明に係る3次元イメージ特殊効果表現方法及びその装置によれば、3次元グラフィックイメージに多重特殊効果と多重テクスチャとを合成して表現しようとする場合、多重特殊効果及び多重テクスチャを表現するためのVRMLノード及びそのフィールドを定義して使用することにより、既存のVRMLを利用した3次元イメージの表現方法及びその装置と連係して、3次元イメージに多重特殊効果及び多重テクスチャ効果を効率的に適用でき、それによりユーザーは、複数の特殊効果または複数のテクスチャの指定のみで、容易に3次元イメージに多重特殊効果または多重テクスチャ効果を適用できる。
以下、添付した図面を参照して、本発明に係る3次元イメージ特殊効果の表現方法及びその装置の最良の実施の形態について詳細に説明する。
図2は、本発明の実施の形態に係るVRMLノードの構造を示す図面であり、以下では、図1に示したVRML標準で基本的に定義されたノード構造との差異を中心に説明する。
まず、図2に示した、‘ShadowShape’ノードは、多重特殊効果及びテクスチャ表現のために新たに定義された‘AdvancedAppearance’ノード及び‘Geometry’ノードを備えるルートノードであり、シャドー効果を支援する。
次に示す表1は、‘ShadowShape’ノードで、シャドー効果を表現するためのフィールドを定義したものである。
この定義されたフィールドを利用してシャドーを生成する物体である‘Occluder’、シャドーに影響を及ぼす光源を指定でき、シャドーの多様な属性を指定できる。なお、シャドー効果を表現する手順については、図4A参照して後記する
次に示す表2は、‘AdvancedAppearance’ノードをVRMLで定義したものである。
前記した‘AdvancedAppearance’ノードは、既存の‘ImageTexture’ノード、‘PixelTexture’ノード、‘MovieTexture’ノード以外に、新たに定義されたMipMap(Multum in parvo Map)テクスチャ効果のための‘MipMap’ノードと、キューブ環境(CubeEnvironment)テクスチャ効果のための‘CubeEnvironment’ノードとを備える。前記の5個のテクスチャ表現のためのノードは、‘AdvancedAppearance’ノードに含まれる‘textures’フィールドにより指定される。
また、‘AdvancedAppearance’ノードは、既存の‘TextureTransform’ノードに‘cameraMultiplied’フィールドを追加した‘TextureTransform3’ノードを備え、この‘TextureTransform3’ノードは、‘AdvancedAppearance’ノードに含まれる‘textureTransforms’フィールドにより指定される。
また、前記した‘AdvancedAppearance’ノードは、複数の特殊効果を合成して3次元イメージに表現するためのノードであって、複数のテクスチャを3次元イメージに同時に表現するための‘MultiTexturingEffect’ノード、3次元イメージに凹凸を表現するバンプマッピング特殊効果を表現するための‘BumpEffect’ノード、及び、3次元イメージに周辺イメージを反映すると共に凹凸を表現する環境バンプマッピング特殊効果を表現するための‘EMBMEffect’ノードを備える。これら3つの特殊効果の表現のためのノードは、‘AdvancedAppearance’ノードに含まれる‘effects’フィールドにより指定される。
また、‘AdvancedAppearance’ノードに新たに追加された‘lightmapParams’フィールドは、‘Lightmap’使用を指定するためのフィールドである。
次に、新たに追加されたノード、フィールド及びそれを利用した特殊効果の表現方法について詳細に説明する。
図3は、本発明の実施の形態に係る3次元イメージに多重テクスチャを表現する多重テクスチャ表現装置の構成を示すブロック図であって、図3に示した多重テクスチャ表現装置は、ファイル入力部300、メモリ310、ファイル分析部320、頂点処理部330、ピクセル処理部340、テクスチャイメージバッファ350、結果イメージバッファ360、イメージ合成部370及びディスプレイ部380を備えて構成される。図3に示す多重テクスチャ表現装置の動作を、図10に示す3次元イメージに多重テクスチャを表現する方法を示すフローチャートと連係して説明する。
まず、ファイル入力部300には、図2に示したノード及びこのノードに含まれるフィールドによって、生成しようとする3次元イメージを表現したVRMLファイルが入力される(ステップ1000)。
次に、ファイル分析部320は、メモリに保存されたノード及びフィールドについての情報を利用して、前記入力されたVRMLファイルを分析する(ステップ1010)。そして、頂点処理部330は、表現しようとする3次元イメージの領域を複数の三角形に分割し、それぞれの三角形の頂点に対してイメージデータを演算し、ピクセル処理部340は、それぞれの三角形のピクセルに対してデータを演算して、3次元イメージを生成する(ステップ1020)。
ここで、図4Aは、図3の頂点処理部330の動作例を説明するための図面であって、頂点処理部330は、図4Aに示すように三角形の3頂点に対して頂点の回転及び移動を演算し、ライティングベクトルの要素処理演算を行う。このとき、頂点処理部330は、ハードウェアアクセラレートのバーテックス・シェーダを利用することが好ましい。
また、図4Bは、図3に示したピクセル処理部340の動作例を説明するための図面であって、ピクセル処理部340は、図4Bに示すように三角形の内部のピクセルに対してカメラ反射ベクトルを演算し、Dp3(Dot product 3D)演算を行う。このとき、ピクセル処理部340は、ハードウェアアクセラレートのピクセル・シェーダを利用することが好ましい。
次に、頂点処理部330及びピクセル処理部340は、それぞれ、分割した三角形の頂点及びピクセルに対して、生成された3次元イメージ及び表現しようとする複数のテクスチャのうち、第1テクスチャについての分析結果を利用して頂点処理演算及びピクセル処理演算を行って、3次元イメージに第1テクスチャが表現されたテクスチャイメージを生成する。そして、ピクセル処理部340は、生成されたテクスチャイメージをテクスチャイメージバッファ350に保存する(ステップ1030)。
次に、イメージ合成部370は、結果イメージバッファ360に保存された結果イメージに、テクスチャイメージバッファ350に保存されたテキストイメージを合成し(ステップ1040)、この合成された結果イメージを結果イメージバッファ360に保存する(ステップ1050)。
次に、ファイル分析部320は、表現しようとする複数のテクスチャが、結果イメージにすべて表現されたかを確認し(ステップ1060)、すべてのテクスチャが表現されるまで、複数のテクスチャに対して、ステップ1030からステップ1050までの処理を繰り返す(ステップ1070)。ここで、第1テクスチャに対してステップ1040及びステップ1050が行われる場合には、結果イメージバッファ360に保存された結果イメージがないため、ステップ1030で生成されたテクスチャイメージは、直接結果イメージバッファ360に保存されることが好ましい。
そして、結果イメージに複数のテクスチャがすべて表現されれば、ディスプレイ部380は、結果イメージバッファ360に保存された結果イメージを画面に出力する(ステップ1080)。
ここで、図5は、図3に示したイメージ合成部370の詳細ブロック図であって、図5に示すように、イメージ合成部370は、色演算部500及び透明度演算部510を備えて構成される。
3次元イメージに複数のテクスチャを表現するために定義された‘MultiTexturingEffect’ノードは、‘tfactorColor’フィールド、‘tfactorAlpha’フィールド、‘colorStages’フィールド、‘alphaStages’フィールド、‘textureIndices’フィールド、‘texGeneration’フィールド、及び、‘texTransformIndices’フィールドを備える。このうち、‘tfactorColor’フィールド及び‘tfactorAlpha’フィールドは、それぞれ合成に使用される基本色及び基本透明度を指定する。また、‘colorStages’フィールドは、複数のテクスチャの合成順序及びテクスチャが表現されたイメージの色混合時に使用される演算手法を指定する。
ここで、図6は、‘colorStages’フィールドを説明するための図面であって、合成イメージの色の決定のために、次に示すように定義された‘colorStages’フィールドの演算方法を示すものである。
colorStage["ARG0","OP0","ARG1","OP1","OP2"]
前記した‘colorStages’フィールドにおいて、OP0、OP1及びOP2は、合成イメージの色の決定のために行われる演算方法を指定したものであって、ARG0、ARG1及びARG2は、演算の対象となる色を指定したものである。この演算の対象となる色は、拡散反射光(diffuse color)を表す定数であるDIFFUSE、鏡面反射光(specular color)を表す定数であるSPECULAR、合成しようとするテクスチャの色を表す定数であるTEXTURE、前記の‘tfactorColor’フィールドで指定された基本色を表す定数であるTFACTORのうちの1つを指定することができる。
ここで、拡散反射光は、光を考慮した3次元イメージの全般的な色を表し、光の物体に対する表面の角度によって、光の拡散程度の異なる乱反射光に対して物体表面の表現が決定される。また、鏡面反射光は、光の物体に対する表面の角度及びカメラの方向による光の拡散程度の異なる全反射光に対して物体表面の表現が決定される。
前記した‘colorStages’フィールドで、色の決定のために使用される演算手法として、2つの色のうち、演算の前で指定された色を選択するSELECTARG1、2つの色のうち、演算の後で指定された色を選択するSELECTARG2、指定された2つの色に対して積演算を行うMODULATE、指定された2つの色に対して和演算を行うADDなどを指定することができる。
前記した‘alphaStages’フィールドは、‘colorStages’フィールドのように、合成イメージの透明度決定のために行われる演算と、演算の対象となる定数とを順に指定する。また、‘textureIndices’フィールドは、3次元イメージに表現しようとする複数のテクスチャを順に指定する。さらに、‘textureIndices’フィールドは、複数のテクスチャのインデックスのみを指定し、実際に表現されるテクスチャが保存されたファイル名称やその位置等は、‘AdvancedAppearance’ノードで、‘texture’フィールドを利用して指定される。
また、‘texGeneration’フィールドは、3次元イメージに表現しようとする複数のテクスチャについての座標値を順に指定する。この‘texGeneration’フィールドは、複数のテクスチャ座標値のインデックスのみを指定し、実際のテクスチャの座標値は、‘Geometry’ノードで指定される。
また、‘texTransformIndices’フィールドは、3次元イメージに表現しようとする複数のテクスチャの変換情報を順に指定する。この‘texTransformIndices’フィールドは、複数のテクスチャ変換情報のインデックスのみを指定し、実際テクスチャの座標値は、‘AdvancedAppearance’ノードの‘textureTransforms’フィールドを利用して指定される。
次に、色演算部500は、テクスチャイメージ及び結果イメージを入力されて、‘colorStages’フィールドで指定された色の決定情報によって、合成イメージの色を決定する。また、透明度演算部510は、‘alphaStages’フィールドで指定された透明度決定情報によって合成イメージの透明度を決定する。
次に示す表3は、3次元イメージに複数のテクスチャの合成するために作成したVRMLファイルの例である。
以下では、表3に示したVRMLファイルによって複数のテクスチャが表現された3次元イメージを生成する方法について説明する。‘geometry’フィールドで3次元イメージの外形は、六面体状(Box)に指定される。‘Material’ノードでは、‘diffuseColor’フィールド及び‘specularColor’フィールドを使用して、拡散反射光及び鏡面反射光がそれぞれ指定される。3次元イメージに表現しようとする複数のテクスチャが、‘tex0.bmp’、‘tex1.bmp’の2つのファイルに含まれるイメージで‘texture’フィールドにより指定された。
また、‘textureIndices’フィールドは、指定されたテクスチャのインデックスを指定している。そして、2つのテクスチャが表現された3次元イメージの色は、‘colorStages’フィールドで指定された順序によって、次の通りに決定される。拡散反射光及び第1テクスチャに指定された‘tex0.bmp’イメージの色に対して積演算を行い、この演算結果及び第2テクスチャとして指定された‘tex1.bmp’イメージの色に対して、BLENDCURRENTALPAHA演算を行って色を決定する。なお、BLENDCURRENTALPAHA演算は、前に指定されたイメージの透明度を利用して2つの色を混合する演算である。
また、‘alphaStages’フィールドで、3次元イメージの基本透明度値であるTFACTORが指定される。したがって、2つのテクスチャが表現された3次元イメージの色は、次の数式1により決定される。
なお、数式1において、‘tex0color’は、‘tex0.bmp’ファイルに保存されたテクスチャイメージの色であり、‘tex1color’は、‘tex1.bmp’ファイルに保存されたテクスチャイメージの色であり、基本透明度値であるTFACTORは、‘tfactorAlpha’フィールドで指定した基本透明度値である‘0.8’となる。
ここで、図7A及び図7Bは3次元イメージに表現されるテクスチャの例を示す写真であり、図7Cは、図7Aに示したテクスチャ及び図7Bに示したテクスチャを、表3に示したVRMLファイルを利用して合成表現した3次元イメージである。
以下では、3次元イメージに表現されるMipMapテクスチャ効果について説明する。MipMapテクスチャ効果は、テクスチャが表現される3次元イメージ領域のディスプレイ画面上の大きさによって、領域の大きさに合うテクスチャを3次元イメージに合成して表現するテクスチャ効果である。
次に示す表4は、MipMapテクスチャ効果のための‘MipMap’ノード及び‘level’フィールドを定義したものである。
領域の大きさのレベルに合うテクスチャは、ユーザーにより指定される、または自動で指定することができる。
次に示す表5は、MipMapテクスチャ効果を表現するVRMLファイルの例である。
ここで、図8は、表5に示したVRMLファイルにより、MipMapテクスチャ効果が表現された3次元イメージの例を示す図面である。図8に示すように、MipMapテクスチャ効果によれば、テクスチャが表現される3次元イメージ領域の大きさレベル(800、810、820、830)によってテクスチャが表現される。
次に、以下では、3次元イメージに表現されるキューブ環境テクスチャ効果について説明する。このキューブ環境テクスチャ効果は、3次元イメージの各面にテクスチャを指定し、テクスチャに3次元イメージの周辺環境のイメージを反映させるテクスチャ効果である。
次に示す表6は、キューブ環境テクスチャ効果のための‘CubeEnvironment’ノードを定義したものである。
また、次に示す表7は、キューブ環境テクスチャ効果を表現するVRMLファイルの例である。
前記した表7において、‘textureTransforms’フィールドは、‘TextureTransform3’ノードを指定するフィールドであり、‘TextureTransform3’ノードは、既存の‘TextureTransform’ノードに対して‘cameraMultiplied’フィールドを追加的に備えている。キューブ環境テクスチャ効果のような環境マッピングを使用するためには、‘cameraMultiplied’フィールドを‘TRUE’として指定しなければならない。
次に示す表8は、‘TextureTransform3’ノードを定義したものである。
ここで、図9は、キューブ環境テクスチャ効果が表現された3次元イメージを示す写真である。
‘Geometry’ノードは、多重テクスチャ表現に合わせて、多様なテクスチャu、v座標値を指定できるように、既存の‘TextureCoordinate’ノードを複数指定できる新たなノードである‘MultiTextureCoord’ノードを備えることが好ましい。
次に示す表9は、‘MultiTextureCoord’ノードを定義したものである。
次に、図11は、本発明の実施の形態に係る3次元イメージに多重特殊効果を表現する特殊効果表現装置の構成を示すブロック図であって、図11に示された特殊効果表現装置は、ファイル入力部1100、メモリ1110、ファイル分析部1120、頂点処理部1130、ピクセル処理部1140、ソースイメージバッファ1150、結果イメージバッファ1160、イメージ合成部1170及びディスプレイ部1180を備えて構成される。図11に示す特殊効果表現装置の動作を、図12に示す3次元イメージに多重特殊効果を表現する方法を表すフローチャートと連係して説明する。
3次元イメージに表現される複数の特殊効果は、前記の多重テクスチャの表現効果、3次元イメージに凹凸を表現するバンプマッピング効果、3次元イメージに周辺イメージを反映すると共に、バンプマッピングのような凹凸を表現する環境バンプマッピング効果を含むことが好ましい。
ファイル入力部1100は、図2に示したノード及びこのノードに含まれるフィールドによって、生成しようとする3次元イメージを表現したVRMLファイルが入力される(ステップ1200)。
次に、ファイル分析部1120は、メモリ1110に保存されたノード及びフィールドについての情報を利用して、入力されたVRMLファイルを分析する(ステップ1210)。
そして、頂点処理部1130は、表現しようとする3次元イメージの領域を複数の三角形に分割し、それぞれの三角形の頂点に対してイメージデータを演算し、ピクセル処理部1140は、それぞれの三角形のピクセルに対してデータを演算して3次元イメージを生成する(ステップ1220)。
次に、頂点処理部1130及びピクセル処理部1140は、それぞれ分割された三角形の頂点及びピクセルに対して、前生成された3次元イメージに表現しようとする複数の特殊効果のうち、第1特殊効果を表現して、ソースイメージを生成してソースイメージバッファ1150に保存する(ステップ1230)。
そして、イメージ合成部1170は、結果イメージバッファ1160に保存された結果イメージに、ソースイメージバッファ1150に保存されたソースイメージを合成し(ステップ1240)、この合成された結果イメージを結果イメージバッファ1160に保存する(ステップ1250)。
次に、ファイル分析部1120は、表現しようとする複数の特殊効果が、結果イメージにすべて表現されたか否かを確認し(ステップ1260)、すべての特殊効果が表現されるまで、複数の特殊効果に対してステップ1230からステップ1250までの処理を繰り返す(ステップ1270)。ここで、第1特殊効果に対してステップ1240及びステップ1250が行われる場合には、結果イメージバッファ1160に保存された結果イメージがないため、ステップ1230で生成されたソースイメージは、直接結果イメージバッファ1160に保存されることが好ましい。
次に、結果イメージに前記複数の特殊効果がすべて表現されれば、ディスプレイ部1180は、結果イメージバッファ1160に保存された結果イメージを画面に出力する(ステップ1280)。
次に示す表10は、特殊効果を表現するためのノードのそれぞれに、多重特殊効果の表現のために共通に備えられるフィールドを定義したものである。次のフィールドを参照して、結果イメージ及びソースイメージを合成する方法について詳細に説明する。
表10において、‘srcBlending’フィールドは、結果イメージバッファ1160に保存された結果イメージと、フィールドが備えられたノードの特殊効果が表現されたソースイメージとの合成時に、ソースイメージに乗算される値を指定し、‘dstBlending’フィールドは、結果イメージに乗算される値を指定する。また、‘blendingOp’フィールドは、結果イメージとソースイメージとの演算を指定する。さらに、‘alphaOp’フィールドは、ソースイメージの透明度テストのための演算を指定し、‘alphaRef’フィールドは、ソースイメージの透明度テストのための基準値を指定する。
これらに基づいて、結果イメージ及びソースイメージは、フィールドにより指定される値及び演算によって合成される。
次に示す表11は、‘srcBlending’フィールド及び‘dstBlending’フィールドで指定される値を表した表である。
また、次に示す表12は、‘blendingOp’フィールドで指定される演算を表した表である。
表2において、‘sourceColor’は、現在特殊効果ノードで生成されるソースイメージの色であり、‘destinationColor’は、現在特殊効果ノードの直前ステップまでのノードの合成過程によって生成された結果イメージの色である。
図13は、図12に示した手順において、結果イメージにソースイメージを合成するステップ(ステップ1240)についての詳細手順を示すフローチャートである。ここで、イメージ合成部1170は、‘alphaOp’フィールド及び‘alphaRef’フィールドで指定された演算及び基準値を利用して、ソースイメージに対して透明度テストを行う(ステップ1300)。例えば、‘alphaOp’フィールドで指定された演算が不等号(<)であり、‘alphaRef’フィールドで指定された透明度基準値が‘0.6’である場合、ソースイメージの透明度値が、基準値である0.6より小さければ、透明度テストを通過することに指定できる。
次に、イメージ合成部1170は、ソースイメージの透明度テストを通過したか否かを確認し(ステップ1310)、テストを通過した場合のみ、結果イメージにソースイメージを合成する(ステップ1320)。一方、イメージ合成部1170は、ソースイメージが透明度テストを通過していない場合には、結果イメージにソースイメージを合成しない。
次に示す表13は、多重特殊効果の表現のために、‘effects’フィールドを使用して、特殊効果を指定する方法を表したものである。
前記のように、‘effects’フィールドを利用して、3次元イメージに表現しようとする複数の特殊効果を指定すれば、指定された順序によって、指定された特殊効果を3次元イメージに合成する。
次に示す表14は、3次元イメージに複数の特殊効果を表現するために作成されたVRMLファイルの第1例である。
前記したVRMLファイルは、2つの多重テクスチャの表現効果を3次元イメージに合成するものであって、それぞれの多重テクスチャの表現効果を行った結果イメージを合成した結果は、次の数式2の通りである。
前記した数式2は、2番目の‘MultitextureEffect’ノードに適用されるものであって、‘sourceColor’は、2番目の‘MultitextureEffect’ノードの‘colorStages’により生成された3次元イメージの色であり、‘destinationColor’は、直前の‘MultitextureEffect’ノードで決定された3次元イメージの色である。また、SRCALPHAは、2番目の‘MultitextureEffect’ノードの‘alphaStages’によって決定された値であって、表14に示したVRMLファイルでは、‘tfactorAlpha’値である0.7の値を有し、INVSRCALPHAは、(1−SRCALPHA)で表現される値であり、このVRMLファイルでは、(1−0.7)によって0.3の値を有する。
次に示す表15は、3次元イメージに複数の特殊効果を表現するために作成されたVRMLファイルの第2例である。
表15に示したVRMLファイルは、2つの多重テクスチャの表現効果を3次元イメージに合成するものであって、それぞれの多重テクスチャの表現効果を行った結果イメージを合成した結果は、次の数式3の通りである。
次に示す表16は、3次元イメージに複数の特殊効果を表現するために作成されたVRMLファイルについての第3例である。
表16に示したVRMLファイルは、2つの多重テクスチャの表現効果を3次元イメージに合成するものであって、それぞれの多重テクスチャの表現効果を行った結果イメージを合成した結果は、次の数式4の通りである。
以下では、3次元イメージに凹凸を表現するバンプマッピング効果について、図14のフローチャートを参照して説明する。
3次元イメージに凹凸を表現するために、3次元イメージの三角形の頂点のそれぞれに対して新たな直交ベクトル(S&T vector)を生成する(ステップ1400)。この直交ベクトルは、別途の指定がない場合には自動生成することが好ましい。またこの直交ベクトルは、直交ベクトルについての情報を有する直交イメージを入力されて、それから抽出することが好ましい。
そして、3次元イメージの三角形ピクセルレベルで、生成された直交ベクトルによってライティング処理を行う(ステップ1410)。
そして、ライティング処理された3次元イメージに対し、ベースイメージとして指定されたテクスチャを合成する(ステップ1420)。
次に示す表17は、バンプマッピング効果のためのノードを定義したものである。
表17において、‘normalTextureIndex’フィールドは、バンプマッピング時に直交ベクトル生成の基準となる直交イメージのインデックスを指定するフィールドであり、‘normalTexCoordIndex’フィールドは、直交イメージ座標値のインデックスを指定するフィールドである。また、‘baseTextureIndex’フィールドは、バンプマッピング時に3次元イメージの外観に表現されるベースイメージのインデックスを指定するフィールドであり、‘baseTexCoordIndex’フィールドは、ベースイメージ座標値のインデックスを指定するフィールドである。
次に示す表18は、3次元イメージにバンプマッピング特殊効果を表現するためのVRMLファイルの例である。
ここで、図15Aは、バンプマッピング特殊効果の表現のための直交イメージの例を示す写真であり、図15Bは、ベースイメージの例を示す写真である。
また、図15Cは、表18に示したVRMLファイルを利用して、図15Aの直交イメージと、図15Bのベースイメージとを合成して、バンプ特殊効果を3次元イメージに表現した写真である。
以下では、3次元イメージに周辺イメージを反映すると共に、バンプマッピングのような凹凸を表現する環境バンプマッピング効果について、図16のフローチャートを参照して説明する。
まず、3次元イメージに環境バンプマッピング特殊効果を表現するために、3次元イメージの三角形の頂点のそれぞれに対して新たな直交ベクトル(S&T vector)を生成する(ステップ1600)。
次に、3次元イメージの三角形ピクセルレベルで、生成された直交ベクトルによって反射ベクトルを生成する(ステップ1610)。そして、3次元イメージに反映する周辺イメージテクスチャを生成する(ステップ1620)。そして、3次元イメージに対して、生成された周辺イメージテクスチャを合成する(ステップ1630)。
次は、環境バンプマッピング特殊効果のためのノードを定義したものである。
ここで、‘envTextureIndex’フィールドは、3次元イメージの周辺環境イメージを反映するテクスチャのインデックスを指定するフィールドである。
ここで、図17は、環境バンプマッピング特殊効果が表現された3次元イメージについての例を示す写真である。
以上、説明した本発明に係る方法は、コンピュータで読み取り可能な記録媒体にコンピュータが読み取り可能なコードとして具現することが可能である。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取り可能なデータが保存されるあらゆる種類の記録装置を含む。コンピュータで読み取り可能な記録媒体の例としては、ROM(Read Only Memory)、RAM(Random Access Memory)、CD(Compact Disc)−ROM、磁気テープ、フレキシブルディスク、光情報記録装置などがあり、また、キャリアウェーブ(例えば、インターネットを介した伝送)の形態に具現されるものも含む。また、コンピュータで読み取り可能な記録媒体は、ネットワークで連結されたコンピュータシステムに分散されて、分散方式でコンピュータが読み取り可能なコードが保存されて実行することもできる。そして、本発明を具現するための機能的なプログラム、コード及びコードセグメントは、当業界のプログラマーによって容易に推論できる。
以上、本発明の好ましい実施の形態について詳細に記述したが、当業者であれば、特許請求の範囲に定義された本発明の精神及び範囲から逸脱せずに、本発明を多様に変形または変更して実施できるということが分かる。したがって、本発明は特許請求の範囲に記載された技術的思想により定められる。
本発明は、3次元イメージの表現装置に関連した技術分野に好適に適用できる。
VRML標準で定義されたノード構造を示す図面である。 本実施の形態に係るVRMLノードの構造を示す図面である。 多重テクスチャ表現装置の構成を示すブロック図である。 多重テクスチャ表現装置の頂点処理部の動作を説明するための図面である。 多重テクスチャ表現装置のピクセル処理部の動作を説明するための図面である。 多重テクスチャ表現装置のイメージ合成部の詳細構成を示すブロック図である。 ‘multitexturing’ノードに含まれる‘colorStages’フィールドを説明するための図面である。 3次元イメージに表現されるテクスチャの例を示す写真である。 3次元イメージに表現されるテクスチャの他の例を示す写真である。 図7A及び図7Bのテクスチャを合成した3次元イメージを示す写真である。 MipMapテクスチャ効果が表現された3次元イメージの例を示す図面である。 キューブ環境テクスチャ効果が表現された3次元イメージを示す写真である。 3次元イメージに多重テクスチャを表現する方法を示すフローチャートである。 特殊効果表現装置の構成を示すブロック図である。 3次元イメージに多重特殊効果を表現する方法を示すフローチャートである。 結果イメージにソースイメージを合成するステップ(ステップ1240)の詳細手順を示すフローチャートである。 バンプマッピング特殊効果を3次元イメージに表現する方法を示すフローチャートである。 バンプマッピング特殊効果の表現のための直交イメージの例を示す写真である。 バンプマッピング特殊効果の表現のためのベースイメージの例を示す写真である。 直交イメージと、ベースイメージとを合成して、バンプ特殊効果を3次元イメージに表現した写真である。 環境バンプマッピング特殊効果を3次元イメージに表現する方法を示すフローチャートである。 環境バンプマッピング特殊効果が表現された3次元イメージの例を示す写真である。
符号の説明
300 ファイル入力部
310 メモリ
320 ファイル分析部
330 頂点処理部
340 ピクセル処理部
350 テクスチャイメージバッファ
360 結果イメージバッファ
370 イメージ合成部
380 ディスプレイ部

Claims (40)

  1. 3次元イメージに特殊効果を表現する3次元イメージ特殊効果表現方法であって、
    複数の特殊効果を表現するためのノードをVRML(Virtual Reality Modeling Language)で定義するステップと、
    前記3次元イメージ及び前記3次元イメージに表現しようとする複数の特殊効果についての情報を、前記定義されたノードによって有するVRMLファイルが入力されるステップと、
    前記入力されたVRMLファイルを利用して前記3次元イメージを生成するステップと、
    前記入力されたVRMLファイルのうち、複数の特殊効果についての情報を利用して、前記生成された3次元イメージに前記複数の特殊効果を表現するステップと、
    を含むことを特徴とする3次元イメージ特殊効果表現方法。
  2. 前記複数の特殊効果は、
    複数のテクスチャを合成して表現する多重テクスチャ効果、3次元イメージに凹凸を表現するバンプマッピング効果、及び、3次元イメージに周辺イメージを反映するとともに凹凸を表現する環境バンプマッピング効果のうち、少なくとも1つを含むこと、
    を特徴とする請求項1に記載の3次元イメージ特殊効果表現方法。
  3. 前記複数の特殊効果を表現するステップは、
    前記生成された3次元イメージに、前記複数の特殊効果のうち、何れか1つを表現して結果イメージを生成するステップと、
    前記生成された3次元イメージに、前記複数の特殊効果のうち、何れか1つを表現してソースイメージを生成し、前記結果イメージに前記ソースイメージを合成するステップと、
    前記3次元イメージに、前記複数の特殊効果がすべて表現されるまで、前記結果イメージにソースイメージを合成するステップを繰り返すステップと、
    を含むことを特徴とする請求項1に記載の3次元イメージ特殊効果表現方法。
  4. 前記特殊効果は、
    三角形に分割された前記生成された3次元イメージに対して、前記三角形の頂点レベルでの演算及びピクセルレベルでの演算により、前記生成された3次元イメージに表現されること、
    を特徴とする請求項1に記載の3次元イメージ特殊効果表現方法。
  5. 前記バンプマッピング効果は、
    前記三角形の頂点に対して新たな直交ベクトルを生成するステップと、
    前記生成された新たな直交ベクトルによってライティング演算を行うステップと、
    前記ライティング演算が行われた3次元イメージにテクスチャを表すステップと、を行うことにより前記3次元イメージに表現されること、
    を特徴とする請求項4に記載の3次元イメージ特殊効果表現方法。
  6. 前記環境バンプマッピング効果は、
    前記三角形の頂点に対して新たな直交ベクトルを生成するステップと、
    前記生成された新たな直交ベクトルを利用して、前記三角形のピクセルに対して反射ベクトルを生成するステップと、
    前記生成された反射ベクトル及び前記3次元イメージの周辺イメージを利用して、前記周辺イメージに対するテクスチャを生成するステップと、
    前記3次元イメージに前記生成されたテクスチャを表すステップと、を行うことにより前記3次元イメージに表現されること、
    を特徴とする請求項4に記載の3次元イメージ特殊効果表現方法。
  7. 前記複数の特殊効果の表現のためのノードは、
    前記結果イメージと前記ソースイメージとの合成時、前記ソースイメージに乗算される値が指定される‘srcBlending’フィールド、前記結果イメージに乗算される値が指定される‘dstBlending’フィールド、前記結果イメージと前記ソースイメージとの演算を指定する‘blendingOp’フィールド、前記ソースイメージの透明度テストのための演算を指定する‘alphaOp’フィールド、前記ソースイメージの透明度テストのための基準値を指定する‘alphaRef’フィールドのうち、少なくとも何れか1つを備えること、
    を特徴とする請求項3に記載の3次元イメージ特殊効果表現方法。
  8. 前記結果イメージに前記ソースイメージを合成するステップは、
    前記ソースイメージに、前記‘srcBlending’フィールドで指定された値が乗算された結果と、前記結果イメージに前記‘dstBlending’フィールドで指定された値が乗算された結果とに対して、前記‘blendingOp’フィールドで指定された演算を行って合成された結果イメージを生成すること、
    を特徴とする請求項7に記載の3次元イメージ特殊効果表現方法。
  9. 前記結果イメージに前記ソースイメージを合成するステップは、
    前記‘alphaOp’フィールドで指定された演算を利用して、前記ソースイメージの透明度と前記‘alphaRef’フィールドで指定された基準値とを比較して、前記ソースイメージに対する透明度テストを行うステップと、
    前記ソースイメージが前記透明度テストを通過した場合、前記ソースイメージに前記‘srcBlending’フィールドで指定された値が乗算された結果と、前記結果イメージに前記‘dstBlending’フィールドで指定された値が乗算された結果とに対して、前記‘blendingOp’フィールドで指定された演算を行って合成された結果イメージを生成するステップと、
    を含むことを特徴とする請求項7に記載の3次元イメージ特殊効果表現方法。
  10. 3次元イメージに特殊効果を表現する3次元イメージ特殊効果表現方法であって、
    前記3次元イメージに複数のテクスチャを合成して表現する多重テクスチャ効果のためのノードをVRML(Virtual Reality Modeling Language)で定義するステップと、
    前記3次元イメージ及び前記複数のテクスチャについての情報を、前記定義されたノードによって有するVRMLファイルが入力されるステップと、
    前記入力されたVRMLファイルを利用して前記3次元イメージを生成するステップと、
    前記入力されたVRMLファイルのうち、複数のテクスチャについての情報を利用して、前記生成された3次元イメージに前記複数のテクスチャを合成して表現するステップと、
    を含むことを特徴とする3次元イメージ特殊効果表現方法。
  11. 前記複数のテクスチャは、
    前記3次元イメージの大きさに比例する大きさのテクスチャを前記3次元イメージに表現するMipMap(Multum In Parvo MAP)テクスチャと、前記3次元イメージの周辺イメージを前記3次元イメージに反映するキューブ環境テクスチャのうち、少なくとも1つを備えること、
    を特徴とする請求項10に記載の3次元イメージ特殊効果表現方法。
  12. 前記テクスチャは、
    三角形に分割された前記生成された3次元イメージに対して、前記三角形のピクセルレベルでの演算により、前記生成された3次元イメージに表現されること、
    を特徴とする請求項10に記載の3次元イメージ特殊効果表現方法。
  13. 前記複数のテクスチャを合成して表現するステップは、
    前記生成された3次元イメージに、前記複数のテクスチャのうち、何れか1つを表現して結果イメージを生成するステップと、
    前記生成された3次元イメージに、前記複数のテクスチャのうち、何れか1つを表現してテクスチャイメージを生成し、前記結果イメージに前記テクスチャイメージを合成するステップと、
    前記3次元イメージに前記複数のテクスチャがすべて表現されるまで、前記結果イメージに前記テクスチャイメージを合成するステップを繰り返すステップと、
    を含むことを特徴とする請求項10に記載の3次元イメージ特殊効果表現方法。
  14. 前記多重テクスチャ効果のためのノードは、
    基本色を指定する‘tfactorColor’フィールド、基本透明度値を指定する‘tfactorAlpha’フィールド、前記結果イメージと前記テクスチャイメージとの色の混合時に使用される演算が指定される‘colorStages’フィールド、前記結果イメージの透明度の決定時に使用される演算が指定される‘alphaStages’フィールド、前記3次元イメージに表現しようとする複数のテクスチャを指定する‘textureIndices’フィールド、前記複数のテクスチャの座標値を指定する‘texGeneration’フィールド、及び、前記複数のテクスチャについての変換情報を指定する‘texTransformIndices’フィールドのうち、少なくとも1つを備えること、
    を特徴とする請求項13に記載の3次元イメージ特殊効果表現方法。
  15. 前記結果イメージにテクスチャイメージを合成するステップは、
    前記結果イメージの色、前記テクスチャイメージの色、前記‘tfactorColor’フィールドで指定された基本色のうち、少なくとも何れか1つで前記‘colorStages’フィールドで指定された演算を行って、前記合成された結果イメージの色を決定するステップと、
    前記結果イメージの透明度、前記テクスチャイメージの透明度、前記‘tfactorAlpha’フィールドで指定された基本透明度のうち、少なくとも何れか1つで前記‘alphaStages’フィールドで指定された演算を行って、前記合成された結果イメージの透明度を決定するステップと、
    を含むことを特徴とする請求項14に記載の3次元イメージ特殊効果表現方法。
  16. 3次元イメージに複数のテクスチャを合成して表現する3次元イメージ特殊効果表現方法であって、
    前記3次元イメージに前記複数のテクスチャのうち、何れか1つを表現して結果イメージを生成するステップと、
    前記3次元イメージに前記複数のテクスチャのうち、何れか1つを表現してテクスチャイメージを生成し、前記結果イメージの色、前記テクスチャイメージの色、及び、所定の基本色のうち、少なくとも何れか1つで第1所定演算を行って前記結果イメージの色を決定し、前記結果イメージの透明度、前記テクスチャイメージの透明度、及び、所定の基本透明度のうち、少なくとも何れか1つで第2所定演算を行って前記結果イメージの透明度を決定して、前記結果イメージにテクスチャイメージを合成するステップと、
    前記3次元イメージに前記複数のテクスチャがすべて表現されるまで、前記結果イメージに前記テクスチャイメージを合成するステップを繰り返すステップと、
    を含むことを特徴とする3次元イメージ特殊効果表現方法。
  17. 3次元イメージに特殊効果を表現するためのVRML(Virtual Reality Modeling Language)ノードを生成するVRMLノード生成方法であって、
    それぞれの特殊効果が表現された第1イメージ及び第2イメージの合成時、前記第1イメージ及び前記第2イメージのそれぞれに乗算される値が指定される‘srcBlending’フィールドと‘dstBlending’フィールドとを生成するステップと、
    前記第1イメージ及び前記第2イメージの演算を指定する‘blendingOp’フィールドを生成するステップと、
    を含むことを特徴とするVRMLノード生成方法。
  18. 前記第2イメージの透明度テストのための演算を指定する‘alphaOp’フィールド、前記第2イメージの透明度テストのための基準値を指定する‘alphaRef’フィールドのうち、少なくとも何れかを生成するステップをさらに含むこと、
    を特徴とする請求項17に記載のVRMLノード生成方法。
  19. 3次元イメージに特殊効果を表現するためのVRML(Virtual Reality Modeling Language)ノードを生成するVRMLノード生成方法であって、
    前記3次元イメージに合成して表現しようとする複数のテクスチャを指定する‘textureIndices’フィールドを生成するステップと、
    前記複数のテクスチャがそれぞれ表現されたイメージの色混合時に使用される演算が指定される‘colorStages’フィールドを生成するステップと、
    を含むことを特徴とするVRMLノード生成方法。
  20. 基本色を指定する‘tfactorColor’フィールド、基本透明度値を指定する’tfactorAlpha’フィールド、前記複数のテクスチャが合成された結果イメージの透明度の決定時に使用される演算が指定される‘alphaStages’フィールド、前記複数のテクスチャの座標値を指定する‘texGeneration’フィールド、及び、前記複数のテクスチャについての変換情報を指定する‘texTransformIndices’フィールドのうち、少なくとも何れか1つを生成するステップをさらに含むこと、
    を特徴とする請求項19に記載のVRMLノード生成方法。
  21. 請求項1に記載の3次元イメージ特殊効果表現方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
  22. 請求項10に記載の3次元イメージ特殊効果表現方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
  23. 請求項16に記載の3次元イメージ特殊効果表現方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
  24. 3次元イメージに特殊効果を表現するためのプログラムが記録されたコンピュータで読み取り可能な記録媒体であって、
    前記3次元イメージに複数の特殊効果を表現するための‘effects’ノードを備え、
    前記‘effects’ノードは、
    それぞれ特殊効果が表現された第1イメージ及び第2イメージの合成時、前記第1イメージ及び前記第2イメージのそれぞれに乗算される値が指定される‘srcBlending’フィールド及び‘dstBlending’フィールド、前記第1イメージ及び前記第2イメージの演算を指定する‘blendingOp’フィールド、前記第2イメージの透明度テストのための演算を指定する‘alphaOp’フィールド、前記第2イメージの透明度テストのための基準値を指定する‘alphaRef’フィールドのうち、少なくとも何れか1つを備えること、
    を特徴とするプログラムが記録されたコンピュータで読み取り可能な記録媒体。
  25. 3次元イメージに特殊効果を表現するためのプログラムが記録されたコンピュータで読み取り可能な記録媒体であって、
    前記3次元イメージに複数のテクスチャを合成して表現するための‘multitexturing’ノードを備え、
    前記‘multitexturing’ノードは、
    基本色を指定する‘tfactorColor’フィールド、基本透明度値を指定する‘tfactorAlpha’フィールド、前記複数のテクスチャがそれぞれ表現されたイメージの色混合時に使用される演算が指定される‘colorStages’フィールド、前記複数のテクスチャが合成された結果イメージの透明度の決定時に使用される演算が指定される‘alphaStages’フィールド、前記複数のテクスチャを指定する‘textureIndices’フィールド、前記複数のテクスチャの座標値を指定する‘texGeneration’フィールド、前記複数のテクスチャについての変換情報を指定する‘texTransformIndices’フィールドのうち、少なくとも何れか1つを備えること、
    を特徴とするプログラムが記録されたコンピュータで読み取り可能な記録媒体。
  26. 3次元イメージに特殊効果を表現するためのVRML(Virtual Reality Modeling Language)ノードであって、
    それぞれ特殊効果が表現された第1イメージ及び第2イメージの合成時、前記第1イメージ及び前記第2イメージのそれぞれに乗算される値が指定される‘srcBlending’フィールド及び‘dstBlending’フィールド、前記第1イメージ及び前記第2イメージの演算を指定する‘blendingOp’フィールド、前記第2イメージの透明度テストのための演算を指定する‘alphaOp’フィールド、前記第2イメージの透明度テストのための基準値を指定する‘alphaRef’フィールドのうち、少なくとも何れか1つを備えること、
    を特徴とするVRMLノード。
  27. 3次元イメージに特殊効果を表現するためのVRMLノードであって、
    前記3次元イメージに合成して表現しようとする複数のテクスチャを指定する‘textureIndices’フィールド、基本色を指定する‘tfactorColor’フィールド、基本透明度値を指定する‘tfactorAlpha’フィールド、複数のテクスチャがそれぞれ表現されたイメージの色混合時に使用される演算が指定される‘colorStages’フィールド、前記複数のテクスチャが合成された結果イメージの透明度の決定時に使用される演算が指定される‘alphaStages’フィールド、前記複数のテクスチャの座標値を指定する‘texGeneration’フィールド、前記複数のテクスチャについての変換情報を指定する‘texTransformIndices’フィールドのうち、少なくとも何れか1つを備えることを特徴とするVRMLノード。
  28. 3次元イメージに特殊効果を表現する3次元イメージ特殊効果表現装置であって、
    複数の特殊効果を前記3次元イメージに表現するために、VRMLで定義されたノードについての情報が保存されたメモリと、
    前記3次元イメージに表現しようとする複数の特殊効果についての情報を有するVRMLファイルが入力されるファイル入力部と、
    前記入力されたVRMLファイルを、前記メモリに保存されたノード情報を利用して分析し、前記複数の特殊効果についての情報を出力するファイル分析部と、
    前記分析された複数の特殊効果についての情報を利用して、前記3次元イメージに前記複数の特殊効果を表現する多重効果合成部とを備えること、
    を特徴とする3次元イメージ特殊効果表現装置。
  29. 前記複数の特殊効果は、
    複数のテクスチャを合成して表現する多重テクスチャ効果、3次元イメージに凹凸を表現するバンプマッピング効果、3次元イメージに周辺イメージを反映するとともに、凹凸を表現する環境バンプマッピング効果のうち、少なくとも1つを含むこと、
    を特徴とする請求項28に記載の3次元イメージ特殊効果表現装置。
  30. 前記多重効果合成部は、
    前記3次元イメージに前記複数の特殊効果のそれぞれを表現してソースイメージを生成する効果処理部と、
    前記効果処理部からソースイメージを入力されて保存するソースイメージバッファと、
    前記3次元イメージに前記特殊効果が表現された結果イメージを保存する結果イメージバッファと、
    前記結果イメージバッファに保存された結果イメージと、前記ソースイメージバッファに保存されたソースイメージとを合成するイメージ合成部と、
    を備えることを特徴とする請求項28に記載の3次元イメージ特殊効果表現装置。
  31. 前記効果処理部は、
    三角形に分割された前記3次元イメージに対して、前記表現しようとする特殊効果を利用して前記三角形の頂点レベルで所定の演算を行う頂点処理部と、
    前記表現しようとする特殊効果を利用して、前記三角形のピクセルレベルで所定の演算を行うピクセル処理部と、
    を備えることを特徴とする請求項30に記載の3次元イメージ特殊効果表現装置。
  32. 前記複数の特殊効果の表現のためのノードは、
    前記結果イメージと前記ソースイメージとの合成時、前記ソースイメージに乗算される値が指定される‘srcBlending’フィールド、前記結果イメージに乗算される値が指定される‘dstBlending’フィールド、前記結果イメージと前記ソースイメージとの演算を指定する‘blendingOp’フィールド、前記ソースイメージの透明度テストのための演算を指定する‘alphaOp’フィールド、及び、前記ソースイメージの透明度テストのための基準値を指定する‘alphaRef’フィールドのうち、少なくとも何れか1つを備えること、
    を特徴とする請求項30に記載の3次元イメージ特殊効果表現装置。
  33. 前記イメージ合成部は、
    前記ソースイメージに前記‘srcBlending’フィールドで指定された値が乗算された結果と、前記結果イメージに前記‘dstBlending’フィールドで指定された値が乗算された結果に対して、前記‘blendingOp’フィールドで指定された演算を行って合成された結果イメージを生成すること、
    を特徴とする請求項32に記載の3次元イメージ特殊効果表現装置。
  34. 前記‘alphaOp’フィールドで指定された演算を利用して、前記ソースイメージの透明度と前記‘alphaRef’フィールドで指定された基準値とを比較して、前記ソースイメージに対する透明度テストを行い、前記ソースイメージが前記透明度テストを通過した場合、前記イメージ合成部を動作させる信号を生成して出力するテスト実行部をさらに備えること、
    を特徴とする請求項32に記載の3次元イメージ特殊効果表現装置。
  35. 3次元イメージに特殊効果を表現する3次元イメージ特殊効果表現装置であって、
    複数のテクスチャを前記3次元イメージに合成して表現するために、VRMLで定義されたノードについての情報が保存されたメモリと、
    前記3次元イメージに表現しようとする複数のテクスチャについての情報を有するVRMLファイルが入力されるファイル入力部と、
    前記入力されたVRMLファイルを前記メモリに保存されたノード情報を利用して分析して、前記複数の特殊効果についての情報を出力するファイル分析部と、
    前記分析された複数のテクスチャについての情報を利用して、前記3次元イメージに前記複数のテクスチャを合成する多重テクスチャ合成部とを備えること、
    を特徴とする3次元イメージ特殊効果表現装置。
  36. 前記複数のテクスチャは、
    前記3次元イメージの大きさに比例する大きさのテクスチャを前記3次元イメージに表現するMipMap(Multum In Parvo MAP)テクスチャと、前記3次元イメージの周辺イメージを前記3次元イメージに反映するキューブ環境テクスチャのうち、少なくとも1つを備えること、
    を特徴とする請求項35に記載の3次元イメージ特殊効果表現装置。
  37. 前記多重テクスチャ合成部は、
    前記3次元イメージに前記複数のテクスチャのそれぞれを表現してテクスチャイメージを生成するテクスチャ表現部と、
    前記テクスチャ表現部からテクスチャイメージを入力されて保存するテクスチャイメージバッファと、
    前記3次元イメージに前記特殊効果が表現された結果イメージを保存する結果イメージバッファと、
    前記結果イメージバッファに保存された結果イメージと、前記テクスチャイメージバッファに保存されたテクスチャイメージとを合成するイメージ合成部とを備えること、
    を特徴とする請求項35に記載の3次元イメージ特殊効果表現装置。
  38. 前記テクスチャ表現部は、
    三角形に分割された前記3次元イメージに対して、前記表現しようとするテクスチャを利用して前記三角形のピクセルレベルで所定の演算を行うこと、
    を特徴とする請求項37に記載の3次元イメージ特殊効果表現装置。
  39. 前記多重テクスチャ効果のためのノードは、
    基本色を指定する‘tfactorColor’フィールド、基本透明度値を指定する‘tfactorAlpha’フィールド、前記結果イメージと前記テクスチャイメージとの色混合時に使用される演算が指定される‘colorStages’フィールド、前記結果イメージの透明度の決定時に使用される演算が指定される‘alphaStages’フィールド、前記3次元イメージに表現しようとする複数のテクスチャを指定する‘textureIndices’フィールド、前記複数のテクスチャの座標値を指定する‘texGeneration’フィールド、前記複数のテクスチャについての変換情報を指定する‘texTransformIndices’フィールドのうち、少なくとも何れか1つを備えること、
    を特徴とする請求項37に記載の3次元イメージ特殊効果表現装置。
  40. 前記イメージ合成部は、
    前記結果イメージの色、前記テクスチャイメージの色、前記‘tfactorColor’フィールドで指定された基本色のうち、少なくとも何れか1つで前記‘colorStages’フィールドで指定された演算を行って、前記合成された結果イメージの色を演算する色演算部と、
    前記結果イメージの透明度、前記テクスチャイメージの透明度、前記‘tfactorAlpha’フィールドで指定された基本透明度のうち、少なくとも何れか1つで前記‘alphaStages’フィールドで指定された演算を行って、前記合成された結果イメージの透明度を演算する透明度演算部とを備えること、
    を特徴とする請求項39に記載の3次元イメージ特殊効果表現装置。
JP2006041571A 2005-02-17 2006-02-17 3次元イメージ特殊効果表現方法及びその装置、並びに、vrmlノード及びその生成方法 Pending JP2006228231A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050013142A KR100612890B1 (ko) 2005-02-17 2005-02-17 3차원 이미지의 다중 특수 효과 표현 방법 및 장치

Publications (1)

Publication Number Publication Date
JP2006228231A true JP2006228231A (ja) 2006-08-31

Family

ID=36815185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006041571A Pending JP2006228231A (ja) 2005-02-17 2006-02-17 3次元イメージ特殊効果表現方法及びその装置、並びに、vrmlノード及びその生成方法

Country Status (3)

Country Link
US (1) US7598951B2 (ja)
JP (1) JP2006228231A (ja)
KR (1) KR100612890B1 (ja)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7898542B1 (en) * 2006-03-01 2011-03-01 Adobe Systems Incorporated Creating animation effects
KR101288970B1 (ko) * 2006-11-28 2013-07-24 삼성전자주식회사 렌더링 장치 및 방법
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
WO2012170946A2 (en) 2011-06-10 2012-12-13 Flir Systems, Inc. Low power and small form factor infrared imaging
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US8655810B2 (en) * 2010-10-22 2014-02-18 Samsung Electronics Co., Ltd. Data processing apparatus and method for motion synthesis
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
CN103875235B (zh) 2011-06-10 2018-10-12 菲力尔系统公司 用于红外成像装置的非均匀性校正技术
EP2719166B1 (en) 2011-06-10 2018-03-28 Flir Systems, Inc. Line based image processing and flexible memory system
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US8754892B2 (en) * 2011-10-28 2014-06-17 International Business Machines Corporation Visualization of virtual image relationships and attributes
RU2481640C1 (ru) * 2011-12-01 2013-05-10 Корпорация "Самсунг Электроникс Ко., Лтд" Способ и система генерации анимированных художественных эффектов на статичных изображениях
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor
KR102571744B1 (ko) * 2021-05-06 2023-08-29 한국전자통신연구원 3차원 콘텐츠 생성 방법 및 장치

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU761202B2 (en) * 1997-09-22 2003-05-29 Sony Corporation Generation of a bit stream containing binary image/audio data that is multiplexed with a code defining an object in ascii format
KR100272132B1 (ko) * 1998-06-08 2000-11-15 윤종용 가상 세계 모델링 언어에 의해 표현된 영상의 입체화방법 및그 장치
US6771264B1 (en) * 1998-08-20 2004-08-03 Apple Computer, Inc. Method and apparatus for performing tangent space lighting and bump mapping in a deferred shading graphics processor
US6396502B1 (en) 1999-10-15 2002-05-28 Hewlett-Packard Company System and method for implementing accumulation buffer operations in texture mapping hardware
JP2003090714A (ja) 2001-09-18 2003-03-28 Shigenori Tanaka 画像処理装置、及び画像処理プログラム
JP3616806B2 (ja) 2001-12-03 2005-02-02 株式会社ヤッパ Web3Dオブジェクト生成システム
US6906714B2 (en) * 2002-06-21 2005-06-14 Intel Corporation Accelerated visualization of surface light fields
AU2003277240A1 (en) 2002-10-15 2004-06-07 University Of Southern California Augmented virtual environments

Also Published As

Publication number Publication date
US20060181528A1 (en) 2006-08-17
US7598951B2 (en) 2009-10-06
KR100612890B1 (ko) 2006-08-14

Similar Documents

Publication Publication Date Title
JP2006228231A (ja) 3次元イメージ特殊効果表現方法及びその装置、並びに、vrmlノード及びその生成方法
Hughes Computer graphics: principles and practice
Ebert et al. Texturing and modeling: a procedural approach
KR101145260B1 (ko) 3d 객체 모델에 텍스쳐를 매핑하는 방법 및 장치
US7256781B2 (en) Image processing apparatus and method of same
Ganovelli et al. Introduction to computer graphics: A practical learning approach
US6556198B1 (en) Polyhedron generating method and apparatus thereof, and storage medium for storing the method
Pessoa et al. RPR-SORS: Real-time photorealistic rendering of synthetic objects into real scenes
Driemeyer Rendering with mental ray®
JP2006517705A (ja) コンピュータグラフィックスシステム及びコンピュータグラフィクイメージのレンダリング方法
Doppioslash Physically based shader development for unity 2017
Shen et al. Interactive visualization of three-dimensional vector fields with flexible appearance control
JP2003168130A (ja) リアルタイムで合成シーンのフォトリアルなレンダリングをプレビューするための方法
Rohe An Optical Test Simulator Based on the Open-Source Blender Software.
Stephenson Essential RenderMan®
KR100295709B1 (ko) 스폿라이트 특성 형성 방법 및 이것을 이용한 화상 처리 시스템
Stemkoski et al. Developing Graphics Frameworks with Java and OpenGL
Moura et al. RPR-SORS: an authoring toolkit for photorealistic AR
Angel et al. An interactive introduction to computer graphics using WebGL
JP3261832B2 (ja) 画像生成装置
Andrei et al. Bioblender: A software for intuitive representation of surface properties of biomolecules
Marek et al. Possibilities for development and use of 3D applications on the android platform
US11132836B2 (en) Method for determining real world measurements from an apparel 3D model
Pokorný et al. A Conversion of 3D Graphics from Blender to Unreal Engine
Blythe et al. Lighting and shading techniques for interactive applications

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061114