JP2001092989A - 画像処理方法及びその装置 - Google Patents

画像処理方法及びその装置

Info

Publication number
JP2001092989A
JP2001092989A JP2000215354A JP2000215354A JP2001092989A JP 2001092989 A JP2001092989 A JP 2001092989A JP 2000215354 A JP2000215354 A JP 2000215354A JP 2000215354 A JP2000215354 A JP 2000215354A JP 2001092989 A JP2001092989 A JP 2001092989A
Authority
JP
Japan
Prior art keywords
polygon
volume
data
image processing
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000215354A
Other languages
English (en)
Inventor
Yusuke Shimizu
祐介 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Priority to JP2000215354A priority Critical patent/JP2001092989A/ja
Priority to US09/620,992 priority patent/US6744430B1/en
Publication of JP2001092989A publication Critical patent/JP2001092989A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)

Abstract

(57)【要約】 【課題】 ボリューム表現をリアルタイムで実現する画
像処理方法及びその装置に関し、リアルタイムポリゴン
描画により、ボリューム表現を実現する。 【解決手段】ボリュームをボリュームポリゴンで定義
し、ボリュームポリゴンと描画対象ポリゴンとの奥行き
差を検出し、奥行き差からボリュームポリゴンのアトリ
ビュートを変調し、変調されたボリュームポリゴンと描
画対象ポリゴンとからピクセル毎の画像データを生成す
る。これにより、リアルタイムポリゴン描画により、ボ
リューム表現を実現できる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ボリューム表現を
可能にする画像処理方法及びその装置に関し、特に、空
間に配置されたフォグ(霧)やほこりの効果、レンズを
通して見た物体及び磨りガラス等のボリュームレンダリ
ングをポリゴンにより実現する画像処理方法及びそれを
実施する画像処理装置に関する。
【0002】
【従来の技術】現実の風景を良く見ると、遠景になるほ
ど地形や構造物がかすみ、大気と混ざり合ったように見
えることがある。特に、都市等において、スモッグなど
が発生した場合などに顕著である。又、濃霧時には、近
傍の景色すらよく見えないことがある。これらは、対象
物からの光線が、空気中に存在するちりや水蒸気などの
微粒子により遮られ、観察者に至るまでに減衰すること
により生じる。また、夜の街灯やサーチライトなどは、
光源からの光の軌跡を描いて、物体を照らすことがあ
る。この光源の軌跡は、光源からの光が空気中の微粒子
などにより拡散反射して、目に見えるために生じる。こ
のような現象の表現は、空間の状態がシーンに影響を与
えるため、空間に対する描画、即ち、ボリュームレンダ
リングが必要となる。
【0003】現在の一般的リアルタイム3DCG(3次
元コンピュータグラフィックス)は、ポリゴンと呼ばれ
る平面モデルを描画するサーフェイスレンダリングが主
流である。ボリュームレンダリングは、ボリューム領域
内部を描画する必要があるため、リアルタイムCGにお
いて、リアルタイムにボリュームを描画することは工夫
が必要であり、従来以下の手法が提案されている。 (1)レイ・キャステイング法:描画空間をボクセルと
呼ぶ視野方向から見た立方体の微小単位空間に仕切り、
各ボクセルに対しボリューム密度などの属性を算出す
る。描画時は、スクリーン上の各ピクセルに対応した描
画空間に視線を飛ばして、サンプリングするボクセルに
存在するボリュームの濃度データを加算した合計をピク
セルデータとする。 (2)マーチン・キューブス法:レイ・キャステイング
法と同様に、ボリュームデータをボクセル毎の濃度デー
タとし、その濃度を、ある設定した閾値に沿ったポリゴ
ンメッシュに変換する。 (3)シーンフォグ法:光線の減衰の表現方法であり、
描画する物体に対し、フォグカラーと呼ばれる単一色を
視点からのZ値により混合比を求め、ブレンドする。
【0004】
【発明が解決しようとする課題】しかしながら、上記従
来の(1)、(2)の方法では、オブジエクトをボリュ
ームに分割する時点で、莫大なデータ量、演算量が必要
であり、ゲームなどのように描画領域が広大で、絶えず
変化しているような画像処理に適用できないという問題
があった。
【0005】又、従来の(3)の方法では、シーン全体
に対し、均一にフォグが処理されるため、濃霧などのよ
うに密度に濃淡がある場所での表現や、景色の一部にフ
ォグを施す等の表現が出来ないため、リアリテイに欠け
るという問題があった。
【0006】従って、本発明の目的は、ボリューム表現
をリアルタイムで実現するための画像処理方法及びその
装置を提供するにある。
【0007】本発明の他の目的は、必要な領域でボリュ
ーム表現して、画像のリアリテイを向上するための画像
処理方法及びその装置を提供するにある。
【0008】更に、本発明の目的は、複雑なボリューム
表現を簡易に実現するための画像処理方法及び装置を提
供するにある。
【0009】更に、本発明の他の目的は、複数のボリュ
ームを高速に処理するための画像処理方法及びその装置
を提供するにある。
【0010】更に、本発明の他の目的は、空間に配置さ
れたフォグ(霧)やほこり、レンズを通して見た物体及
び磨りガラス等のボリューム表現を容易に実現するため
の画像処理方法及びその装置を提供することにある。
【0011】
【課題を解決するための手段】上記の目的を達成するた
めに、本発明は、複数のポリゴンデータから表示画面の
ピクセル毎の画像データを生成する画像処理方法におい
て、ボリュームを表現するためのボリュームポリゴンと
描画対象ポリゴンとを受け、前記ボリュームポリゴンと
前記描画対象ポリゴンとの奥行き差を検出するステップ
と、前記奥行き差により前記ボリュームポリゴンのアト
リビュートを変調するステップと、前記変調されたポリ
ゴンと、前記描画対象ポリゴンとからピクセル毎の画像
データを生成するステップとを有する。ポリゴンでボリ
ューム表現し、奥行き差でポリゴンを変調するため、リ
アルタイムポリゴン描画により、ボリューム表現でき
る。
【0012】又、前記変調ステップは、前記検出した奥
行き差を変換テーブルにより、ブレンド値に変換するス
テップからなることにより、ブレンド処理を利用して、
ボリューム表現が可能となる。
【0013】更に、前記変調ステップは、前記検出した
奥行き差でテクスチャ座標を変調するステップからなる
ことにより、テクスチャ処理を利用して、ボリューム表
現が可能となる。
【0014】更に、前記奥行き差を検出するステップ
は、前記ボリュームポリゴンと前記描画対象ポリゴンと
の重なり領域を判定するステップと、前記重なり領域に
おいて、前記ボリュームポリゴンと前記描画対象ポリゴ
ンとの奥行き差を検出するステップとを有することによ
り、部分的なボリューム表現が可能となる。
【0015】更に、前記判定ステップは、複数のボリュ
ームポリゴンと前記描画対象ポリゴンとの重なり領域を
判定するステップからなることにより、複数ボリューム
の処理が可能となる。
【0016】更に、描画対象ポリゴンと視点との間に存
在するライトボリュームポリゴンの奥行き差に基づい
て、ライトボリュームポリゴンの透明度を変更し、描画
対象ポリゴンを、ライトボリュームポリゴンの色データ
と変更された透明度に従ってブレンディング処理する。
その結果、空間に配置されたフォグ(霧)やほこりとい
った特殊効果を表現することができる。
【0017】本発明の別の側面は、描画対象ポリゴンと
視点との間に存在するレンズボリュームポリゴンの奥行
き差に基づいて、レンズボリュームポリゴンのテクスチ
ャ座標を変更し、レンズボリュームポリゴンのテクスチ
ャデータを、変更されたテクスチャ座標に従って取得
し、レンズボリュームポリゴンの描画を行う。こうする
ことにより、例えば、レンズを通して見た物体の効果と
いった特殊効果を表現することができる。
【0018】本発明の別の側面は、描画対象ポリゴンと
半透明ポリゴンとの奥行き差に基づいて、描画対象ポリ
ゴンにおけるテクスチャデータの細度レベルを変更し、
描画対象ポリゴンを、変更した細度レベルに対応するテ
クスチャデータに従って描画する。本発明の別の側面
は、描画対象ポリゴンと半透明ポリゴンとの奥行き差に
基づいて、半透明ポリゴンの透明度を変更し、描画対象
ポリゴンを、半透明ポリゴンの色データと変更された透
明度に従ってブレンディング処理する。こうすることに
より、例えば、磨りガラスの効果といった特殊効果を表
現することができる。
【0019】
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態例を、ボリューム表現処理、画像処理装置、他
の画像処理装置、デイジョンボリューム処理、レンダー
ボリューム処理の順で説明する。しかしながら、かかる
実施の形態例が、本発明の技術的範囲を限定するもので
はない。
【0020】[ボリューム表現処理]図1及び図2は、
本発明の第1の実施の形態のフォグボリュームやほこり
等のライトボリューム表現の説明図である。図1の例で
は、光源1から照射された光が、窓などのポリゴン2を
通過して、半無限のライトボリューム3を形成してい
る。このライトボリューム3は、光源1とポリゴン(物
体)2によって生じる仮想的な光空間のことである。そ
して、ポリゴン描画システムでは、ライトボリューム3
は、ライトボリュームポリゴン(上面)3a、ライトボ
リュームポリゴン(下面)3b、ライトボリュームポリ
ゴン(側面)3c、及びライトボリュームポリゴン(側
面)3dの4つのポリゴンから構成されている。ライト
ボリューム3の位置にフォグやほこりが存在する場合
は、光が拡散されるため、そのライトボリューム3の領
域は白っぽい透明な領域になる。
【0021】いま、視点4からスクリーン5を通して描
画対象であるポリゴン7を見た場合、描画対象であるポ
リゴン7(以下、適宜、描画対象ポリゴン7と称する)
は、ライトボリューム3の奥側に位置しているものとす
る。このとき、視点4から視線6の方向に描画対象ポリ
ゴン7を見た場合、ライトボリューム3に遮られる領域
であるポリゴン7の領域7a(図中斜線部分)は、白っ
ぽく見えるのが好ましいい。しかも、ライトボリューム
3の厚みが大きいほど、その白っぽさが強くなるのが好
ましい。
【0022】このボリューム表現を実現するために、本
実施の形態では、視点4と描画対象ポリゴン7との間に
存在するライトボリュームポリゴン3cとライトボリュ
ームポリゴン3dとの奥行き差(Z差分)に基づいて、
ライトボリュームポリゴン3cとライトボリュームポリ
ゴン3dのアトリビュートである透明度(α値)を変更
する。そして、描画対象ポリゴン7を描画する際に、ラ
イトボリュームポリゴン3cとライトボリュームポリゴ
ン3dの色データと変更された透明度(α値)に従っ
て、ブレンディング処理を行う。即ち、ライトボリュー
ムの厚みをZ値差分により、検出し、ライトボリューム
ポリゴンの透明度(α値)という属性データに反映さ
せ、α値利用の通常のブレンディング処理でフォグやほ
こりの効果を実現することができる。
【0023】このブレンディング処理について、図2を
参照して説明する。図2は、図1の上面図である。図2
の例では、上方向がZ方向(奥行き方向)になってい
る。ライトボリュームポリゴン3cとライトボリューム
ポリゴン3dとの奥行き差(ΔZ)に基づいて、ライト
ボリュームポリゴン3cとライトボリュームポリゴン3
dの透明度(α値)を変更する。ライトボリュームポリ
ゴン3cとライトボリュームポリゴン3dの色データを
X1、描画対象ポリゴン7の色データをX2とすると、
描画対象ポリゴン7のブレンディング色は、次の(1)
式で算出される。
【0024】 描画対象ポリゴン7のブレンディング色=αX1+(1−α)X2…(1) 尚、上記(1)式において、ライトボリュームが薄く白
っぽさが少ない場合、α値は0に近くなり、ライトボリ
ュームが厚く白っぽさが多い場合、α値は1に近くなる
ようにすれば良い。従って、α値は、ライトボリューム
ポリゴン3cとライトボリュームポリゴン3dとの奥行
き差(ΔZ)に基づいて、0乃至1の値をとる。
【0025】図3、図4及び図5は、本発明の第2の実
施の形態のレンズボリューム表現の説明図である。図3
の例では、描画対象であるポリゴン11(表面に「ゲー
ム」という文字(テクスチャ)が貼り付けられている)
と視点15との間に、レンズボリューム12が存在して
いる。このレンズボリューム12は、レンズボリューム
ポリゴンから構成されており、凸レンズまたは凹レンズ
の機能を有する。従って、レンズボリュームポリゴン1
2が凸レンズである場合、視点15から視線16の矢印
方向にスクリーン13を見ると、描画対象ポリゴン11
の表面の「ゲーム」という文字からなる模様(テクスチ
ャ)は、スクリーン13上で拡大されて見えることが好
ましい。また、レンズボリュームポリゴン12が凹レン
ズである場合、視点15から視線16の矢印方向にスク
リーン13を見ると、描画対象ポリゴン11の表面の
「ゲーム」という文字からなる模様(テクスチャ)は、
スクリーン13上で縮小されて見えることが好ましい。
【0026】このボリューム表現を実現するために、本
実施の形態では、描画対象ポリゴン11と視点15との
間に存在するレンズボリュームポリゴン12の奥行き差
(Z差分)に基づいて、レンズボリュームポリゴン12
のアトリビュートであるテクスチャ座標を変更する。そ
して、レンズボリュームポリゴン12のテクスチャデー
タを変更されたテクスチャ座標に従って取得し、レンズ
ボリュームポリゴン12の上に拡大された模様または縮
小された模様の描画を行う。
【0027】上記テクスチャ座標の変更について、図4
及び図5を参照して更に詳しく説明する。図4(A)
は、図3を側面から見た図で、レンズボリュームポリゴ
ン12が凸レンズである場合を示しており、図4(B)
は、図3を側面から見た図で、レンズボリュームポリゴ
ン12が凹レンズである場合を示している。図4では、
横方向がZ方向(奥行き方向)となっている。図5は、
テクスチャメモリ21に格納されているテクスチャデー
タ22の一例を示している。図5では、横軸がx軸を示
しており、縦軸がy軸を示している。
【0028】図4(A)に示すように、レンズボリュー
ムポリゴン12aが凸レンズである場合、レンズボリュ
ームポリゴン12aの奥行き差(ΔZ)がレンズ中心の
基準値ΔZ0に比較して小さくなるに従い、テクスチャ
データ22のテクスチャ座標(Tx1,Ty1),(Tx2,
Ty2),(Tx3,Ty3),(Tx4,Ty4)を、レンズ中
心側のテクスチャ座標(Tx5,Ty5),(Tx6,Ty
6),(Tx7,Ty7),(Tx8,Ty8)にずらす。これ
により、テクスチャデータ22の中で「ゲーム」という
文字が占める割合が相対的に大きくなり、「ゲーム」と
いう文字を拡大した模様に見せることができる。
【0029】一方、図4(B)に示すように、レンズボ
リュームポリゴン12bが凹レンズである場合、レンズ
ボリュームポリゴン12bの奥行き差(ΔZ)がレンズ
中心の基準値ΔZ0に比較して大きくなるに従い、テク
スチャデータ22のテクスチャ座標(Tx1,Ty1),
(Tx2,Ty2),(Tx3,Ty3),(Tx4,Ty4)を、
レンズ周囲側のテクスチャ座標(Tx9,Ty9),(Tx1
0,Ty10),(Tx11,Ty11),(Tx12,Ty12)にず
らす。これにより、テクスチャデータ22の中で「ゲー
ム」という文字が占める割合が相対的に小さくなり、
「ゲーム」という文字を縮小した模様に見せることがで
きる。
【0030】第2の実施の形態例では、レンズを構成す
るレンズボリュームポリゴンの奥行き差に従って、テク
スチャ座標という属性データ(アトリビュート)を変更
することで、通常のレンダリング方法に従ってレンズ上
の模様を拡大、縮小させることができる。
【0031】図6、図7及び図8は、本発明の第3の実
施の形態の磨りガラスのボリューム表現の説明図であ
る。図6の例では、スクリーン31上において、手前か
ら順番に磨りガラスに対応する半透明ポリゴン32、描
画対象ポリゴン33、描画対象ポリゴン34が存在す
る。視点35からスクリーン31を見ると、半透明ポリ
ゴン(磨りガラス)32の影響で、半透明ポリゴン32
に近い描画対象ポリゴン33は比較的鮮明に見えるが、
半透明ポリゴン32から遠い描画対象ポリゴン34は不
鮮明にぼやけて見えることが好ましい。
【0032】この表現効果を実現するために、本実施の
形態では、描画対象ポリゴン33及び34と半透明ポリ
ゴン32との奥行き差(Z差分)に基づいて、描画対象
ポリゴン33及び34におけるテクスチャデータの細度
レベル(以下、適宜、LOD(Level Of Detail)と称する)
を変更し、描画対象ポリゴン33及び34を変更した細
度レベルに対応するテクスチャデータに従って描画す
る。また、描画対象ポリゴン33及び34と半透明ポリ
ゴン32との奥行き差(Z差分)に基づいて、半透明ポ
リゴン32の透明度(α値)を変更し、描画対象ポリゴ
ン33及び34を半透明ポリゴン32の色データと変更
された透明度(α値)に従ってブレンディング処理す
る。
【0033】上記細度レベルの変更について、図7及び
図8を参照して説明する。図7は、図6の半透明ポリゴ
ン32、描画対象ポリゴン33及び描画対象ポリゴン3
4を、視点35から近い順に左から右に並べたものであ
る。図7の横方向はZ方向(奥行き方向)を示してい
る。
【0034】図8は、MIPMAPのテクスチャデータの記録
形態を示している。図8の例では、5種類の細度(ディ
テール)レベルのテクスチャデータが示されている。横
軸はx軸を、縦軸はy軸を示している。図8(A)は、
最高の細度レベルであるLOD=0のテクスチャデータ4
0を示しており、最も解像度が高いデータであり、その
データ領域のx軸の大きさはΔTx、y軸の大きさはΔ
Tyとなっている。図8(B)はその次の細度レベルLO
D=1のテクスチャデータ41を、図8(C)はさらに
その次の細度レベルLOD=2のテクスチャデータ42
を、図8(D)は4番目の細度レベルLOD=3のテクス
チャデータ43を、図8(E)は最低の細度レベルであ
るLOD=4のテクスチャデータ44を示している。
【0035】最高の細度レベルであるテクスチャデータ
40は、最もデータ量が多いため更新処理時間は最も長
くなるが、表示される画像は最も鮮明になる。そして、
それに続いて更新対象がテクスチャデータ41、テクス
チャデータ42、テクスチャデータ43、テクスチャデ
ータ44になるにしたがってデータ量は少なくなり、テ
クスチャデータ44のデータ量が最も少なくなる。従っ
て、最低の細度レベルであるテクスチャデータ44の更
新処理時間は最も短くなるが、表示される画像は最も不
鮮明な画像となる。
【0036】LOD=1乃至LOD=4のテクスチャデータ
は、LOD=0のテクスチャデータ40を縮小することに
より求められる。即ち、LOD=1乃至LOD=4のテクスチ
ャデータのx軸及びy軸の大きさは、それぞれ、次の
(2)式および(3)式で演算され、細度レベルが下が
るにつれて、LOD値は大きくなり、データ量は1/4,
1/16,1/64,1/256と少なくなる。
【0037】x=ΔTx/2LOD …(2) y=ΔTy/2LOD …(3) 従って、細度レベルが高いほどLOD値は小さくなり、デ
ータ量も多くなり、一方、細度レベルが低いほどLOD値
は大きくなり、データ量も少なくなる。上記の細度レベ
ルが異なるLOD=0乃至LOD=4のテクスチャデータは、
視点からの距離(Z値)に応じて利用される。即ち、視
点からの距離がより近い場合は、より高い細度レベルの
テクスチャデータが、視点からの距離がより遠い場合
は、より低い細度レベルのテクスチャデータがそれぞれ
利用され、画像処理の最適化が図られている。
【0038】図7において、描画対象ポリゴン33と半
透明ポリゴン32との奥行き差(ΔZ)に基づいて、描
画対象ポリゴン33におけるテクスチャデータの細度レ
ベルをより低く、例えば、LOD=0からLOD=1に変更
し、描画対象ポリゴン33をその変更したLOD=1に対
応するテクスチャデータ41に従って描画する。また、
描画対象ポリゴン34と半透明ポリゴン32との奥行き
差(ΔZ)に基づいて、描画対象ポリゴン34における
テクスチャデータの細度レベルをより低く、例えば、LO
D=2からLOD=4に変更し、描画対象ポリゴン34をそ
の変更したLOD=4に対応するテクスチャデータ44に
従って描画する。これにより、描画対象ポリゴン33は
比較的鮮明に表示され、描画対象ポリゴン34は不鮮明
に表示される。この結果、磨りガラスの効果を擬似的に
表現することが可能となる。
【0039】上述したブレンディング処理について、さ
らに詳しく説明する。描画対象ポリゴン33及び34と
半透明ポリゴン32との奥行き差(ΔZ)に基づいて、
半透明ポリゴン32の透明度(α値)を変更し、描画対
象ポリゴン33及び34を半透明ポリゴン32の色デー
タと変更された透明度(α値)に従って、次の(4)式
及び(5)式を用いてブレンディング処理する。例え
ば、上記奥行き差ΔZが大きいほど透明度(α値)を不
透明の1に近づけ、奥行き差ΔZが小さいほど透明度
(α値)を透明の0に近づける。これにより、磨りガラ
スの効果を擬似的に表現することが可能となる。
【0040】XN=αX1+(1−α)X2…(4) XN=αX1+(1−α)X3…(5) 但し、上記(4)式及び(5)式において、X1は半透
明ポリゴン32の色データを、X2は描画対象ポリゴン
33の色データを、X3は描画対象ポリゴン34の色デ
ータを表している。
【0041】図9は、本発明のボリューム表現の第4の
実施の形態のレンダーボリュームの説明図であり、図1
及び図2の具体例であり、フォグボリューム、ライトボ
リュームをより具体的に説明する。図9(A)は、三角
形ポリゴンの一部にフォグ又はライトボリュームがかか
っているボリューム表現を示す。図9(B)に示すよう
に、ボリュームの外枠を形成するポリゴンバッチ(ボリ
ュームポリゴン)を用意する。
【0042】図9(C)の図9(B)のスキャンライン
のZ−X軸断面に示すように、ボリュームの視点方向の
厚みを濃度の要素決定関数に使用する。即ち、ボリュー
ムポリゴン間、ボリュームポリゴンと他のポリゴンとの
厚みであるZ値差分を計算し、濃度データを作成する。
そして、図9(D)に示すように、ボリュームポリゴン
をこの濃度に合わせた半透明化し、即ち、ポリゴンのア
トリビュートを変調することにより、ブレンデイングす
る。これにより、1回の処理により、該当部分のボリュ
ームレンダンリングを完結できる。
【0043】この半透明化したポリゴンには、前面のボ
リュームポリゴンに付随する属性(テクスチャ座標、カ
ラー、法線等)が承継される。生成ポリゴンをαブレン
デイングした場合は、フォグボリューム、加算した場合
には、ライトボリュームの効果が得られる。
【0044】このように、ボリュームの外枠をポリゴン
で表示し、ボリュームの視点方向の厚みを濃度の要素決
定関数に使用することにより、データ量、演算量を減少
して、ボリューム表現が可能となる。このため、リアル
タイムCGにおいて、リアルタイムにボリューム表現が
可能となる。
【0045】又、ボリュームの視点方向の厚みでテクス
チャデータを変調すると、図3乃至図5のレンズボリュ
ームを表現でき、図6乃至図8のスリガラスのボリュー
ム表現ができる。
【0046】[画像処理装置]図10は、本発明を適用
した画像処理装置52の一実施の形態の構成を示すブロ
ック図である。CPU61は、ワークRAM62に予め格納さ
れているゲームプログラムを実行し、オブジェクトを構
成するポリゴンデータや表示画面の視点情報等を生成す
る。CPU 61で生成されたポリゴンデータやディスプレ
イリスト(スクリーン上の全てのピクセルに対応した情
報)は、適宜、ワークRAM62に格納され、読み出され
る。ワークRAM62には、必要に応じて外部のデータメ
モリ51(例えば、ハードディスク等)から読み出され
たテクスチャデータが、一時的に格納される。CPU61
は、操作入力とゲームプログラムに従って生成したポリ
ゴンデータであって、オブジェクト座標系で定義されて
いるポリゴンデータPD1をジオメトリブロック63に
供給する。
【0047】ジオメトリブロック63は、供給されたオ
ブジェクト座標系のポリゴンデータPD1を3次元のワ
ールド座標系のデータに変換する。次に、ジオメトリブ
ロック63は、3次元のワールド座標系に変換されたポ
リゴンデータを2次元のスクリーン座標系に変換する透
視変換を行う。このようにして、ジオメトリブロック6
3で生成されたスクリーン座標系で定義されているポリ
ゴンデータPD2は、ピクセルデータ生成部64に供給
される。
【0048】ジオメトリブロック63で生成されたスク
リーン座標系で定義されているポリゴンデータPD2の
一例を図11に示す。図11は、ポリゴンID1を構成す
る頂点データの一例を示している。ポリゴンID1は、ポ
リゴンの属性情報を有している。ポリゴンの属性情報と
は、ポリゴンの属性を識別するための情報で、例えば、
ポリゴンID1が不透明ポリゴンである場合は「A」が記
入されており、ポリゴンID1が半透明ポリゴンである場
合は「B」が記入されており、ポリゴンID1がライトボ
リュームを構成するライトボリュームポリゴンである場
合は「C」が記入されており、ポリゴンID1がレンズボ
リュームを構成するレンズボリュームポリゴンである場
合は「D」が記入されている。
【0049】ポリゴンID1は4つの頂点データから構成
されており、頂点1のデータは、表示画面内の位置を示
すスクリーン座標(Sx,Sy)、表示画面内の奥行き
を示すZ値、R(赤)、G(緑)、B(青)のカラー情
報及び透明度を示すα値、テクスチャデータを識別する
ためのテクスチャID、テクスチャデータの座標を示すテ
クスチャ座標(Tx,Ty)、LODオフセット値等から
構成されている。頂点2、頂点3及び頂点4のデータ構
成も頂点1と同様である。
【0050】ピクセルデータ生成部64は、ジオメトリ
ブロック63から供給されるポリゴンデータPD2を、
フラクタル処理またはラスタスキャン処理によって、ピ
クセルデータPD3に変換する。ピクセルデータ生成部
64で生成されたピクセルデータPD3の一例を図12
に示す。ピクセル1は、ポリゴンID及びポリゴンの属性
情報(前述のA,B,CまたはD)、スクリーン座標
(Sx,Sy)、Z値、カラー情報(R,G,B,α
値)、テクスチャID、テクスチャ座標(Tx,Ty)、
及びLODオフセット値から構成されている。ピクセル
2、ピクセル3、及びピクセル4のデータ構成もピクセ
ル1と同様である。これらのピクセルデータは、一般に
頂点データを直線補間演算することにより算出される。
ピクセルデータ生成部64で生成されたピクセルデータ
PD3は全て、ピクセル毎の領域を有するソートバッフ
ァ66内の各ピクセル領域内にZ値順に格納され、後述
するレンダリング処理時に参照される。
【0051】図13は、ピクセルソータ65の構成例を
示している。ソート処理部81は、ピクセルデータ生成
部64から供給されるピクセルデータPD3に対して、
Z値に基づいてソーティングを行い、図13に示される
ように、ピクセル毎に、Z値順に、ピクセルデータが並
べ替えられる。即ち、ピクセル毎に、ポリゴンID、ポリ
ゴンの属性情報、スクリーン座標(Sx,Sy)、Z
値、カラー情報(R,G,B,α値)、テクスチャID、
テクスチャ座標(Tx,Ty)、LODオフセット値から
なるピクセルデータが、Z値順に並べ替えられる。ソー
ト処理部81でZ値順に並べ替えられたピクセルデータ
は、ソートバッファ66に格納される。
【0052】ソートバッファ66に格納されるピクセル
データについて、図14を参照して説明する。図14の
例では、ポリゴンID1とポリゴンID2のピクセルデータ
がソートバッファ66に格納されている様子を示してい
る。いま、ポリゴンID1が手前に位置し、ポリゴンID2
が奥側に位置しているものとする。ポリゴンID1とポリ
ゴンID2が重なり合っているピクセルbにおいては、Z
値順に、ポリゴンID1のピクセルデータとポリゴンID2
のピクセルデータが記憶されている。このように、ソー
トバッファ66内には、所定の領域内の全ピクセルに対
し、そこに位置する全てのポリゴンのピクセルデータ
が、Z値順に並べて格納される。即ち、ソートバッファ
66は、3Dレジスタで構成される。
【0053】図13に戻り、Z差分検出部82は、ソー
トバッファ66内の各ピクセルのピクセルデータをスキ
ャンすることにより、ほぼ視線に沿って、前述したライ
トボリュームポリゴン及びレンズボリュームポリゴンの
存在を検出し、それらのZ差分を検出する。また、Z差
分検出部82は、磨りガラスなどの半透明ポリゴン32
と、その背後の通常(不透明)ポリゴン33とのZ差分
を検出する。Z差分検出部82で検出されたZ差分信号
ΔZは、アトリビュート変更部67に供給される。ま
た、ソート処理部81は、ポリゴンのピクセルデータP
D4をアトリビュート変更部67に供給する。
【0054】図10に戻り、アトリビュート変更部67
は、Z差分検出部82からライトボリュームポリゴンの
Z差分信号ΔZが供給された場合、そのライトボリュー
ムの位置に半透明ポリゴンを生成し、そのα値をZ差分
信号ΔZに基づいて設定する。若しくは、ライトボリュ
ームポリゴンを半透明ポリゴンとして取り扱い、そのα
値をZ差分信号ΔZに従って変更する。ライトボリュー
ムポリゴンのZ差分が大きいほど、そのα値をより大き
く(より不透明に)する。
【0055】Z差分検出部82からレンズボリュームポ
リゴンのZ差分信号ΔZが供給された場合、アトリビュ
ート変更部67は、そのレンズボリュームポリゴン表面
の模様であるテクスチャに対するテクスチャ座標を、Z
差分信号ΔZに基づいて変更する。レンズボリュームポ
リゴンが凸レンズである場合、アトリビュート変更部6
7は、供給されるZ差分信号ΔZがレンズ中心の基準値
より小さいほどテクスチャ座標をレンズ中心側にずら
す。これにより、レンズボリュームポリゴン表面の模様
を拡大することができる。
【0056】レンズボリュームポリゴンが凹レンズであ
る場合、アトリビュート変更部67は、供給されるZ差
分信号ΔZがレンズ中心の基準値より大きいほどテクス
チャ座標をレンズ周囲側にずらす。これにより、レンズ
ボリュームポリゴン表面の模様を縮小することができ
る。尚、レンズボリュームポリゴンに対しては、その背
後に位置するポリゴンや背景に従って予め拡大率1のテ
クスチャ(模様)を生成して、テクスチャメモリ69内
に格納しておく。そして、上記のようにZ差分信号ΔZ
に基づいて、そのテクスチャ座標をずらすことにより、
テクスチャ(模様)の拡大または縮小を行う。
【0057】Z差分検出部82から磨りガラス(半透明
ポリゴン)と描画対象ポリゴンのZ差分信号ΔZが供給
された場合、アトリビュート変更部67は、供給された
Z差分信号ΔZに基づいて、磨りガラス(半透明ポリゴ
ン)の背後に位置するピクセルのLODオフセット値を変
更する。即ち、アトリビュート変更部67は、Z差分信
号ΔZが大きくなるに従って、磨りガラス(半透明ポリ
ゴン)の背後に位置するピクセルのLODオフセット値を
大きくする。これにより、Z差分が大きくなるに従っ
て、磨りガラスの背後に位置する描画対象ポリゴンのテ
クスチャ(模様)の解像度が悪くなる。
【0058】また、アトリビュート変更部67は、供給
されたZ差分信号ΔZに基づいて、磨りガラス(半透明
ポリゴン)のα値を変更する。即ち、アトリビュート変
更部67は、Z差分が大きくなるに従って、磨りガラス
(半透明ポリゴン)のα値を大きくする(より不透明に
する)。これにより、Z差分が大きくなるに従って、磨
りガラスの色の混ぜ込みの割合が増加する。
【0059】レンダリングブロック68は、アトリビュ
ート変更部67から供給されるピクセルデータPD5を
ピクセル毎にレンダリング(描画)処理する。レンダリ
ング処理について、図15を参照して説明する。図15
(A)は、2つの重なり合った不透明ポリゴン91及び
92をレンダリングする場合を示している。図15
(B)は、2つの重なり合った半透明ポリゴン94と不
透明ポリゴン95をレンダリングする場合を示してい
る。
【0060】図15(A)に示すように、不透明ポリゴ
ン91が手前に位置する場合、レンダリングブロック6
8は、先ず、不透明ポリゴン91を描画する。次に、レ
ンダリングブロック68は、奥側に位置する不透明ポリ
ゴン92を描画する。このとき、不透明ポリゴン92の
領域93は、視点から見えないため描画しない。これに
より、レンダリング処理時間を短くすることができる。
【0061】図15(B)に示すように、半透明ポリゴ
ン94が手前に位置し、その背後に不透明ポリゴン95
が位置する場合、レンダリングブロック68は、先ず、
背後の不透明ポリゴン95を描画する。次に、レンダリ
ングブロック68は、手前に位置する半透明ポリゴン9
4を描画する。このとき、レンダリングブロック68
は、2つのポリゴンが重なり合っている領域96に対し
て、半透明ポリゴン94のα値を利用して色のブレンデ
ィング処理を行う。
【0062】手前にライトボリュームポリゴンが存在
し、その背後に描画対象ポリゴンが存在する場合、レン
ダリングブロック68は、変更したα値を利用して、図
15(B)で説明した処理と同じ処理を行う。また、レ
ンズボリュームポリゴンが存在する場合、既にテクスチ
ャ座標はアトリビュート変更部67で変更されているの
で、レンダリングブロック68は、そのまま不透明ポリ
ゴンと同じ処理を行うだけで、自動的に背後の模様の拡
大または縮小が行われる。さらに、手前に磨りガラスが
存在し、その背後に描画対象ポリゴンが存在する場合、
レンダリングブロック68は、テクスチャデータのLOD
を算出し、変更されたLODオフセット値をLOD値に反映さ
せる。若しくは、変更したα値を利用して、図15
(B)で説明した処理と同じ処理を行うことで、磨りガ
ラス背後のポリゴンに対するぼかし、ブレンディングを
行うことができる。
【0063】レンダリングブロック68で生成された画
像データは、フレームバッファ70に供給され、一時的
に格納される。フレームバッファ70に格納されている
ディジタル形式の画像データは、ディジタル/アナログ
(D/A)変換部71に供給される。ディジタル/アナ
ログ変換部71は、供給されたディジタル形式の画像デ
ータをアナログ信号に変換する。ディジタル/アナログ
変換部71で生成されたアナログ信号は、表示装置53
に供給され、画面上に表示される。
【0064】次に、ピクセルソータ65乃至レンダリン
グブロック68の処理動作について、図16乃至図19
のフローチャートを参照して説明する。図16は、第1
の実施の形態の場合のフローチャートを示している。先
ず、ステップS1において、ピクセルデータ生成部64
からピクセルデータPD3がソート処理部81に供給さ
れると、ソート処理部81は、供給されたポリゴンのピ
クセルデータを、ピクセル毎にZ値に基づいて順番に並
び替え、ソートバッファ66に格納する。
【0065】ステップS2において、ソート処理部81
は、1フレーム分全てのポリゴンのピクセルデータをソ
ートバッファ66に格納したか否かを判定する。ステッ
プS2において、1フレーム分全てのポリゴンのピクセ
ルデータがソートバッファ66に格納されていないと判
定された場合、ステップS1に戻り、ソート処理が繰り
返し実行される。ステップS2において、1フレーム分
全てのポリゴンのピクセルデータがソートバッファ66
に格納されたと判定された場合、ステップS3に進む。
【0066】ステップS3において、Z差分検出部82
は、ソートバッファ66をスキャンし、描画対象ポリゴ
ンと視点との間に存在するライトボリュームポリゴンの
奥行き差(Z差分)を検出し、Z差分信号ΔZをアトリ
ビュート変更部67に供給する。
【0067】ステップS4において、アトリビュート変
更部67は、供給されたライトボリュームポリゴンの奥
行き差(Z差分)に基づいて、ライトボリュームポリゴ
ンの透明度(α値)を変更する。
【0068】ステップS5において、レンダリングブロ
ック68は、描画対象ポリゴンを、ライトボリュームポ
リゴンの色データと変更された透明度(α値)に従っ
て、ブレンディング処理する。
【0069】ステップS6において、レンダリングブロ
ック68は、全てのピクセルを描画したか否かを判定す
る。ステップS6において、全てのピクセルが描画され
ていないと判定された場合、ステップS3に戻り、それ
以降の処理が繰り返し実行される。ステップS6におい
て、全てのピクセルが描画されたと判定された場合、処
理動作は終了される。
【0070】図17は、第2の実施の形態の場合のフロ
ーチャートを示している。先ず、ステップS11におい
て、ピクセルデータ生成部64からピクセルデータPD
3がソート処理部81に供給されると、ソート処理部8
1は、供給されたポリゴンのピクセルデータを、ピクセ
ル毎にZ値に基づいて順番に並び替え、ソートバッファ
66に格納する。
【0071】ステップS12において、ソート処理部8
1は、1フレーム分全てのポリゴンのピクセルデータを
ソートバッファ66に格納したか否かを判定する。ステ
ップS12において、1フレーム分全てのポリゴンのピ
クセルデータがソートバッファ66に格納されていない
と判定された場合、ステップS11に戻り、ソート処理
が繰り返し実行される。ステップS12において、1フ
レーム分全てのポリゴンのピクセルデータがソートバッ
ファ66に格納されたと判定された場合、ステップS1
3に進む。
【0072】ステップS13において、Z差分検出部8
2は、ソートバッファ66をスキャンし、描画対象ポリ
ゴンと視点との間に存在するレンズボリュームポリゴン
の奥行き差(Z差分)を検出し、Z差分信号ΔZをアト
リビュート変更部67に供給する。
【0073】ステップS14において、アトリビュート
変更部67は、供給されたレンズボリュームポリゴンの
奥行き差(Z差分)に基づいて、レンズボリュームポリ
ゴンのテクスチャ座標を変更する。
【0074】ステップS15において、レンダリングブ
ロック68は、レンズボリュームポリゴンのテクスチャ
データを、変更されたテクスチャ座標に従って取得し、
レンズボリュームポリゴンの描画を行う。
【0075】ステップS16において、レンダリングブ
ロック68は、全てのピクセルを描画したか否かを判定
する。ステップS16において、全てのピクセルが描画
されていないと判定された場合、ステップS13に戻
り、それ以降の処理が繰り返し実行される。ステップS
16において、全てのピクセルが描画されたと判定され
た場合、処理動作は終了される。
【0076】図18は、第3の実施の形態の場合のフロ
ーチャートを示している。先ず、ステップS21におい
て、ピクセルデータ生成部64からピクセルデータPD
3がソート処理部81に供給されると、ソート処理部8
1は、供給されたポリゴンのピクセルデータを、ピクセ
ル毎にZ値に基づいて順番に並び替え、ソートバッファ
66に格納する。
【0077】ステップS22において、ソート処理部8
1は、1フレーム分全てのポリゴンのピクセルデータを
ソートバッファ66に格納したか否かを判定する。ステ
ップS22において、1フレーム分全てのポリゴンのピ
クセルデータがソートバッファ66に格納されていない
と判定された場合、ステップS21に戻り、ソート処理
が繰り返し実行される。ステップS22において、1フ
レーム分全てのポリゴンのピクセルデータがソートバッ
ファ66に格納されたと判定された場合、ステップS2
3に進む。
【0078】ステップS23において、Z差分検出部8
2は、ソートバッファ66をスキャンし、描画対象ポリ
ゴンと磨りガラス(半透明ポリゴン)との奥行き差(Z
差分)を検出し、Z差分信号ΔZをアトリビュート変更
部67に供給する。
【0079】ステップS24において、アトリビュート
変更部67は、供給された描画対象ポリゴンと磨りガラ
ス(半透明ポリゴン)との奥行き差(Z差分)に基づい
て、描画対象ポリゴンにおけるテクスチャデータのLOD
オフセット値を変更する。
【0080】ステップS25において、レンダリングブ
ロック68は、描画対象ポリゴンを変更された細度レベ
ルに従って描画する。
【0081】ステップS26において、レンダリングブ
ロック68は、全てのピクセルを描画したか否かを判定
する。ステップS26において、全てのピクセルが描画
されていないと判定された場合、ステップS23に戻
り、それ以降の処理が繰り返し実行される。ステップS
26において、全てのピクセルが描画されたと判定され
た場合、処理動作は終了される。
【0082】図19は、第3の実施の形態の場合のフロ
ーチャートを示している。先ず、ステップS31におい
て、ピクセルデータ生成部64からピクセルデータPD
3がソート処理部81に供給されると、ソート処理部8
1は、供給されたポリゴンのピクセルデータを、ピクセ
ル毎にZ値に基づいて順番に並び替え、ソートバッファ
66に格納する。
【0083】ステップS32において、ソート処理部8
1は、1フレーム分全てのポリゴンのピクセルデータを
ソートバッファ66に格納したか否かを判定する。ステ
ップS32において、1フレーム分全てのポリゴンのピ
クセルデータがソートバッファ66に格納されていない
と判定された場合、ステップS31に戻り、ソート処理
が繰り返し実行される。ステップS32において、1フ
レーム分全てのポリゴンのピクセルデータがソートバッ
ファ66に格納されたと判定された場合、ステップS3
3に進む。
【0084】ステップS33において、Z差分検出部8
2は、ソートバッファ66をスキャンし、描画対象ポリ
ゴンと磨りガラス(半透明ポリゴン)との奥行き差(Z
差分)を検出し、Z差分信号ΔZをアトリビュート変更
部67に供給する。
【0085】ステップS34において、アトリビュート
変更部67は、供給された描画対象ポリゴンと磨りガラ
ス(半透明ポリゴン)との奥行き差(Z差分)に基づい
て、磨りガラス(半透明ポリゴン)の透明度(α値)を
変更する。
【0086】ステップS35において、レンダリングブ
ロック68は、描画対象ポリゴンを、半透明ポリゴンの
色データと変更された透明度(α値)に従って、ブレン
ディング処理する。
【0087】ステップS36において、レンダリングブ
ロック68は、全てのピクセルを描画したか否かを判定
する。ステップS36において、全てのピクセルが描画
されていないと判定された場合、ステップS33に戻
り、それ以降の処理が繰り返し実行される。ステップS
36において、全てのピクセルが描画されたと判定され
た場合、処理動作は終了される。
【0088】図20は、本発明を適用した他の実施の形
態の構成を示すブロック図である。図10に示した画像
処理装置52は、ジオメトリブロック63、ピクセルデ
ータ生成部64、ピクセルソータ65、アトリビュート
変更部67、及びレンダリングブロック68を専用のハ
ードウェアで実現したが、図20の例では、汎用コンピ
ュータを利用して、画像処理(ジオメトリ処理、ピクセ
ルデータ生成処理、ピクセルソータ処理、アトリビュー
ト変更処理、及びレンダリング処理)をソフトウェアプ
ログラムによって実現している。
【0089】入力部101、CPU102、ハードディス
ク103、ワークRAM104、ソートバッファ105、
及びフレームバッファ106は、バス109を介して相
互に接続されている。オペレータは入力部101を操作
することにより情報を入力する。ハードディスク103
には、ゲームプログラム及び画像処理プログラムが予め
記憶されている。CPU102は、ハードディスク103
から、適宜、ゲームプログラム及び画像処理プログラム
を読み出して実行する。ワークRAM104には、CPU10
2がプログラムを実行する際に必要なデータ等が適宜格
納される。
【0090】ソートバッファ105には、ピクセル毎に
Z値順にソート処理されたピクセルデータが格納され
る。フレームバッファ106には、生成された画像デー
タが格納される。フレームバッファ106から読み出さ
れた画像データは、ディジタル/アナログ(D/A)変
換部107に供給される。ディジタル/アナログ(D/
A)変換部107は、供給されたディジタルデータ(画
像データ)をアナログ信号に変換し、表示部108に表
示させる。
【0091】尚、上記処理を実行するコンピュータプロ
グラムをユーザに提供する記録媒体には、磁気ディス
ク、CD-ROMなどの情報記録媒体の他、インターネット、
ディジタル衛星などのネットワークによる伝送媒体も含
まれる。 [他の画像処理装置]図21は、本発明の他の実施の形
態の画像処理装置をコンピュータグラフィック装置のブ
ロック図、図22は、その画像処理装置のブロック図、
図23は、図22のソータ処理部のブロック図、図24
は、図22のアトリビュート変調部Aのブロック図、図
25は、図22のアトリビュート変調部Bのブロック図
である。
【0092】図21のコンピュータグラフィックス装置
は、例えば、ゲーム装置で構成される。図21におい
て、図10で示したものと同一のものは、同一の記号で
示してあり、CPU61は、ワークRAM62に予め格納
されているゲームプログラムを実行し、描画コマンドを
生成する。ROM54は、CPU61の起動プログラム
等の基本プログラムを格納する。
【0093】CPU 61で生成された描画コマンドは、適
宜、ワークRAM62に格納され、読み出される。拡張I
/F55は、外部記憶装置などの拡張デバイスを接続す
るインターフェイスである。大容量記憶装置51は、ア
プリケーションプログラム(ゲームプログラム等)を記
憶するROM,CD,DVD等で構成される。ワークRA
M62には、必要に応じて外部のデータメモリ51(例
えば、ハードディスク等)から読み出されたテクスチャ
データが、一時的に格納される。
【0094】通信装置56は、他の機器と通信するため
のインタフェイスである。入出力装置57は、操作ボタ
ンや、外部メモリとのインタフェイスである。画像処理
装置52は、CPU61が操作入力とゲームプログラムに
従って生成したポリゴンデータを画像処理して、表示デ
ータをデスプレイモニタ53に出力する。バス58は、
これら各部を接続する。
【0095】図22により、画像処理装置52を説明す
る。図22に示すように、ジオメトリ処理部63には、
ジオメトリ用MPU72,ジオメトリ用ROM73,ジ
オメトリ用RAM74が接続されている。ジオメトリ用
MPU72は、ジオメトリ処理部63の動作を補助する
処理ユニットである。ジオメトリ用ROM73は、ジオ
メトリ用MPU72の起動プログラム等の基本プログラ
ムを格納する。ジオメトリ用RAM74は、ジオメトリ
用MPU72,ジオメトリ処理部63のワークメモリで
あり、描画コマンド等を格納する。
【0096】ジオメトリ処理部63は、供給された描画
コマンド(オブジェクト座標系のポリゴンデータ)を3
次元のワールド座標系のデータに変換し、3次元のワー
ルド座標系に変換されたポリゴンデータを2次元のスク
リーン座標系に変換する透視変換を行う。このようにし
て、ジオメトリ処理部63で生成されたスクリーン座標
系で定義されているポリゴンデータは、ソート処理部7
5に供給される。ソート処理部75は、ソート用RAM
66を利用して、ピクセルデータに変換した後、描画順
に並べ替える。図23で後述するように、ソート処理
は、フラグメントZバッファによる処理を行う。又、ジ
オメトリ処理部63に供給される描画コマンド、出力す
るポリゴンデータ、ソート処理部75のソート出力は、
図27以下で詳述する。
【0097】アトリビュート変調部A76は、影ボリュ
ームやモデイファイヤボリューム等のデイジョンボリュ
ームの処理を行う。デイジョンボリューム処理は、対象
ポリゴンが、影ボリュームポリゴンやモデイファイヤボ
リュームポリゴンの内部か外部かを判定し、対象ポリゴ
ンのマテリアルを変調する処理である。レイヤー制御部
77は、表示の階層制御を行う。
【0098】アトリビュート変調部B78は、ライトボ
リューム、フォグボリューム等のレンダーボリュームの
処理を行う。前述したように、レンダーボリューム処理
では、ボリューム厚み(Z値差分)により、ボリューム
ポリゴンの透明度、テクスチャ座標等のアトリビュート
を変調する。
【0099】シェーデイング処理部79は、照光処理な
どの演算を行い、ピクセルの色を決定する。テクスチャ
用RAM69は、テクスチャマッピングに使用するテク
スチャデータを格納する。テクスチャ処理部80は、シ
ェーデイング処理部79の指示に従い、テクスチャ用R
AM69を使用して、テクスチャ色データを決定する。
【0100】フレームバッファ処理部83は、シェーデ
イング処理部79の決定した色データをフレーム毎に纏
め、加工(ブレンデイング)し、1フレーム分の画像を
出力する、フレームバッファ用RAM70は、フレーム
バッファ処理部83のワークメモリであり、フレームデ
ータを格納する。
【0101】次に、図23のソート処理部75を説明す
る。ソート処理部75は、ピクセルデータ生成部64
と、ソート前処理部110と、ソート後処理部112と
からなる。ピクセルデータ生成部64は、ジオメトリブ
ロック63から供給されるポリゴンデータを、フラクタ
ル処理またはラスタスキャン処理によって、ピクセルデ
ータに変換する。ジオメトリ処理部63で生成された視
点座標系で定義されているポリゴンデータは、図28に
て詳しく述べるように、ボリュームID,頂点データ
(頂点座標、テクスチャ座標、頂点色)からなる。尚、
各ボリュームは、マテリアルデータ、ライトデータ、ボ
リュームタイプで定義される。頂点データは、表示画面
内の位置を示すスクリーン座標(x,y)、表示画面内
の奥行きを示すZ値、R(赤)、G(緑)、B(青)の
カラー情報及び透明度を示すα値、テクスチャデータの
座標を示すテクスチャ座標(Tx,Ty、Tz)、LOD
オフセット値等から構成されている。
【0102】ピクセルデータ生成部64で生成されたピ
クセルデータは、ポリゴンID及びポリゴンの属性情報
(前述のボリュームタイプ)、スクリーン座標(Sx,
Sy)、Z値、カラー情報(R,G,B,α値)、テク
スチャ座標(Tx,Ty、Tz)、及びLODオフセット
値から構成されている。これらのピクセルデータは、一
般に頂点データを直線補間演算することにより算出され
る。
【0103】ソート前処理部110は、ピクセルデータ
生成部64から供給されるピクセルデータに対して、Z
値に基づいてソーティングを行い、図29乃至図30に
て詳しく述べるように、視線方向から見た各層1〜nに
おいて、各ピクセルの一番手前のポリゴンIDを抽出す
るフラグメントZバッファ処理を実行する。ソート後処
理部112は、図31乃至図35で詳しく述べるよう
に、各層をポリゴンID毎にバインデイングする。
【0104】次に、図24により、アトリビュート変調
部A76を説明する。アトリビュート変調部A76は、
複数の領域判定部150−1〜150−nと、アトリビ
ュート制御部140とからなる。各領域判定部150−
1〜150−nは、同一の構成を有し、同時に複数のボ
リューム(領域)を判定する。各領域判定部150−1
〜150−nは、領域バッファ制御部120−1〜12
0−nと、領域バッファ130−1〜130−nとから
なる。
【0105】領域バッファ130−1〜130−nは、
ボリューム(領域)の内部か外部かの情報(フラグ)を
ピクセル毎に格納する。領域バッファ制御部120−1
〜120−nは、入力されたバインデイングされた層デ
ータが、ボリュームポリゴン(影ボリューム、モデイフ
ァイヤボリューム)か通常ポリゴンかを判別し、ボリュ
ームポリゴン(影ボリューム、モデイファイヤボリュー
ム)が入力された場合には、領域バッファの更新を行
い、通常ポリゴンが入力された場合には、領域バッファ
の内容に従い、領域判定結果を出力する。
【0106】領域バッファの更新方法としては、ピクセ
ル単位に、ボリュームポリゴンが入力される度に、内外
を反転する方法、ピクセル単位に、ボリュームポリゴン
の表裏判定結果に基ずくIn/Outの情報を記憶する
方法、ピクセル単位に、ボリュームポリゴンの表裏判定
結果に基ずくIn/Outの情報に基ずき、領域バッフ
ァの値をUp/Downして、領域の重なりをカウント
することで、内外情報を記憶する方法のいずれかを採用
する。
【0107】アトリビュート制御部140は、影ボリュ
ーム処理部142と、モデファイヤボリューム処理部1
44とを有する。影ボリューム処理部142は、領域判
定結果に基ずきポリゴンを分割し、ボリューム内のポリ
ゴンのライトデータを無効化する。モデファイヤボリュ
ーム処理部144は、領域判定結果に基ずきポリゴンを
分割し、そのボリュームに関連付けられた変更方法に従
い、ボリューム内のポリゴンのマテリアルデータを変更
する。変更方法としては、指定された値で論理和(o
r),論理積(and),排他的論理和(xor)を行
う。
【0108】次に、図25により、アトリビュート変調
部B78を説明する。アトリビュート変調部B78は、
複数の領域判定部200−1〜200−nと、アトリビ
ュート制御部230とからなる。各領域判定部200−
1〜200−nは、同一の構成を有し、同時に複数のボ
リューム(領域)を判定する。各領域判定部200−1
〜200−nは、領域バッファ制御部210−1〜21
0−nと、領域バッファ220−1〜220−nとから
なる。
【0109】領域バッファ220−1〜220−nは、
ボリューム(領域)の内部か外部かの情報(フラグ)を
ピクセル毎に格納する。領域バッファ制御部210−1
〜210−nは、入力されたバインデイングされた層デ
ータが、ボリュームポリゴンか通常ポリゴンかを判別
し、ボリュームポリゴンが入力された場合には、領域バ
ッファの更新を行い、領域バッファの内容に従い、領域
判定結果を出力し、通常ポリゴンが入力された場合に
は、スルー出力する。
【0110】領域バッファの更新方法としては、ピクセ
ル単位に、ボリュームポリゴンが入力される度に、内外
を反転する方法、ピクセル単位に、ボリュームポリゴン
の表裏判定結果に基ずくIn/Outの情報を記憶する
方法、ピクセル単位に、ボリュームポリゴンの表裏判定
結果に基ずくIn/Outの情報に基ずき、領域バッフ
ァの値をUp/Downして、領域の重なりをカウント
することで、内外情報を記憶する方法のいずれかを採用
する。
【0111】アトリビュート制御部230は、ライトボ
リューム処理の場合は、領域判定結果に基ずきボリュー
ム内に相当するピクセルを生成し、生成したピクセルに
奥行き差分(Z値差分)から求めたブレンド比(α値)
を付加し、出力するとともに、通常ポリゴンのピクセル
を出力する。又、フォグボリュームの場合も同様に処理
する。両者の違いは、ブレンドモードであり、ライトボ
リュームは、OpenGLでのSrc=α、Dst=1
であり、フォグボリュームは、Src=α、Dst=1
−αである。
【0112】アトリビュート制御部230は、結果判定
部232と、Z値バッファ234と、Z値差分検出部2
36と、フォグ/ライトボリュームピクセル生成部23
8と、アルファ値変換テーブル240とを有する。結果
判定部232は、スルー出力か領域判定結果かを判定す
る。Z値バッファ234は、各層の領域判定結果の受け
取りに先立ち、その層のピクセルZ値を格納する。Z値
差分検出部236は、各層間のZ値差分を演算する。フ
ォグ/ライトボリュームピクセル生成部238は、領域
判定結果とZ値差分からフォグ/ライトボリュームピク
セルを生成する。アルファ値変換テーブル240は、フ
ォグ/ライトボリュームピクセルのZ値差分をα値(透
明度)に変換する。
【0113】アトリビュート変調部を2つに分割した理
由は、影ボリューム等の処理は、取り扱うデータが、影
の内部/外部と少なく、並列処理化により高速処理が可
能である。一方、ライト/フォグボリュームは、ボリュ
ーム厚によりアトリビュート変調するため、扱うデータ
が奥行き値(Z値)や奥行き差分(Z差分)のため、ビ
ット数が多く、回路規模が大きいためである。勿論、ア
トリビュート変調部を1つで構成しても良い。
【0114】又、領域判定部を複数設けているため、複
数のボリュームポリゴン群を並列処理でき、ボリューム
同士の重なり等により複雑な表現が可能となる。更に、
奥行き差分からブレンド比(α値)を求める処理は、変
換用の数値テーブルを用い、奥行き差分に基ずき補間し
て、決定するため、複雑なアトリビュート変化が可能と
なる。
【0115】更に、アトリビュート変調部B78で、奥
行き差分を基にテクスチャ座標を変調あるいは生成し、
テクスチャマッピングを行うことができる。例えば、ラ
イト/フォグボリュームにおいて、奥行き差分を基にテ
クスチャ座標を変調あるいは生成することで、ボリュー
ム厚により、ノイズを変化でき、プロシージャテクスチ
ャにより、複雑なノイズを加えることが出来る。
【0116】変調の方法としては、レンズボリュームの
ように、変化させる方法や、奥行き差分から変換テーブ
ルと補間により得られる値をテクスチャ座標に加減算す
る方法等を利用できる。テクスチャ座標を生成する方法
は、テクスチャ座標を、(X,Y,Z)の3軸とし、追
加したZ軸に対し、奥行き差分から変換テーブルと補間
により得られる値をテクスチャ座標に設定する方法等を
使用できる。[デイジョンボリューム処理]次に、デイ
ジョンボリューム処理について、モデルを使用して、説
明する。図26は、3D空間における図形表示例を示す
図であり、図26(A)は、3D空間で表示すべき図形
の3D空間での構成図を示し、図26(B)は、その正
面図、図26(C)は、その側面図である。
【0117】図26(A)に示すように、3D空間にお
いて、三角柱a,四角柱b,菱形平面cが組み合わされ
ている。三角柱a及び四角柱bは、それぞれポリゴンに
より定義され,三角柱aを、前面a1,背面a2,左側
面a3,右側面a4,底面a5のポリゴンで定義する。
四角柱bは、前面b1,背面b2,左側面b3,右側面
b4,上面b5,底面b6のポリゴンで定義する。
【0118】図26(C)に示すように、各面のZ値
(奥行き値)は、a1面をZ=2、b1面をZ=3,c面
をZ=4,a2面をZ=5,b2面をZ=6とする。
又、説明を簡単にするため、図26(B)に示すよう
に、各側面は視線方向とし、側面は見えないものとす
る。
【0119】この図形を例に、影ボリュームとモデイフ
ァイヤボリュームを説明する。図26(A)において、
三角柱aが影ボリューム、四角柱bがモデファイヤボリ
ュームの例で説明する。図27は、CPU61が画像処
理装置52に発行する描画コマンドの構成図である。
【0120】先ず、描画ボリューム0、1の属性が定義
される。ボリューム0、1の属性として、ボリュームI
D,ボリュームタイプ(影、又はモデイファイヤ)、ラ
イトID(影ボリューム)、モデイファイヤデータ(モ
デファイヤボリューム)が定義される。
【0121】次に、ボリューム0、1の光源0、1の属
性が定義される。光源0、1の属性として、ライトI
D、光線方向(例えば、パラレル)、光源の座標(L
x,Ly,Lz)が定義される。描画ボリューム0、1
のマテリアルの属性が定義される。次に、ボリューム
0、1のマテリアル属性として、マテリアルID,アン
ビシアスカラー、デフュージョンカラー、スペキュラー
カラー、シャインネスカラー、テクスチャIDが定義さ
れる。
【0122】次に、オブジエクトa(ここでは、三角柱
a)の座標変換マトリックスが設定される。これに続
き、オブジエクトaを構成するポリゴンa1〜a5の定
義が与えられる。各ポリゴンの定義として、ポリゴン形
状、ボリュームID,サイド面、描画方向、各頂点デー
タが定義される。頂点データP#nmは、頂点座標(X,
Y,Z),テクスチャ座標(Tx,Ty,Tz),頂点
色(a.R,G,B)で構成される。
【0123】次に、オブジエクトb(ここでは、四角柱
b)の座標変換マトリックスが設定される。これに続
き、オブジエクトbを構成するポリゴンb1〜b6の定
義が与えられる。各ポリゴンの定義として、ポリゴン形
状、ボリュームID,サイド面、描画方向、各頂点デー
タが定義される。頂点データP#nmは、頂点座標(X,
Y,Z),テクスチャ座標(Tx,Ty,Tz),頂点
色(a.R,G,B)で構成される。
【0124】次に、オブジエクトc(菱形平面c)のコ
マンドが定義される。即ち、オブジエクトcの光源0、
1の属性が,ライトID0、ライトID1で定義され、
マテリアル属性として、マテリアルID0が定義され
る。更に、オブジエクトcの座標変換マトリックスが設
定される。これに続き、オブジエクトcを構成するポリ
ゴンcの定義が与えられる。ポリゴンの定義として、ポ
リゴン形状、ポリゴンのタイプ(不透明),サイド面、
描画方向、各頂点データが定義される。頂点データP#n
mは、頂点座標(X,Y,Z),テクスチャ座標(T
x,Ty,Tz),頂点色(a.R,G,B)で構成さ
れる。
【0125】このような描画コマンドが、CPUからジ
オメトリ処理部63に与えられる。ジオメトリ処理部6
3は、CPUからの解析開始指示により、上記コマンド
を解釈、実行(座標変換、属性判定、表裏判定)し、ソ
ート用RAM66にポリゴンデータを格納する。図28
に示すように、ソート用RAM66に、ポリゴンデー
タ、マテリアルデータ、光源データ、ボリュームデータ
が分類され、格納される。各ポリゴンデータは、ポリゴ
ン形状、ボリュームID,各頂点データである。頂点デ
ータP#nmは、頂点座標(X,Y,Z),テクスチャ座
標(Tx,Ty,Tz),頂点色(a.R,G,B)で
構成される。
【0126】マテリアルデータは、各マテリアルIDの
アンビシアスカラー、デフュージョンカラー、スペキュ
ラーカラー、シャインネスカラー、テクスチャIDで構
成される。ライトデータは、各ライトIDの光線方向、
光源ベクトルである。ボリュームデータは、各ボリュー
ムIDのボリュームタイプ、ライトIDである。
【0127】次に、CPUからの描画開始指示により、
ソート処理部75が、ソート用RAM66のポリゴンデ
ータからピクセルデータを生成し、ピクセル毎に、手前
から順に出力する。ソート前処理部(Zバッファ)11
0は、各層ごとに、各ピクセルの最も手前に位置するポ
リゴンIDを出力する。これを、図29乃至図32によ
り説明する。
【0128】図29(A)の第1層は、図26(C)の
矢印視点方向から見たスクリーン投影面であり、図31
(A)のように見え、図29(A)の第1層投影データ
となる。図29(B)の第2層は、第1層を剥がした時
のスクリーン投影面であり、図31(B)のように見
え、図29(B)の第2層投影データとなる。図30
(A)の第3層は、第2層を剥がした時のスクリーン投
影面であり、図31(C)のように見え、図30(A)
の第3層投影データとなる。図30(B)の第4層は、
第3層を剥がした時のスクリーン投影面であり、図32
(A)のように見え、図30(B)の第4層投影データ
となる。図30(C)の第5層は、第4層を剥がした時
のスクリーン投影面であり、図32(B)のように見
え、図30(C)の第5層投影データとなる。尚、各ピ
クセル毎に、Z値を保持している。
【0129】ソート後処理部112は、図33乃至図3
6に示すように、前処理部110の出力をポリゴンID
毎に取りまとめ、分割出力する。即ち、図29(A)の
第1層データは、図33に示すように、ポリゴン毎の第
1層−a1,第1層−b1,第1層−cに取りまとめら
れる。図29(B)の第2層データは、図34乃至図3
5に示すように、ポリゴン毎の第2層−a2,第2層−
c,第2層−b1、第2層−b2に取りまとめられる。
図30(A)の第3層データは、図35乃至図36に示
すように、ポリゴン毎の第3層−a2,第3層−c,第
3層−b2に取りまとめられる。図30(B),(C)
の第4層、第5層データは、図36に示すように、ポリ
ゴン毎の第4層−a2,第5層−b2に取りまとめられ
る。このように、ポリゴン毎にバインデイングすること
により、領域判定が容易となる。
【0130】次に、アトリビュート変調部A76の動作
を、図37乃至図45により説明する。先ず、領域判定
部150−1〜150−nの動作を、図37乃至図41
により説明する。図37(A)に示すように、第1層−
a1(ボリュームID_0;表面)を受け取り、領域判
定部A1の領域バッファ130−1を更新する。図37
(B)に示すように、第1層−b1(ボリュームID_
1;表面)を受け取り、領域判定部A2の領域バッファ
130−2を更新する。
【0131】図37(C)に示すように、第1層−c
(Opaque)を受け取ると、領域バッファ130−
1、130−2のピクセルデータ(領域データ)と論理
積をとり、領域判定結果を出力する。この場合、第1層
−cの3ピクセルは、いずれの領域にも属さないため、
領域該当無しが出力される。
【0132】次に、図38(A)に示すように、第2層
−a2(ボリュームID_0;裏面)を受け取り、領域
判定部A1の領域バッファ130−1を更新する。図3
8(B)に示すように、第2層−c(Opaque)を
受け取ると、領域バッファ130−1、130−2のピ
クセルデータ(領域データ)と論理積をとり、領域判定
結果を出力する。この場合、領域判定結果は、ボリュー
ムID_0内部と、ボリュームID_1内部との判定結
果である。
【0133】次に、図39(A)に示すように、第2層
−b1(ボリュームID_1;表面)を受け取り、領域
判定部A2の領域バッファ130−2を更新する。図3
9(B)に示すように、第2層−b2(ボリュームID
_1;裏面)を受け取り、領域判定部A2の領域バッフ
ァ130−2を更新する。
【0134】次に、図39(C)に示すように、第3層
−a2(ボリュームID_0;裏面)を受け取り、領域
判定部A1の領域バッファ130−1を更新する。図4
0(A)に示すように、第3層−c(Opaque)を
受け取ると、領域バッファ130−1、130−2のピ
クセルデータ(領域データ)と論理積をとり、領域判定
結果を出力する。この場合、領域判定結果は、ボリュー
ムID_0内部及びボリュームID_1内部との判定結
果である。
【0135】次に、図40(B)に示すように、第3層
−b2(ボリュームID_1;裏面)を受け取り、領域
判定部A2の領域バッファ130−2を更新する。図4
0(C)に示すように、第4層−a2(ボリュームID
_0;裏面)を受け取り、領域判定部A1の領域バッフ
ァ130−1を更新する。図41に示すように、第5層
−b2(ボリュームID_1;裏面)を受け取り、領域
判定部A2の領域バッファ130−2を更新する。
【0136】次に、アトリビュート制御部140の動作
を、図42乃至図44により説明する。図42(A)に
示すように、図37(C)の第1層−c(Opaqu
e)領域判定結果を受け取り、該当領域がないため、ア
トリビュートを変更せずに、ポリゴンcを出力する。
【0137】図42(B)に示すように、図38(B)
の第2層−c(Opaque)領域判定結果を受け取
り、ボリュームID_0内部のため、ボリュームデータ
のタイプシャドウに基ずき、該当ピクセルのライトID
_1を無効化して、出力する。
【0138】図42(C)に示すように、図38(B)
の第2層−c(Opaque)領域判定結果を受け取
り、ボリュームID_1内部のため、ボリュームデータ
のタイプモデイファイヤに基ずき、ポリゴンに指定され
ていたマテリアルID_0を、モデイファイヤデータと
XORし、新たなマテリアルID_1として出力する。
【0139】図43に示すように、図40(A)の第3
層−c(Opaque)領域判定結果を受け取り、ボリ
ュームID_0内部のため、ボリュームデータのタイプ
シャドウに基ずき、該当ピクセルのライトID_1を無
効化し、ボリュームID_1内部のため、ボリュームデ
ータのタイプモデイファイヤに基ずき、ポリゴンに指定
されていたマテリアルID_0を、モデイファイヤデー
タとXORし、新たなマテリアルID_1として出力す
る。
【0140】図44は、ポリゴンCの各層のアトリビュ
ート変調結果と、ボリュームポリゴンA,Bの関係を示
す。図45は、これによるピクセル描画結果を示す。前
述のポリゴンcのピクセルデータは、レイヤー制御部7
7、アトリビュート変調部78を通過し、シェーデイン
グ処理部79、テクスチャ処理部80、フレームバッフ
ァ処理部83により、図45のようなピクセル描画が行
われる。図において、cは、ポリゴンcの変調無し、
c’は、ライトIDを無効化されたポリゴンc,Cは、
マテリアルIDを変更されたポリゴンc,C’は、ライ
トIDを無効化され、マテリアルIDを変更されたポリ
ゴンcである。
【0141】[レンダボリューム処理]次に、レンダボ
リューム処理について、図26の3D空間における図形
表示例で説明する。図26(A)において、三角柱aが
フォグボリューム、四角柱bがライトボリュームの例で
説明する。図46は、CPU61が画像処理装置52に
発行する描画コマンドの構成図である。
【0142】先ず、描画ボリューム0、1の属性が定義
される。ボリューム0、1の属性として、ボリュームI
D,ボリュームタイプ(フォグ又はライト)、ボリュー
ムカラー、濃度が定義される。
【0143】次に、ボリューム0、1の光源0、1の属
性が定義される。光源0、1の属性として、ライトI
D、光線方向(例えば、パラレル)、光源のベクトル座
標(Lx,Ly,Lz)が定義される。描画ボリューム
0のマテリアル0の属性が定義される。ボリューム0の
マテリアル属性として、マテリアルID,アンビシアス
カラー、デフュージョンカラー、スペキュラーカラー、
シャインネスカラー、テクスチャIDが定義される。
【0144】次に、オブジエクトa(ここでは、三角柱
a)の座標変換マトリックスが設定される。これに続
き、オブジエクトaを構成するポリゴンa1〜a5の定
義が与えられる。各ポリゴンの定義として、ポリゴン形
状、ボリュームID,サイド面、描画方向、各頂点デー
タが定義される。頂点データP#nmは、頂点座標(X,
Y,Z),テクスチャ座標(Tx,Ty,Tz),頂点
色(a.R,G,B)で構成される。
【0145】次に、オブジエクトb(ここでは、四角柱
b)の座標変換マトリックスが設定される。これに続
き、オブジエクトbを構成するポリゴンb1〜b6の定
義が与えられる。各ポリゴンの定義として、ポリゴン形
状、ボリュームID,サイド面、描画方向、各頂点デー
タが定義される。頂点データP#nmは、頂点座標(X,
Y,Z),テクスチャ座標(Tx,Ty,Tz),頂点
色(a.R,G,B)で構成される。
【0146】次に、オブジエクトc(菱形平面c)のコ
マンドが定義される。即ち、オブジエクトcの光源0、
1の属性が,ライトID0、ライトID1で定義され、
マテリアル属性として、マテリアルID0が定義され
る。更に、オブジエクトcの座標変換マトリックスが設
定される。これに続き、オブジエクトcを構成するポリ
ゴンcの定義が与えられる。ポリゴンの定義として、ポ
リゴン形状、ポリゴンのタイプ(不透明),サイド面、
描画方向、各頂点データが定義される。頂点データP#n
mは、頂点座標(X,Y,Z),テクスチャ座標(T
x,Ty,Tz),頂点色(a.R,G,B)で構成さ
れる。
【0147】このような描画コマンドが、CPUからジ
オメトリ処理部63に与えられる。ジオメトリ処理部6
3は、CPUからの解析開始指示により、上記コマンド
を解釈、実行(座標変換、属性判定、表裏判定)し、ソ
ート用RAM66にポリゴンデータを格納する。図47
に示すように、ソート用RAM66に、ポリゴンデー
タ、マテリアルデータ、光源データ、ボリュームデータ
が分類され、格納される。各ポリゴンデータは、ポリゴ
ン形状、ボリュームID,各頂点データである。頂点デ
ータP#nmは、頂点座標(X,Y,Z),テクスチャ座
標(Tx,Ty,Tz),頂点色(a.R,G,B)で
構成される。
【0148】マテリアルデータは、各マテリアルIDの
アンビシアスカラー、デフュージョンカラー、スペキュ
ラーカラー、シャインネスカラー、テクスチャIDで構
成される。ライトデータは、各ライトIDの光線方向、
光源ベクトルである。ボリュームデータは、各ボリュー
ムIDのボリュームタイプ、ボリュームカラーである。
【0149】次に、CPUからの描画開始指示により、
ソート処理部75が、ソート用RAM66のポリゴンデ
ータからピクセルデータを生成し、ピクセル毎に、手前
から順に出力する。ソート前処理部(Zバッファ)11
0は、前述の図29乃至図32と同一の処理で、各層ご
とに、各ピクセルの最も手前に位置するポリゴンIDを
出力する。ソート後処理部112は、図33乃至図36
で前述したように、前処理部110の出力をポリゴンI
D毎に取りまとめ、分割出力する。
【0150】次に、アトリビュート変調部B78の動作
を、図48乃至図63により説明する。先ず、領域判定
部200−1〜200−nの動作を、図48乃至図54
により説明する。図48(A)に示すように、第1層−
a1(ボリュームID_0;表面)を受け取り、領域判
定部B1の領域バッファ220−1を更新する。図48
(B)に示すように、第1層−b1(ボリュームID_
1;表面)を受け取り、領域判定部B2の領域バッファ
220−2を更新する。
【0151】図49(A)に示すように、第1層−c
(Opaque)を受け取り、スルー出力する。図49
(B)に示すように、第2層のピクセルデータの受け取
りに先立ち、領域バッファ220−1、220−2の内
容を、領域判定結果として出力する。
【0152】次に、図50(A)に示すように、第2層
−a2(ボリュームID_0;裏面)を受け取り、領域
判定部B1の領域バッファ220−1を更新する。図5
0(B)に示すように、第2層−c(Opaque)を
受け取ると、スルー出力する。
【0153】次に、図50(C)に示すように、第2層
−b1(ボリュームID_1;表面)を受け取り、領域
判定部B2の領域バッファ220−2を更新する。図5
1(A)に示すように、第2層−b2(ボリュームID
_1;裏面)を受け取り、領域判定部B2の領域バッフ
ァ220−2を更新する。図51(B)に示すように、
第3層のピクセルデータの受け取りに先立ち、領域バッ
ファ220−1、220−2の内容を、領域判定結果と
して出力する。
【0154】次に、図52(C)に示すように、第3層
−a2(ボリュームID_0;裏面)を受け取り、領域
判定部B1の領域バッファ220−1を更新する。図5
2(B)に示すように、第3層−c(Opaque)を
受け取ると、スルー出力する。
【0155】次に、図52(C)に示すように、第3層
−b2(ボリュームID_1;裏面)を受け取り、領域
判定部B2の領域バッファ220−2を更新する。図5
3(A)に示すように、第4層のピクセルデータの受け
取りに先立ち、領域バッファ220−1、220−2の
内容を、領域判定結果として出力する。
【0156】図53(B)に示すように、第4層−a2
(ボリュームID_0;裏面)を受け取り、領域判定部
B1の領域バッファ220−1を更新する。図54
(A)に示すように、第5層のピクセルデータの受け取
りに先立ち、領域バッファ220−2の内容を、領域判
定結果として出力する。領域バッファ220−1は、有
効データを保持していないため、出力しない。図54
(B)に示すように、第5層−b2(ボリュームID_
1;裏面)を受け取り、領域判定部B2の領域バッファ
220−2を更新する。
【0157】次に、アトリビュート制御部230の動作
を、図55乃至図63により説明する。図55(A)に
示すように、第1層の受け取りに先立ち、第1層のピク
セルZ値を受け取る。Z値差分は、手前面が存在しない
ため、無効である。図55(B)に示すように、図49
(A)の第1層−c(Opaque)を受け取り、スル
ー出力する。図55(C)に示すように、第2層の受け
取りに先立ち、第2層のピクセルZ値を受け取り、第1
層のピクセルZ値とのZ値差分を計算する。
【0158】図56(A)に示すように、第2層の領域
バッファB1(220−1)の判定結果とZ値差分か
ら、フォグボリュームピクセルを出力する。同様に、図
56(B)に示すように、第2層の領域バッファB2
(220−2)の判定結果とZ値差分から、ライトボリ
ュームピクセルを出力する。
【0159】図56(C)に示すように、図50(B)
の第2層−c(Opaque)を受け取り、スルー出力
する。図57(A)に示すように、第3層の受け取りに
先立ち、第3層のピクセルZ値を受け取り、第2層のピ
クセルZ値とのZ値差分を計算する。図57(B)に示
すように、第3層の領域バッファB1(220−1)の
判定結果とZ値差分から、フォグボリュームピクセルを
出力する。同様に、図57(C)に示すように、第3層
の領域バッファB2(220−2)の判定結果とZ値差
分から、ライトボリュームピクセルを出力する。
【0160】図58(A)に示すように、図52(B)
の第3層−c(Opaque)を受け取り、スルー出力
する。図58(B)に示すように、第4層の受け取りに
先立ち、第4層のピクセルZ値を受け取り、第3層のピ
クセルZ値とのZ値差分を計算する。図58(C)に示
すように、第4層の領域バッファB1(220−1)の
判定結果とZ値差分から、フォグボリュームピクセルを
出力する。同様に、図59(A)に示すように、第4層
の領域バッファB2(220−2)の判定結果とZ値差
分から、ライトボリュームピクセルを出力する。
【0161】図59(B)に示すように、第5層の受け
取りに先立ち、第5層のピクセルZ値を受け取り、第4
層のピクセルZ値とのZ値差分を計算する。図59
(C)に示すように、第5層の領域バッファB2(22
0−2)の判定結果とZ値差分から、ライトボリューム
ピクセルを出力する。
【0162】図60乃至図63は、各層(第2層、第3
層、第4層、第5層)でのフォグボリュームポリゴン、
ライトボリュームポリゴン(斜線部分)と、ボリューム
A,B、ポリゴンCの関係を示す。図64は、これによ
るピクセル描画結果を示す。前述のポリゴンのピクセル
データは、シェーデイング処理部79、テクスチャ処理
部80、フレームバッファ処理部83により、図64の
ようなピクセル描画が行われる。図において、空間厚み
によって、濃度の違う三角柱、四角柱、両者を遮る菱形
が描画される。
【0163】
【発明の効果】以上の如く、本発明によれば、ポリゴン
相互のZ差分に基づいて、ポリゴンの属性情報を変更
し、変更した属性情報に基づいて、ポリゴンを描画する
ようにしたので、空間に配置されたフォグ(霧)やほこ
りの効果、レンズを通して見た物体及び磨りガラスの効
果といった特殊効果を画面上で表現することが可能とな
る。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態を説明するための図
である。
【図2】図1の上面図である。
【図3】本発明の第2の実施の形態を説明するための図
である。
【図4】図3の側面図である。
【図5】テクスチャデータ22の拡大縮小を説明するた
めの図である。
【図6】本発明の第3の実施の形態を説明するための図
である。
【図7】図6の上面図である。
【図8】MIPMAPのテクスチャデータの記録形態を説明す
るための図である。
【図9】本発明の第4の実施の形態の説明図である。
【図10】本発明を適用した画像処理装置52の一実施
の形態の構成を示すブロック図である。
【図11】図10のジオメトリブロック63から出力さ
れるポリゴンデータの一例を示す図である。
【図12】図10のピクセルデータ生成部64で生成さ
れるピクセルデータの一例を示す図である。
【図13】図10のピクセルソータ65の構成例を示す
ブロック図である。
【図14】図10のソートバッファ66に格納されてい
るピクセルデータを説明するための図である。
【図15】図10のレンダリングブロック68での描画
処理を説明するための図である。
【図16】図1の第1の実施の形態の場合の処理動作を
説明するためのフローチャートである。
【図17】図3の第2の実施の形態の場合の処理動作を
説明するためのフローチャートである。
【図18】図6の第3の実施の形態の場合の処理動作を
説明するためのフローチャートである。
【図19】図6の第3の実施の形態の場合の処理動作を
説明するためのフローチャートである。
【図20】本発明を適用した他の実施の形態の構成を示
すブロック図である。
【図21】本発明を適用した他のコンピュータグラフィ
ック装置の構成を示すブロック図である。
【図22】図21の画像処理装置のブロック図である。
【図23】図22のソート処理部のブロック図である。
【図24】図22のアトリビュート変調部Aのブロック
図である。
【図25】図22のアトリビュート変調部Bのブロック
図である。
【図26】図22の描画処理を説明するための3D空間
の説明図である。
【図27】図22のデイジョンボリュームを説明するた
めの描画コマンドの説明図である。
【図28】図27の描画コマンドから得たポリゴンデー
タの説明図である。
【図29】図23のソート処理部の処理動作を説明する
ための第1の説明図である。
【図30】図23のソート処理部の処理動作を説明する
ための第2の説明図である。
【図31】図23のソート処理部の処理動作を説明する
ための第3の説明図である。
【図32】図23のソート処理部の処理動作を説明する
ための第4の説明図である。
【図33】図23のソート処理部の処理動作を説明する
ための第5の説明図である。
【図34】図23のソート処理部の処理動作を説明する
ための第6の説明図である。
【図35】図23のソート処理部の処理動作を説明する
ための第7の説明図である。
【図36】図23のソート処理部の処理動作を説明する
ための第8の説明図である。
【図37】図24のアトリビュート変調部の処理動作を
説明するための第1の説明図である。
【図38】図24のアトリビュート変調部の処理動作を
説明するための第2の説明図である。
【図39】図24のアトリビュート変調部の処理動作を
説明するための第3の説明図である。
【図40】図24のアトリビュート変調部の処理動作を
説明するための第4の説明図である。
【図41】図24のアトリビュート変調部の処理動作を
説明するための第5の説明図である。
【図42】図24のアトリビュート変調部の処理動作を
説明するための第6の説明図である。
【図43】図24のアトリビュート変調部の処理動作を
説明するための第7の説明図である。
【図44】図24のアトリビュート変調部の処理動作を
説明するための第8の説明図である。
【図45】図24のアトリビュート変調部の処理動作を
説明するための描画結果の説明図である。
【図46】図22のレンダボリュームを説明するための
描画コマンドの説明図である。
【図47】図46の描画コマンドから得たポリゴンデー
タの説明図である。
【図48】図25のアトリビュート変調部の処理動作を
説明するための第1の説明図である。
【図49】図25のアトリビュート変調部の処理動作を
説明するための第2の説明図である。
【図50】図25のアトリビュート変調部の処理動作を
説明するための第3の説明図である。
【図51】図25のアトリビュート変調部の処理動作を
説明するための第4の説明図である。
【図52】図25のアトリビュート変調部の処理動作を
説明するための第5の説明図である。
【図53】図25のアトリビュート変調部の処理動作を
説明するための第6の説明図である。
【図54】図25のアトリビュート変調部の処理動作を
説明するための第7の説明図である。
【図55】図25のアトリビュート変調部の処理動作を
説明するための第8の説明図である。
【図56】図25のアトリビュート変調部の処理動作を
説明するための第9の説明図である。
【図57】図25のアトリビュート変調部の処理動作を
説明するための第10の説明図である。
【図58】図25のアトリビュート変調部の処理動作を
説明するための第11の説明図である。
【図59】図25のアトリビュート変調部の処理動作を
説明するための第12の説明図である。
【図60】図25のアトリビュート変調部の処理動作を
説明するための第13の説明図である。
【図61】図25のアトリビュート変調部の処理動作を
説明するための第14の説明図である。
【図62】図25のアトリビュート変調部の処理動作を
説明するための第15の説明図である。
【図63】図25のアトリビュート変調部の処理動作を
説明するための第16の説明図である。
【図64】図25のアトリビュート変調部の処理動作を
説明するための描画結果の説明図である。
【符号の説明】
1 光源 3 ライトボリューム 4 視点 5 スクリーン 7 描画対象ポリゴン 11 描画対象ポリゴン 12 レンズボリューム 14 テクスチャデータ 32 半透明ポリゴン(磨りガラス) 33 描画対象ポリゴン 64 ピクセルデータ生成部 65 ピクセルソータ 66 ソートバッファ 67 アトリビュート変更部 68 レンダリングブロック 81 ソート処理部 82 Z差分検出部

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 複数のポリゴンデータから表示画面のピ
    クセル毎の画像データを生成する画像処理方法におい
    て、 ボリュームを表現するためのボリュームポリゴンと描画
    対象ポリゴンとを受け、前記ボリュームポリゴンと前記
    描画対象ポリゴンとの奥行き差を検出するステップと、 前記奥行き差により前記ボリュームポリゴンのアトリビ
    ュートを変調するステップと、 前記変調されたポリゴンと、前記描画対象ポリゴンとか
    らピクセル毎の画像データを生成するステップとを有す
    ることを特徴とする画像処理方法。
  2. 【請求項2】 前記変調ステップは、前記検出した奥行
    き差を変換テーブルにより、ブレンド値に変換するステ
    ップからなることを特徴とする請求項1の画像処理方
    法。
  3. 【請求項3】 前記変調ステップは、前記検出した奥行
    き差でテクスチャ座標を変調するステップからなること
    を特徴とする請求項1の画像処理方法。
  4. 【請求項4】 前記奥行き差を検出するステップは、 前記ボリュームポリゴンと前記描画対象ポリゴンとの重
    なり領域を判定するステップと、 前記重なり領域において、前記ボリュームポリゴンと前
    記描画対象ポリゴンとの奥行き差を検出するステップと
    を有することを特徴とする請求項1の画像処理方法。
  5. 【請求項5】 前記判定ステップは、複数のボリューム
    ポリゴンと前記描画対象ポリゴンとの重なり領域を判定
    するステップからなることを特徴とする請求項4の画像
    処理方法。
  6. 【請求項6】 前記変調ステップは、処理中の描画対象
    ポリゴンと視点との間に存在する前記ボリュームポリゴ
    ンの奥行き差に基づいて、前記ボリュームポリゴンの透
    明度を変更するステップで構成され、 前記生成ステップは、前記描画対象ポリゴンを、前記ボ
    リュームポリゴンの色データと前記変更された透明度に
    従ってブレンディング処理を行うレンダリングステップ
    で構成されることを特徴とする請求項1の画像処理方
    法。
  7. 【請求項7】 前記変調ステップは、処理中の描画対象
    ポリゴンと視点との間に存在する前記ボリュームポリゴ
    ンの奥行き差に基づいて、前記ボリュームポリゴンのテ
    クスチャ座標を変更するステップからなり、 前記生成ステップは、前記ボリュームポリゴンのテクス
    チャデータを、前記変更されたテクスチャ座標に従って
    取得し、前記ボリュームポリゴンの描画を行うレンダリ
    ング処理ステップからなることを特徴とする請求項1の
    画像処理方法。
  8. 【請求項8】 請求項7の画像処理方法において、 前記変更ステップは、前記ボリュームポリゴンが凸レン
    ズ(または凹レンズ)の場合は、前記奥行き差が小さく
    (または大きく)なるに従い、前記テクスチャ座標をレ
    ンズ中心側にずらす(またはレンズ周囲側にずらす)よ
    うに変更するステップを有することを特徴とする画像処
    理方法。
  9. 【請求項9】 前記変調ステップは、前記描画対象ポリ
    ゴンと半透明ポリゴンとの奥行き差に基づいて、前記描
    画対象ポリゴンにおけるテクスチャデータの細度レベル
    を変更するステップからなり、 前記生成ステップは、前記描画対象ポリゴンを、前記細
    度レベルに対応するテクスチャデータに従って描画する
    レンダリング処理ステップを有することを特徴とする請
    求項1の画像処理方法。
  10. 【請求項10】 前記変調ステップは、前記描画対象ポ
    リゴンと半透明ポリゴンとの奥行き差に基づいて、前記
    半透明ポリゴンの透明度を変更するステップからなり、 前記生成ステップは、前記描画対象ポリゴンを、前記半
    透明ポリゴンの色データと前記変更された透明度に従っ
    てブレンディング処理を行うレンダリング処理ステップ
    を有することを特徴とする請求項1の画像処理方法。
  11. 【請求項11】 請求項1乃至10のいずれかにおい
    て、 更に、前記ポリゴンデータを、当該ポリゴン内のピクセ
    ル毎のピクセルデータに変換する工程と、 前記表示画面のピクセル毎に、前記ピクセルデータの奥
    行き順に並び替えるソート処理工程とを有し、 前記ソート処理されたピクセルデータを参照して、前記
    奥行き差を検出する工程とを有することを特徴とする画
    像処理方法。
  12. 【請求項12】 複数のポリゴンデータから表示画面の
    ピクセル毎の画像データを生成する画像処理装置におい
    て、 ボリュームを表現するためのボリュームポリゴンと描画
    対象ポリゴンとを受け、前記ボリュームポリゴンと前記
    描画対象ポリゴンとの奥行き差を検出し、前記奥行き差
    により前記ボリュームポリゴンのアトリビュートを変調
    する変調部と、前記変調されたポリゴンと、前記描画対
    象ポリゴンとからピクセル毎の画像データを生成する生
    成部とを有することを特徴とする画像処理装置。
  13. 【請求項13】 前記変調部は、前記検出した奥行き差
    を変換テーブルにより、ブレンド値に変換することを特
    徴とする請求項12の画像処理装置。
  14. 【請求項14】 前記変調部は、前記検出した奥行き差
    でテクスチャ座標を変調することを特徴とする請求項1
    2の画像処理装置。
  15. 【請求項15】 前記変調部は、 前記ボリュームポリゴンと前記描画対象ポリゴンとの重
    なり領域を判定し、前記重なり領域において、前記ボリ
    ュームポリゴンと前記描画対象ポリゴンとの奥行き差を
    検出することを特徴とする請求項12の画像処理装置。
  16. 【請求項16】 前記変調部は、複数のボリュームポリ
    ゴンと前記描画対象ポリゴンとの重なり領域を判定する
    ことを特徴とする請求項15の画像処理装置。
  17. 【請求項17】 前記変調部は、処理中の描画対象ポリ
    ゴンと視点との間に存在する前記ボリュームポリゴンの
    奥行き差に基づいて、前記ボリュームポリゴンの透明度
    を変更し、 前記生成部は、前記描画対象ポリゴンを、前記ボリュー
    ムポリゴンの色データと前記変更された透明度に従って
    ブレンディング処理を行うことを特徴とする請求項12
    の画像処理装置。
  18. 【請求項18】 前記変調部は、処理中の描画対象ポリ
    ゴンと視点との間に存在する前記ボリュームポリゴンの
    奥行き差に基づいて、前記ボリュームポリゴンのテクス
    チャ座標を変更し、 前記生成部は、前記ボリュームポリゴンのテクスチャデ
    ータを、前記変更されたテクスチャ座標に従って取得
    し、前記ボリュームポリゴンの描画を行うレンダリング
    処理することを特徴とする請求項12の画像処理装置。
JP2000215354A 1999-07-21 2000-07-17 画像処理方法及びその装置 Withdrawn JP2001092989A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000215354A JP2001092989A (ja) 1999-07-21 2000-07-17 画像処理方法及びその装置
US09/620,992 US6744430B1 (en) 1999-07-21 2000-07-20 Image processing method and its apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP20653299 1999-07-21
JP11-206532 1999-07-21
JP2000215354A JP2001092989A (ja) 1999-07-21 2000-07-17 画像処理方法及びその装置

Publications (1)

Publication Number Publication Date
JP2001092989A true JP2001092989A (ja) 2001-04-06

Family

ID=26515699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000215354A Withdrawn JP2001092989A (ja) 1999-07-21 2000-07-17 画像処理方法及びその装置

Country Status (2)

Country Link
US (1) US6744430B1 (ja)
JP (1) JP2001092989A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059582A (ja) * 2006-08-29 2008-03-13 Samsung Electronics Co Ltd 省エネのためのlod値計算方法とこれを利用した3次元レンダリングシステム
JP2017076374A (ja) * 2015-09-04 2017-04-20 アーム・リミテッド グラフィックス処理システム

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3902907B2 (ja) * 2000-06-29 2007-04-11 キヤノン株式会社 画像処理装置及び方法と画像形成装置
CA2328795A1 (en) 2000-12-19 2002-06-19 Advanced Numerical Methods Ltd. Applications and performance enhancements for detail-in-context viewing technology
CA2345803A1 (en) * 2001-05-03 2002-11-03 Idelix Software Inc. User interface elements for pliable display technology implementations
US8416266B2 (en) 2001-05-03 2013-04-09 Noregin Assetts N.V., L.L.C. Interacting with detail-in-context presentations
US7213214B2 (en) 2001-06-12 2007-05-01 Idelix Software Inc. Graphical user interface with zoom for detail-in-context presentations
US7084886B2 (en) 2002-07-16 2006-08-01 Idelix Software Inc. Using detail-in-context lenses for accurate digital image cropping and measurement
US9760235B2 (en) 2001-06-12 2017-09-12 Callahan Cellular L.L.C. Lens-defined adjustment of displays
CA2361341A1 (en) 2001-11-07 2003-05-07 Idelix Software Inc. Use of detail-in-context presentation on stereoscopically paired images
CA2370752A1 (en) 2002-02-05 2003-08-05 Idelix Software Inc. Fast rendering of pyramid lens distorted raster images
JP4001227B2 (ja) * 2002-05-16 2007-10-31 任天堂株式会社 ゲーム装置及びゲームプログラム
US8120624B2 (en) 2002-07-16 2012-02-21 Noregin Assets N.V. L.L.C. Detail-in-context lenses for digital image cropping, measurement and online maps
CA2393887A1 (en) 2002-07-17 2004-01-17 Idelix Software Inc. Enhancements to user interface for detail-in-context data presentation
CA2406131A1 (en) 2002-09-30 2004-03-30 Idelix Software Inc. A graphical user interface using detail-in-context folding
CA2449888A1 (en) 2003-11-17 2005-05-17 Idelix Software Inc. Navigating large images using detail-in-context fisheye rendering techniques
CA2411898A1 (en) 2002-11-15 2004-05-15 Idelix Software Inc. A method and system for controlling access to detail-in-context presentations
TWI238975B (en) * 2003-02-20 2005-09-01 Via Tech Inc Method of performing cubic mapping with texturing
JP4181430B2 (ja) * 2003-03-10 2008-11-12 シャープ株式会社 図形処理装置、図形処理方法、図形処理プログラム、および、プログラム記録媒体
US7486302B2 (en) 2004-04-14 2009-02-03 Noregin Assets N.V., L.L.C. Fisheye lens graphical user interfaces
JP4383241B2 (ja) * 2004-05-07 2009-12-16 任天堂株式会社 描画ポリゴン数を増やす画像処理システム
US8106927B2 (en) 2004-05-28 2012-01-31 Noregin Assets N.V., L.L.C. Graphical user interfaces and occlusion prevention for fisheye lenses with line segment foci
US9317945B2 (en) 2004-06-23 2016-04-19 Callahan Cellular L.L.C. Detail-in-context lenses for navigation
US7714859B2 (en) 2004-09-03 2010-05-11 Shoemaker Garth B D Occlusion reduction and magnification for multidimensional data presentations
US7995078B2 (en) 2004-09-29 2011-08-09 Noregin Assets, N.V., L.L.C. Compound lenses for multi-source data presentation
US8130222B1 (en) * 2004-10-19 2012-03-06 Rockwell Collins Simulation And Training Solutions Llc System and method for resolving visual priority among coincident primitives
US7710418B2 (en) * 2005-02-04 2010-05-04 Linden Acquisition Corporation Systems and methods for the real-time and realistic simulation of natural atmospheric lighting phenomenon
US7580036B2 (en) 2005-04-13 2009-08-25 Catherine Montagnese Detail-in-context terrain displacement algorithm with optimizations
US8031206B2 (en) 2005-10-12 2011-10-04 Noregin Assets N.V., L.L.C. Method and system for generating pyramid fisheye lens detail-in-context presentations
JP5025950B2 (ja) * 2005-12-12 2012-09-12 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
JP4492567B2 (ja) * 2006-03-17 2010-06-30 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US7983473B2 (en) 2006-04-11 2011-07-19 Noregin Assets, N.V., L.L.C. Transparency adjustment of a presentation
US9026938B2 (en) 2007-07-26 2015-05-05 Noregin Assets N.V., L.L.C. Dynamic detail-in-context user interface for application access and content access on electronic displays
US9684997B2 (en) * 2012-06-27 2017-06-20 Pixar Efficient rendering of volumetric elements
KR20150042094A (ko) * 2013-10-10 2015-04-20 삼성전자주식회사 객체를 렌더링하는 방법, 장치 및 기록매체
CN115423915A (zh) * 2021-05-31 2022-12-02 北京字跳网络技术有限公司 一种图像渲染方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0727581B2 (ja) 1988-09-09 1995-03-29 インターナショナル・ビジネス・マシーンズ・コーポレーション 図形処理装置
JP3082652B2 (ja) * 1994-12-27 2000-08-28 キヤノン株式会社 照明装置及びそれを用いたデバイスの製造方法
US6219062B1 (en) * 1995-03-10 2001-04-17 Hitachi, Ltd. Three-dimensional graphic display device
US6184891B1 (en) * 1998-03-25 2001-02-06 Microsoft Corporation Fog simulation for partially transparent objects

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059582A (ja) * 2006-08-29 2008-03-13 Samsung Electronics Co Ltd 省エネのためのlod値計算方法とこれを利用した3次元レンダリングシステム
JP2017076374A (ja) * 2015-09-04 2017-04-20 アーム・リミテッド グラフィックス処理システム

Also Published As

Publication number Publication date
US6744430B1 (en) 2004-06-01

Similar Documents

Publication Publication Date Title
JP2001092989A (ja) 画像処理方法及びその装置
Everitt Interactive order-independent transparency
JP3759971B2 (ja) 3次元像を陰影付けする方法
US6285378B1 (en) Method and apparatus for span and subspan sorting rendering system
Lindstrom et al. Image-driven simplification
US6664959B2 (en) Method and apparatus for culling in a graphics processor with deferred shading
US6052125A (en) Method for reducing the rendering load for high depth complexity scenes on a computer graphics display
US7907145B1 (en) Multiple data buffers for processing graphics data
US6362818B1 (en) System and method for reducing the rendering load for high depth complexity scenes on a computer graphics display
JPH0727581B2 (ja) 図形処理装置
JP3705739B2 (ja) 情報記憶媒体及びゲーム装置
WO1997005576A9 (en) Method and apparatus for span and subspan sorting rendering system
JPH0757117A (ja) テクスチャマップへの索引を生成する方法及びコンピュータ制御表示システム
US6078333A (en) Images and apparatus for carrying out the method
US20110175924A1 (en) System and Method for Image-Based Rendering with Object Proxies
JP2012014714A (ja) 透光性3dグラフィックをレンダリングする方法及び装置
KR20030012889A (ko) 병렬 z-버퍼 구성 및 투명도
JP2000504453A (ja) コンピュータグラフィックス画像を発生する方法および装置
Sintorn et al. An efficient alias-free shadow algorithm for opaque and transparent objects using per-triangle shadow volumes
US20040056858A1 (en) Image generating method, storage medium, image generating apparatus, data signal and program
CN117011492B (zh) 图像渲染方法、装置、电子设备及存储介质
Pajarola et al. DMesh: Fast depth-image meshing and warping
Ropinski et al. Real-time rendering of 3D magic lenses having arbitrary convex shapes
US6906729B1 (en) System and method for antialiasing objects
US20050162435A1 (en) Image rendering with multi-level Z-buffers

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20100402