JP3720890B2 - Image generation device - Google Patents

Image generation device Download PDF

Info

Publication number
JP3720890B2
JP3720890B2 JP32334795A JP32334795A JP3720890B2 JP 3720890 B2 JP3720890 B2 JP 3720890B2 JP 32334795 A JP32334795 A JP 32334795A JP 32334795 A JP32334795 A JP 32334795A JP 3720890 B2 JP3720890 B2 JP 3720890B2
Authority
JP
Japan
Prior art keywords
frame buffer
pixel
shape
light
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32334795A
Other languages
Japanese (ja)
Other versions
JPH09161094A (en
Inventor
範人 渡辺
健一 安生
雅則 三好
善文 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Technology Corp
Original Assignee
Renesas Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Technology Corp filed Critical Renesas Technology Corp
Priority to JP32334795A priority Critical patent/JP3720890B2/en
Publication of JPH09161094A publication Critical patent/JPH09161094A/en
Application granted granted Critical
Publication of JP3720890B2 publication Critical patent/JP3720890B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、描画対象となるモデルの3次元表示手段に係わり、特に、光ぼうやグレアをリアルかつ高速に描画表現する手段に関する。
【0002】
【従来の技術】
従来の3次元描画手法においては、描画対象であるモデルを、三角形等の形状で構成するものとして登録する。そして、描画の際には、登録された形状モデルを参照して、レンダリングを行なっていた。
【0003】
さらに、光源等が存在する場合、光源よる光の照射の影響を考慮して、形状の輝度を計算し、この輝度情報に基づき、描画を行なうものであった。このため、モデルデータが存在しない場合には、描画が行なわれない。
【0004】
光が、空間内に存在する微粒子を照射したときに発生する「光ぼう(こうぼう)」や、光の回折現象で生じるグレアは、それ自体が、形状データで表現できないため、従来の描画手法では表現不可能である。
【0005】
このような状態を表現する手法として、光ぼうの表現に関して、従来2つの手法が提案されていた。
【0006】
第1の手法は、光ぼうの表現を、ボリュームレンダリングと称される手法で行なうものである。この手法は、「コンピュータグラフィックス、プリンシプルアンドプラクティス、セカンドエディション、アディソンウエズリー(1990年)第1034頁から第1039頁(Computer Graphics, Principles and Practice, Addison Wesley(1990), pp1034-pp1039)」等の文献に詳しく述べられている。
【0007】
即ち、本手法は、描画対象となる空間を、複数の小空間に分割し、視線が小空間を通過する様子を、各小空間における輝度変化を積分することによって求めて、光ぼうを表現する手法である。
【0008】
また、第2の手法は、光ぼうの表現を、形状を生成することによって行なうものである。この手法は、光ぼう現象が発生する位置に、光ぼうを表現するための、新たな仮想形状を生成し、半透明状態で該仮想形状を描画するものである。
【0009】
さらに、グレア表現に関しては、「シーグラフ90コンファレンスプロシーディングス、Vol.24、No.4、August1990、第395頁から第404頁(SIGGRAPH90 Conference Proceedings Vol.24,No.4, August1990、pp395-404)」等の文献に詳しく述べられている。本手法によれば、生成された画像の輝度データに基づき、特殊な画像処理を行なうことによって、グレア表現を行なうものである。
【0010】
【発明が解決しようとする課題】
ところで、上述したような従来技術、即ち、光ぼう表現の第1の従来技術によれば、空間積分を行なう際の処理時間が考慮がされておらず、著しく処理時間がかかってしまうという問題があった。また、光ぼう表現の第2の従来技術によれば、処理時間がさほど要しないものの、光ぼうを表現する色が均質になるため、リアルな表現を行なうことが不可能であったという問題があった。
【0011】
また、グレア表現に関しても、従来技術においては、生成された画像に対し、画素単位での画像処理を行なうため、処理速度の点で問題があった。
【0012】
そこで、本発明の目的は、光芒の表現を、リアルかつ高速に行なう手段を提供するとともに、グレア表現も、リアルかつ高速に行なう手段を提供することにある。
【0013】
【課題を解決するための手段】
上記課題を解決し、本発明の目的を達成するために、以下の手段がある。
【0014】
即ち、画素ごとに色情報を格納するフレームバッファと、該フレームバッファの内容を参照して表示出力を行なう表示手段と、ある体積を占める空間である部分空間の境界形状に対して、境界形状を構成する画素ごとに、特定の位置からの奥行きデータを出力する境界レンダリング手段と、前記境界形状を構成する画素が、前記特定の位置から見て、特定の位置側に存在するか否かを判断し、予め定めた規則にしたがって、対応する奥行きデータの符号付けを行ない、奥行きデータの加減算処理を、総ての、境界形状を構成する画素に対して行なう差分演算手段と、各画素に対する該差分演算手段による処理結果を格納する積和バッファと、各画素に対して、積和バッファの格納データに基づいて、光の減衰量を計算して、さらに、対応する前記フレームバッファの格納位置の色情報、予め定められている部分空間の色情報、および、光の減衰量に基づいて、当該画素の色情報を定め、フレームバッファ内の対応する位置に格納する処理を行なう合成手段と、を有する画像生成装置である。
【0015】
また、本発明の他の態様として、以下に示す手段がある。
【0016】
即ち、画素ごとに色情報を格納するフレームバッファと、該フレームバッファの内容を参照して表示出力を行なう表示手段と、3次元物体を照明する光源、および、障害物が存在すると想定したとき、照射方向に平行な複数の面を生成し、各面に沿って、該光源と光を遮る障害物との距離を求め、該面に対して、光源からの距離にしたがった透明度を設定する光ぼうプレート生成手段と、各面に対して、透明度にしたがった描画を行ない、描画結果を前記フレームバッファに格納する形状レンダリング部と、を有する画像生成装置である。
【0017】
さらにまた、本発明の他の態様として、以下に示す手段がある。
【0018】
即ち、画素ごとに色情報を格納するフレームバッファと、該フレームバッファの内容を参照して表示出力を行なう表示手段と、予め定めた複数種類のグレアパターンをマッピングするグレア処理手段とを備える。そして、該グレア処理手段は、表示画面の中心位置と光源の存在位置とを結ぶ直線上に、1以上のグレアパターンをマッピングするように、グレアパターンを前記フレームバッファに格納する、画像生成装置である。
【0019】
【発明の実施の形態】
以下、本発明の実施形態を、図面を参照して説明する。
【0020】
なお、本発明の理解の容易化を図るため、図2、3、4、5を参照して、本発明によって描画される画像生成の例と、動作原理について説明し、その後、具体的な装置構成を示して、本実施形態を説明する。
【0021】
図3は、本実施形態による表示部111の表示画面例である。
【0022】
図3に示すように、例えば、微粒子物体が、空間内に部分的に存在する「部分空間」203に対して光を照射した場合、その部分空間の厚みが把握できるように表示するものである。このような状態は、例えば、煙や霧等が存在する部分空間に対して、光を照射して生ずる、光ぼう現象を表現したものである。
【0023】
また、部分空間のような半透明空間と、不透明な物体201が共存しても、部分空間の見える厚みを考慮してリアルに画像生成することを可能とするものである。
【0024】
次に、図2は、図3に示したA−A'の線を、図面に垂直の上方向から見た様子を示す図面である。
【0025】
したがって、図2の「A」「A'」は、図3の「A」「A'」に対応し、また、図2の「B」は、図3の点「B」に対応する。
【0026】
図2では、3種類の部分空間203が存在しており、背景202は、不透明の物体である。点Bを視点方向に延長することを想定した場合の、背景202との接触点を点B'としている。
【0027】
もちろん、図2および図3における、物体201は、共通したものであるが、視点の位置が異なるため、物体201の形状は異なっている。
【0028】
B-B'の視線に注目して、拡大した様子を表現する図面が図4である。
【0029】
図4において、401は、視点、203は部分空間、202は、不透明物体である。
【0030】
また、各部分空間203の色情報Cv、不透明物体202の色情報Cbは、予め定められている。また、Ceは、視点位置で観測される色を表現っする色情報である。なお、色情報としては、例えば(R、G、B)を数値表現したデータを採用すれば良い。また、402、403、404、405、406、407は、各部分空間203の境界面である。なお、各境界面の法線ベクトルを調べれば、各境界面が、視線側にあるか否かが判断できる。以下、適宜、視点側にある境界面、例えば、402を「表側」、その反対側にある境界面、例えば、403を「裏側」として説明を行なう。
【0031】
ここで、部分空間を視線が通過する距離は、次のようにして求めることができる。
【0032】
まず、不透明物体202の描画を行ない、不透明物体202の、視点位置からの奥行き距離Z0を定めておく。その後、部分空間の境界面402、403、404、405、406、407を求め、各境界面と視点位置との距離、Z1、Z2、Z3、Z4、Z5を求める。さらに、各境界面が視点側に存在するか否か、即ち、表側であるか裏側であるかをによって、各境界面と視点位置との距離の加減算を行なう。これにより、視線が、部分空間を通過する距離dを求めることができる。
【0033】
なお、図では、不透明物体202からの各境界面までの距離を、「Zn'=Z0−Zn(n=0、1、2、3、4、5、6)」として求め、さらに、表側を正、裏側を負として、距離dを求めている。その結果、「d=Z1'−Z2'+Z3'−Z4'+Z5'−Z6'」なる式で、距離dが求まることが分かる。
【0034】
さて、均質な微粒子が存在する部分空間を通過する光は、その通過距離に従い、対数的に減衰するので、図5に示す式で、視点に到達する色Ceを決定することが可能である。即ち、Kを減衰定数として、「a=exp(−K・d)」なる式で減衰量aを定めている。よって、(1−a)は、透過度を示している。
【0035】
図5では、横軸に距離dをとり、dの変化に従って、a、(1−a)が変化する様子を示している。
【0036】
そして、色Ceは、「Ce=Cb・a+Cv・(1−a)」なる式で求めている。但し、Cbは、不透明物体202の色(または、背景色)、Cvは、部分空間の色である。
【0037】
次に、図1を参照して、上述したような処理を行なう装置の位置構成形態を説明する。
【0038】
本装置は、モデルデータ格納部101と、画像生成制御部102と、形状レンダリング部103と、画素ごとに色情報を格納するフレームバッファ106と、該フレームバッファの内容を参照して表示出力を行なう表示部111と、光ぼう生成部110とを有して構成されている。また、光ぼう生成部110は、境界レンダリング部104、差分演算部105、積和バッファ108、および合成部109を備えている。
【0039】
表示部111は、CRT、液晶ディスプレイ等で実現可能であり、また、各バッファは、RAM等のメモリデバイスで実現できる。その他の構成要素も、例えば、各種の処理を行なうCPU、予めプログラムを内蔵したROM、記憶素子やワークエリアとして機能するRAM、各種の論理演算を行なう論理素子等の電子デバイスで実現できる。したがって、本装置は、1台の計算機上で実現可能である。
【0040】
モデルデータ格納部101は、モデルデータや、視点情報を格納する。
【0041】
モデルデータとしては、表示対象となる3次元空間内に存在する物体の形を表す形状データ、配置や大きさを示す配置データ、色や質感を示す属性データ、照明の設定条件や照射方向を示す照明データがある。また、視点情報としては、視点401の位置、方向、画角等を示すデータが挙げられる。
【0042】
奥行きバッファ107は、隠面消去を行なうために、特定位置、例えば視点位置から、モデルデータまでの奥行きデータを格納する。
【0043】
画像生成制御部102は、モデルデータ格納部101の格納内容を参照して、視点401から見た、物体の3次元データを、2次元画像データに変換、生成するために、各種バッファへのアクセス動作を行なうとともに、形状レンダリング部103の動作を制御する。
【0044】
形状レンダリング部103は、モデルデータ等を参照して、2次元画像の描画生成処理を行なう。
【0045】
画像生成制御部102は、画像生成を行なう際に、まず、画像情報を格納するフレームバッファ106と、画像を生成する際に使用する作業バッファ、図1に示す例では、奥行きバッファ1071を初期化する。
【0046】
フレームバッファ106の初期化は、生成する画像の背景色、例えば黒色のデータを、バッファに格納することで行なえばよい。奥行きバッファ107の初期化は、バッファに、無限遠の値を設定しておけばよい。
【0047】
画像生成制御部102は、この初期化処理の後、形状の描画を行なう。
【0048】
即ち、画像生成制御部102は、形状レンダリング部103に対し、視点データ、照明データを与え、その後、形状データを順次、形状レンダリング部103に与えることによって、形状レンダリング部に画像生成を行なわせる。
【0049】
形状レンダリング部103は、形状データを、視点データを参照して投影変換し、形状データのフレームバッファ106内での格納位置、および、視点位置からの奥行距離を、画素単位で求める。
【0050】
次に、形状レンダリング部103は、照明データに従って、各画素の色情報の決定を行なう。この際、隠面消去を行なうため、さらに、以下の処理を行なう。
【0051】
即ち、奥行きバッファ107における、対応する画素位置の奥行きデータを読み出し、既に、形状データに対する奥行データよりも、手前の位置を表す値が、奥行きバッファ107に書き込まれている場合には、フレームバッファ106への色情報の書き込みは行なわない。一方、奥行きバッファ107の値が、手前の位置を表す値でない場合には、フレームバッファ106に対し、対応する画素に色情報を書き込む。さらに、奥行きバッファ107へ、形状の奥行データの値を書き込む処理を行なう。このような処理を行なうことによって、視点位置から見た3次元モデルの描画のための情報が、フレームバッファ106に格納される。
【0052】
なお、以上説明した、形状レンダリング部103が行なうレンダリング処理は、「Z-Buffer法」と称される公知の手法であるため、その詳細な説明については、省略する。
【0053】
フレームバッファ106に格納された画像情報は、表示部111によって、画面表示される。
【0054】
次に、3次元空間内に、微粒子が部分的に存在する部分空間を画像として生成する処理について説明する。微粒子が部分的に存在するモデルとしては、例えば、微粒子に照射された光が拡散して、光が到達している部分の微粒子が可視状態となることによって生じる光ぼう現象や、CTスキャナを備えた三次元断層撮影等によって得られる、データの存在密度に分布があるモデル等が考えられる。
【0055】
前者の具体例としては、霧の中を、自動車のヘッドライトが照射した状態や、タバコの煙に、光を照するケース等が考えられる。また、光が、窓から室内に向けて、さしこむ状態も考えられる。
【0056】
後者の例としては、人間の頭部の断層写真が示すデータ等が挙げられる。
【0057】
次に、本発明の主要部である、光ぼう生成部110が行なう処理を説明する。
【0058】
まず、画像生成制御部102は、部分空間の境界を、形状データとして作成する。作成方法としては、図2に示すように、ある体積を占める部分空間を、複数配置するのが一般的である。
【0059】
他の作成方法としては、光ぼうに関しては、光の遮蔽物(不透明物体)の輪郭線を、光源が存在する位置とは反対方向に、掃引することで、部分空間の境界形状を求める。ここで、掃引とは、形状を所定方向に伸ばした状態を想定して形状データを生成することを意味し、グラフィック処理の一般的な手法である。
【0060】
また、三次元断層撮影データの例では、データの分布密度が、ある値以上となる(または、ある値以下になる)領域の境界線を、境界形状として生成する。
【0061】
なお、境界形状を生成する際には、境界形状に対する法線の方向が、部分空間の内側または外側のいずれか一方を向くようにしておく。これにより、境界形状が、視点から見たときに、部分空間の視点側の境界なのか、反対側の境界なのか、即ち、表・裏を判別することができる。
【0062】
画像生成制御部102は、境界レンダリング部104に対し、視点データ、照明データを与えた後、求めた境界形状の情報を与える。境界レンダリング部104は、指示された境界形状の、表裏判定を行なう。これは、境界形状の法線方向と、視線の方向とを比較することによって求めることが可能である。この判定結果を、差分演算部105に与える。
【0063】
次に、境界レンダリング部104は、境界形状のレンダリングを行なう。レンダリング処理は、形状レンダリング部103と同様の処理によって行うが、このとき輝度計算は行なわず、奥行きバッファ107を参照して、部分空間の境界面に対する奥行データを求めることのみ行なう。
【0064】
視点位置から見える境界形状ならば、その奥行きデータを、差分演算部105に与える。レンダリングにおける各画素毎の奥行き情報の計算は、形状レンダリング部1031においても使用する「3DDDA」と称される、一般的な手法を採用して行なう。専用ハードウエアを備えることにより、処理の高速化が図れる。
【0065】
ここで、差分演算部105の処理概要を、図6を参照して説明する。
【0066】
図6(a)には、境界レンダリング部104、奥行きバッファ107、積和バッファ108、および、差分演算部105を示している。
【0067】
積和バッファ108は、部分空間の画像生成処理の前に、「0」で初期化される。その後、境界レンダリング部104により、視点位置から見えると判断された画素(図中「画素」と、図示した1画素)の奥行きデータが、差分演算部105が備える減算部に与えられる。
【0068】
次に、奥行きバッファ107の対応する画素の奥行きデータ602を参照し、601と602の差分を求める。この差分値が、図4に示す「Zn’」である。
【0069】
差分演算部105が備える加減算部は、境界レンダリング104が求めた法線方向から表裏判定を行ない、表側ならば、「Zn’」に「+」の符号を付加し、裏側ならば「Zn’」に「−」の符号を付加していき、積和バッファ108の画素の対応するデータ603の値と、求まった差分値の演算を行ない、演算結果を再び積和バッファ108の画素603に対するエリアに格納する。
【0070】
これにより、視線が部分空間を通過する距離、即ち、図4に示すdを求めることができる。
【0071】
このようにして、画素単位の距離情報が、積和バッファ108に格納される。
【0072】
なお、三次元断層撮影データのように、部分空間のデータのみで、不透明物体が存在しないモデルの場合には、差分演算部105の構成を簡素にすることができる。これを図6(b)に示す。図示するように、奥行きバッファ107との差分処理がなくなり、積和バッファ108との演算処理のみとなる。また、演算処理は境界形状が視点側にある場合には減算処理、反対側にある場合には加算処理とする。加減算部は、このような処理によって、部分空間中を視線が通過する距離dを求め、積和バッファ108に格納する。
【0073】
次に、画像生成制御部102は、合成部109に対して、部分空間のレンダリング画像の合成を指示する。合成部109は、積和バッファ108に格納された距離データdを使用して、各画素毎に次の演算を行なう。
【0074】
a=exp(−K・d) (式1)
(但し、Kは、部分空間内を光線が通過する際の減衰率を示す定数)
なる式で、光の減衰量を求める。そして、
Ce=Cb・a+Cv・(1.0−a) (式2)
なる式で、画素ごとに、視点位置からの色情報を定める。
【0075】
Cbは、フレームバッファ106に格納されている色情報であり、Cvは、部分空間の色情報を示す。また、aは次の式で求める。
【0076】
合成部109は、以上のような計算を行ない、Ceの値を、フレームバッファ106格納する。
【0077】
これによって、表示部111は、部分空間への光の照射を考慮した画像を表示出力できる。
【0078】
以上説明してきたように、本実施形態によれば、部分空間に均質に存在する微粒子状のモデルを、その厚みがわかるように、リアルかつ高速に生成することが可能となる。これにより、光ぼう、三次元断層データ等を、リアルかつ高速に表現を可能な画像生成装置を実現できる。
【0079】
次に、光ぼうの表現を行なうための、第2の実施形態について、図7、図8を参照して説明する。
【0080】
図7に、第2の実施形態における構成例を示す。
【0081】
本装置は、モデルデータ格納部101と、形状レンダリング部103と、フレームバッファ106と、奥行きバッファ107と、表示部111と、光ぼうプレート生成部702と、各構成要素の動作を制御する画像生成制御部701とを有して構成される。
【0082】
なお、モデルデータ格納部101、形状レンダリング部103、フレームバッファ106、奥行きバッファ107、および表示部111は、図1において同じ符号を付したものと、同一のものである。
【0083】
画像生成制御部701は、光ぼう以外のモデルデータのレンダリングを、形状レンダリング部103を起動することによって行ない、光ぼうの表現を、光ぼうプレート生成部702を起動することによって行なう。
【0084】
さて、図8を参照して、光ぼうプレート生成部702が行なう、光ぼう表現の処理概要を説明する。
【0085】
ここで、図8(a)に示すように、照明の光源801と視点401が存在することを想定する。光源801は、光を照射する対象物802上の点803を原点とした、X、Y、Z座標系のZ軸上に存在し、領域804が照明エリアとなっている。視点401の座標は、(Ex、Ey、Ez)であり、座標(Ax、Ay、Az)である注視点805を注視している。また、視線は、806で表現している。
【0086】
光ぼうを表現するための、光ぼうプレート811は、図8(b)、(c)に示すようにして生成する。
【0087】
まず、視線806をXY平面に投射した直線807を計算により求める。次に、直線807と平行で、座標系原点803を通る直線808を定める。次に、XY平面上の直線で、直線808と直交する直線809を、照明の照射エリア804をカバーするように、所定間隔で生成する。次に、直線809と平行で、光源位置801を通る直線810を求める。
【0088】
そして、光ぼうプレート811は、直線810と各直線809とを含む平面として生成する。
【0089】
以上のようにして生成した、光ぼうプレート811に対して、図8(d)、(e)に示すようにして、半透明の属性パターンを生成する。図8(d)は、視点401から見た画像であるとする。図8(d)に示すように、光源位置801からの光は、照射対象物である802、812に照射される。
【0090】
なお、814は、照射対象物である802、812等に遮られた光ぼうを示している。
【0091】
図8(e)は、図8(d)において、照射対象物802、812を、光源位置801から、光の照射方向に投影した際の、奥行きバッファ107の内容を示す。図8(e)に示すように、奥行きバッファ107には、光源位置801から、照射対象物である802、812までの距離Z0、Z1が、図に示すように格納される。なお、図8(e)において、816、815は、夫々、奥行きバッファ107に対するx軸、y軸である。奥行きバッファ107に格納するデータは、形状レンダリング部103が作成する。つまり、画像生成制御部701は、照明位置および照明方向を、視点情報として、形状レンダリング部103に与え、さらに、光が照射される照射エリアの形状データを、形状レンダリング部103に与えることによって、奥行きバッファ107に格納するデータを生成する。そして、生成した奥行きデータを基に、光ぼうプレートの半透明属性パターンを、各プレート毎に決定する。
【0092】
図8(e)に示すように、光ぼうプレートは、光源位置から見ると、直線817のように観測される。この直線817を辿って、奥行きデータを得ることによって、光ぼうプレート811上で、照明の到達する距離を求めることができる。
【0093】
また、光ぼうプレート811上の光源位置813を起点として、奥行きバッファ107に格納された値が示す距離まで、半透明属性を設定する。
【0094】
また、奥行きバッファ107に格納された値が示す距離以上の部分、または、照明領域にならない部分は、透明の属性を設定しておけば良い。図8(e)下図は、各光ぼうプレート811を示している。白色の部分が、半透明属性を設定する部分である。
【0095】
このような処理によって、光ぼうプレート811上に、光ぼうの断面を生成することができる。半透明の属性パターンは、一般には、テクスチャマッピングと称される手法によって、形状の表面属性として表現できる。
【0096】
以上の処理によって生成した、光ぼうプレート811を、形状レンダリング部103に描画指示することによって、照射対象物802、812等に遮られた、光ぼうを表現することが可能になる。このとき、光ぼうプレート811の描画は、視点位置から遠いものから順に、行なっていけば良い。
【0097】
また、光ぼうプレートの属性設定の際には、図9に示すように、中心部の透明度が小さく、周辺部に向かうほど透明度が高くなる属性パターン901を複数種類予め用意しておき、その中から、必要な部分のみを切り出して、属性パターンを設定することも可能である(図9、902参照)。なお、透明度を、中心からの距離に対し線形、または、中心からの距離の2乗に反比例させて、変化させるようにすることによって、照明光の、距離による減衰状態をリアルに表現することが可能となる。
【0098】
なお、光源位置から見た場合の、奥行きバッファ107への格納データを作成する際に、視点方向が、バッファのX軸816の方向またはY軸815の方向と等しくなるように、奥行き情報を生成しておくと、光ぼうプレート811の属性設定処理が容易になり好ましい。
【0099】
光ぼうプレートの生成量が多いほど、光ぼうの表現がリアルになるが、視点位置401と、光ぼうの位置に応じて、光ぼうプレートの生成量を変化させることも考えられる。すなわち、視点位置401と光ぼうの位置とが近い場合には、光ぼうプレートを多く生成し、遠い場合には、光ぼうプレートの生成量を少なくする。なお、このような遠近は、しきい値を設けて判定すれば良い。また、照明を遮蔽する物体の数に応じて変化させることも考えられる。
【0100】
以上述べたように、第2の実施形態によれば、遮蔽物に遮られた光ぼうの表現を、リアルかつ高速に行なうことが可能となる。また、光が減衰する状態も、リアルに表現可能となる。
【0101】
次に、輝度が高いものを見たときに、光の回折現象で起きる、いわゆるグレアの表現方法の一実施形態について、図10、11、12を参照して説明する。
【0102】
図10は、第3の実施形態における装置構成例である。
【0103】
本装置は、モデルデータ格納部101と、形状レンダリング部103と、フレームバッファ106と、奥行きバッファ107と、表示部111と、グレアプレート生成部1002と、各部の動作を制御して画像生成を行なわせる画像生成制御部1001とを有して構成される。なお、モデルデータ格納部101、形状レンダリング部103、フレームバッファ106、奥行きバッファ107、および、表示部111は、図1にて示した、同一符号を付したものと同一のものである。
【0104】
画像生成制御部1001は、グレア以外のモデルデータのレンダリングを、形状レンダリング部103に行なわせ、グレアの表現生成は、グレアプレート生成部1002に行なわせる。
【0105】
グレアプレート生成部1002は、図11(a)に示すようなグレアの表現を行なうための画像データ、即ち、グレアパターン1101、1102を予め作成して用意しておく。なお、図示したグレアパターンは一例であることは言うまでもない。
【0106】
これらのグレアパターンに対しては、透明度を変化させるような属性を設定する。即ち、グレア表現に関係のない部分を透明とし、グレアパターンの部分だけ半透明の属性を設定しておく。
【0107】
次に、モデルデータに対する照明情報から、その照明が、表示部111の画面1103上に投影されるべき点1104の位置を計算する。
【0108】
図11(b)に、表示部111の表示画面1103上の、点1104を示す。
【0109】
次に、グレアプレート生成部1002は、照明情報から、どれくらいの強度で照明が視点に入射するかを計算する。この計算は次式で行なう。
【0110】
I=Io・F(θ)/r2 (式3)
但し、Ioは、照明の輝度、rは、光源位置までの距離を示す。また、F(θ)は、照明の指向性を考慮した値であり、スポットライトのように指向性を有する場合、指向特性を考慮した値となり、一方、指向性の無い光源に対しては、一定値となる。なお、θは、図12に示すように、照明位置1201における照明の照射方向1202と視点位置401とのなす角である。なお、1203は、ある視点位置において、照明光が可視状態となる、最も外側の光線を示している。
【0111】
さて、求まった視点における照明の輝度にもとづき、グレアプレート生成部1002は、グレアパターン1101の大きさ、透明度を適宜変更し、照明の投影位置1104に重畳合成する。
【0112】
重畳合成の方法としては、グレアパターンをテクスチャデータとして、平面にマッピングすることで、テクスチャマッピングの半透明マッピング機能を利用し、高速にグレアを表現できる。このとき、テクスチャマッピングを行う平面は、視線に垂直に正対させ、位置は、照明位置に置くことにする。また、平面のレンダリング時点においては、Z-Bufferの比較処理は、行わない。
【0113】
また、高輝度の照明を写真等で撮影したときに生じるレンズフレアは、画面中心位置(図11(c)の直線a、bの光点)と照明の投影位置1104とを結ぶ線上に、適宜配置することで表現することができる。この様子を、図11(c)に示す。
【0114】
なお、形状レンダリング部103による照度計算処理の結果から、画面上の高輝度な部分を抽出して、グレア表現することも考えられる。つまり、形状レンダリング部103により、形状をレンダリングした結果は、フレームバッファ106に格納されている。このフレームバッファ106に格納されているデータを順次調べ、カメラの特性から、表現できる明るさ以上の輝度が格納されているエリアを求める。その後、求まった高輝度の位置に対して、その輝度値に応じて、グレアパターン1101の大きさ、透明度を変更し、重畳合成する。このような手法によっても、高輝度部に対してのグレアの表現が可能となる。
【0115】
以上のように、本実施形態によれば、リアルかつ高速なグレアの表現が可能となる。
【0116】
次に、光ぼう生成部110と、グレア生成部とを備えた装置形態について、図13を参照して説明する。
【0117】
本装置は、モデルデータ格納部101と、形状レンダリング部103と、フレームバッファ106と、奥行きバッファ107と、表示部111と、グレアプレート生成部1002と、光ぼう生成部110と、各部の動作を制御して画像生成を行なわせる画像生成制御部1301とを有して構成される。
【0118】
ここで、モデルデータ格納部101、形状レンダリング部103、フレームバッファ106、奥行きバッファ107、表示部111は、図1にて示した、同一符号を付したものと同一のものである。
【0119】
また、グレアプレート生成部1002は、図10にて示した、同一符号を付したものと同一のものである
これらに対して、光ぼう生成部110は、図1に示した光ぼう生成部110または図7に示した光ぼう生成部のいずれかを採用すれば良い。
【0120】
また、画像生成制御部1301は、図1に示した画像生成制御部102または図7に示した画像生成制御部701の機能と、図10に示した画像生成制御部1001の機能を兼ねた手段である。
【0121】
詳細な動作は、前述した通りなので、重複説明することは避けるが、本装置によって、光ぼう、グレアを、リアルかつ高速に表現できる。
【0122】
本装置が行なう処理によって、例えば、図14に示すように、車のヘッドライトによる光ぼうと、ヘッドライトのグレアの表現とが可能となる。このような描画処理は、ドライブシミュレータ、フライトシミュレータ等のシステムへ応用し、高品質の画像表示を行なうシステムを構築できる。
【0123】
【発明の効果】
以上のように、本発明によれば、微粒子や三次元断層データ等が存在する部分空間を考慮してレンダリングを行なうことによって、光ぼうを、リアルかつ高速に表現できる。また、本発明によれば、グレアの表現を、リアルかつ高速に表現できる。
【図面の簡単な説明】
【図1】本発明の第1実施形態の構成図である。
【図2】図3のA-A'線の断面図である。
【図3】本発明による画像生成例の説明図である。
【図4】図2のB-B'線の拡大図である。
【図5】減衰量の説明図である。
【図6】差分演算部が行なう処理の説明図である。
【図7】本発明の第2実施形態の構成図である。
【図8】第2実施形態による処理の説明図である。
【図9】透明度を表現する属性パターンの説明図である。
【図10】本発明の第3実施形態の構成図である。
【図11】第3実施形態による処理の説明図である。
【図12】照明照射方向と視線との関係の説明図である。
【図13】本発明の他の実施形態の構成図である。
【図14】他の実施形態による処理結果の説明図である。
【符号の説明】
101…モデルデータ格納部、102…画像生成制御部、103…形状レンダリング部、104…境界レンダリング部、105…差分演算部、106…フレームバッファ、107…奥行きバッファ、108…積和バッファ、109…合成部、110…光ぼう生成部、111…表示部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional display means for a model to be drawn, and more particularly to a means for drawing and expressing light and glare realistically and at high speed.
[0002]
[Prior art]
In the conventional three-dimensional drawing method, a model to be drawn is registered as a triangle or other shape. When drawing, rendering is performed with reference to the registered shape model.
[0003]
Further, when there is a light source or the like, the luminance of the shape is calculated in consideration of the influence of light irradiation by the light source, and drawing is performed based on this luminance information. For this reason, when model data does not exist, drawing is not performed.
[0004]
The conventional drawing technique, because “light” generated when light irradiates fine particles in space and glare caused by light diffraction cannot be expressed by shape data itself. Then it is impossible to express.
[0005]
As a technique for expressing such a state, two techniques have been proposed in the past regarding the expression of light.
[0006]
The first method is to express a glow using a method called volume rendering. This method is described in “Computer Graphics, Principles and Practice, Addison Wesley (1990), pp1034-pp1039”, etc. Detailed in the literature.
[0007]
In other words, this technique divides the space to be drawn into a plurality of small spaces, and expresses the glow by finding the way the line of sight passes through the small spaces by integrating the luminance change in each small space. It is a technique.
[0008]
The second method is to express a glow by generating a shape. This technique is to generate a new virtual shape for expressing a glow at a position where a glow phenomenon occurs and draw the virtual shape in a semi-transparent state.
[0009]
Furthermore, regarding the glare expression, “SIGGRAPH90 Conference Proceedings Vol.24, No.4, August1990, pp395-404” Are described in detail in the literature. According to this method, glare expression is performed by performing special image processing based on the luminance data of the generated image.
[0010]
[Problems to be solved by the invention]
By the way, according to the conventional technique as described above, that is, the first conventional technique of the light expression, there is a problem that the processing time for performing the spatial integration is not taken into consideration and the processing time is significantly increased. there were. In addition, according to the second conventional technique for expressing the glow, although the processing time is not so long, since the color representing the glow is uniform, it is impossible to perform realistic expression. there were.
[0011]
Further, with regard to glare expression, the conventional technique has a problem in terms of processing speed because image processing is performed on a generated image in units of pixels.
[0012]
SUMMARY OF THE INVENTION An object of the present invention is to provide means for performing light glare expression in real and high speed, and providing means for performing glare expression in real and high speed.
[0013]
[Means for Solving the Problems]
In order to solve the above problems and achieve the object of the present invention, there are the following means.
[0014]
That is, a boundary shape is defined with respect to a frame buffer that stores color information for each pixel, display means that performs display output with reference to the contents of the frame buffer, and a boundary shape of a partial space that occupies a certain volume. Boundary rendering means for outputting depth data from a specific position for each constituent pixel, and determining whether or not the pixels constituting the boundary shape are present at a specific position when viewed from the specific position In accordance with a predetermined rule, the corresponding depth data is encoded, and difference calculation means for performing depth data addition / subtraction processing on all pixels constituting the boundary shape, and the difference for each pixel A product-sum buffer for storing the processing result by the computing means, and for each pixel, calculates the amount of light attenuation based on the data stored in the product-sum buffer, and further corresponds Processing for determining the color information of the pixel based on the color information of the storage position of the frame buffer, the color information of the predetermined partial space, and the attenuation amount of light, and storing the color information in the corresponding position in the frame buffer And an image generating device.
[0015]
As another aspect of the present invention, there are the following means.
[0016]
That is, when it is assumed that there is a frame buffer that stores color information for each pixel, display means that performs display output with reference to the contents of the frame buffer, a light source that illuminates a three-dimensional object, and an obstacle. Light that generates a plurality of surfaces parallel to the irradiation direction, calculates the distance between the light source and an obstacle that blocks light along each surface, and sets transparency according to the distance from the light source for the surface It is an image generation device having a frame plate generation unit and a shape rendering unit that performs drawing according to transparency on each surface and stores a drawing result in the frame buffer.
[0017]
Furthermore, as another aspect of the present invention, there are the following means.
[0018]
That is, a frame buffer that stores color information for each pixel, a display unit that performs display output with reference to the contents of the frame buffer, and a glare processing unit that maps a plurality of predetermined types of glare patterns. The glare processing means is an image generating device that stores the glare pattern in the frame buffer so as to map one or more glare patterns on a straight line connecting the center position of the display screen and the light source existing position. is there.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0020]
In order to facilitate understanding of the present invention, an example of image generation drawn by the present invention and an operation principle will be described with reference to FIGS. 2, 3, 4, and 5, and then a specific apparatus will be described. The present embodiment will be described by showing the configuration.
[0021]
FIG. 3 is a display screen example of the display unit 111 according to the present embodiment.
[0022]
As shown in FIG. 3, for example, when a fine particle object irradiates light to a “partial space” 203 partially existing in the space, it is displayed so that the thickness of the partial space can be grasped. . Such a state represents, for example, a glow phenomenon caused by irradiating light to a partial space where smoke or fog exists.
[0023]
In addition, even when a translucent space such as a partial space and an opaque object 201 coexist, it is possible to generate a real image in consideration of the visible thickness of the partial space.
[0024]
Next, FIG. 2 is a drawing showing a state where the line AA ′ shown in FIG. 3 is viewed from above in a direction perpendicular to the drawing.
[0025]
Therefore, “A” and “A ′” in FIG. 2 correspond to “A” and “A ′” in FIG. 3, and “B” in FIG. 2 corresponds to the point “B” in FIG.
[0026]
In FIG. 2, three types of partial spaces 203 exist, and the background 202 is an opaque object. A point of contact with the background 202 when it is assumed that the point B is extended in the viewpoint direction is a point B ′.
[0027]
Of course, the object 201 in FIGS. 2 and 3 is common, but the shape of the object 201 is different because the position of the viewpoint is different.
[0028]
FIG. 4 shows an enlarged view focusing on the line of sight of BB ′.
[0029]
In FIG. 4, 401 is a viewpoint, 203 is a partial space, and 202 is an opaque object.
[0030]
Further, the color information Cv of each partial space 203 and the color information Cb of the opaque object 202 are determined in advance. Ce is color information expressing the color observed at the viewpoint position. As the color information, for example, data representing numerical values of (R, G, B) may be employed. Reference numerals 402, 403, 404, 405, 406, and 407 are boundary surfaces of the partial spaces 203. Note that by examining the normal vector of each boundary surface, it can be determined whether each boundary surface is on the line of sight. In the following description, the boundary surface on the viewpoint side, for example, 402 is “front side”, and the boundary surface on the opposite side, for example, 403 is “back side”.
[0031]
Here, the distance that the line of sight passes through the partial space can be obtained as follows.
[0032]
First, the opaque object 202 is drawn, and the depth distance Z0 of the opaque object 202 from the viewpoint position is determined. Thereafter, the boundary surfaces 402, 403, 404, 405, 406, and 407 of the partial space are obtained, and the distances between the boundary surfaces and the viewpoint positions, Z1, Z2, Z3, Z4, and Z5 are obtained. Further, the distance between each boundary surface and the viewpoint position is added or subtracted depending on whether or not each boundary surface exists on the viewpoint side, that is, whether it is the front side or the back side. As a result, the distance d through which the line of sight passes through the partial space can be obtained.
[0033]
In the figure, the distance from the opaque object 202 to each boundary surface is obtained as “Zn ′ = Z0−Zn (n = 0, 1, 2, 3, 4, 5, 6)”, and the front side is further determined. The distance d is obtained with the positive side and the negative side being negative. As a result, it can be seen that the distance d can be obtained by the expression “d = Z1′−Z2 ′ + Z3′−Z4 ′ + Z5′−Z6 ′”.
[0034]
Now, light passing through a partial space in which homogeneous fine particles are present attenuates logarithmically according to the passing distance. Therefore, the color Ce that reaches the viewpoint can be determined by the equation shown in FIG. That is, the attenuation amount a is determined by the equation “a = exp (−K · d)”, where K is an attenuation constant. Therefore, (1-a) indicates the transmittance.
[0035]
In FIG. 5, a distance d is taken on the horizontal axis, and a and (1−a) change as d changes.
[0036]
The color Ce is obtained by an expression “Ce = Cb · a + Cv · (1−a)”. However, Cb is the color (or background color) of the opaque object 202, and Cv is the color of the partial space.
[0037]
Next, with reference to FIG. 1, the position configuration form of the apparatus that performs the processing as described above will be described.
[0038]
This apparatus performs display output by referring to the model data storage unit 101, the image generation control unit 102, the shape rendering unit 103, the frame buffer 106 that stores color information for each pixel, and the contents of the frame buffer. The display unit 111 and the light generation unit 110 are included. The glow generation unit 110 includes a boundary rendering unit 104, a difference calculation unit 105, a product-sum buffer 108, and a synthesis unit 109.
[0039]
The display unit 111 can be realized by a CRT, a liquid crystal display, or the like, and each buffer can be realized by a memory device such as a RAM. Other components can also be realized, for example, by electronic devices such as a CPU that performs various processes, a ROM that contains a program in advance, a RAM that functions as a storage element or a work area, and a logical element that performs various logical operations. Therefore, this apparatus can be realized on one computer.
[0040]
The model data storage unit 101 stores model data and viewpoint information.
[0041]
Model data includes shape data representing the shape of an object existing in the three-dimensional space to be displayed, arrangement data representing arrangement and size, attribute data representing color and texture, illumination setting conditions and irradiation direction. There is lighting data. The viewpoint information includes data indicating the position, direction, angle of view, and the like of the viewpoint 401.
[0042]
The depth buffer 107 stores depth data from a specific position, for example, a viewpoint position to model data, in order to perform hidden surface removal.
[0043]
The image generation control unit 102 refers to the contents stored in the model data storage unit 101, and accesses various buffers to convert and generate the three-dimensional data of the object viewed from the viewpoint 401 into two-dimensional image data. The operation is performed and the operation of the shape rendering unit 103 is controlled.
[0044]
The shape rendering unit 103 performs two-dimensional image drawing generation processing with reference to model data and the like.
[0045]
When generating an image, the image generation control unit 102 first initializes a frame buffer 106 for storing image information, a work buffer used for generating an image, and a depth buffer 1071 in the example shown in FIG. To do.
[0046]
The initialization of the frame buffer 106 may be performed by storing the background color of the image to be generated, for example, black data in the buffer. To initialize the depth buffer 107, a value of infinity may be set in the buffer.
[0047]
The image generation control unit 102 draws the shape after the initialization process.
[0048]
That is, the image generation control unit 102 gives viewpoint data and illumination data to the shape rendering unit 103, and then sequentially gives the shape data to the shape rendering unit 103, thereby causing the shape rendering unit to generate an image.
[0049]
The shape rendering unit 103 performs projection conversion on the shape data with reference to the viewpoint data, and obtains the storage position of the shape data in the frame buffer 106 and the depth distance from the viewpoint position in units of pixels.
[0050]
Next, the shape rendering unit 103 determines the color information of each pixel according to the illumination data. At this time, in order to perform hidden surface removal, the following processing is further performed.
[0051]
That is, the depth data of the corresponding pixel position in the depth buffer 107 is read, and when the value representing the position before the depth data with respect to the shape data is already written in the depth buffer 107, the frame buffer 106 The color information is not written in. On the other hand, when the value of the depth buffer 107 is not a value representing the previous position, the color information is written to the corresponding pixel in the frame buffer 106. Further, a process of writing the value of the shape depth data into the depth buffer 107 is performed. By performing such processing, information for drawing the three-dimensional model viewed from the viewpoint position is stored in the frame buffer 106.
[0052]
Note that the rendering process performed by the shape rendering unit 103 described above is a known technique called “Z-Buffer method”, and thus detailed description thereof is omitted.
[0053]
The image information stored in the frame buffer 106 is displayed on the screen by the display unit 111.
[0054]
Next, a process for generating a partial space in which fine particles partially exist in the three-dimensional space as an image will be described. As a model in which fine particles partially exist, for example, there is a light spot phenomenon that occurs when light irradiated on the fine particles diffuses and the fine particles in the part where the light reaches becomes visible, or a CT scanner is provided. A model having a distribution in the density of data obtained by three-dimensional tomography can be considered.
[0055]
Specific examples of the former include a state in which an automobile headlight irradiates the fog, a case of shining light on cigarette smoke, and the like. In addition, a state in which light enters from the window into the room is also conceivable.
[0056]
Examples of the latter include data indicated by a tomographic photograph of a human head.
[0057]
Next, a process performed by the light generation unit 110, which is a main part of the present invention, will be described.
[0058]
First, the image generation control unit 102 creates the boundary of the partial space as shape data. As a creation method, as shown in FIG. 2, a plurality of partial spaces occupying a certain volume are generally arranged.
[0059]
As another creation method, with respect to the glow, the boundary shape of the partial space is obtained by sweeping the outline of the light shielding object (opaque object) in the direction opposite to the position where the light source exists. Here, sweeping means generating shape data on the assumption that the shape is extended in a predetermined direction, and is a general technique for graphic processing.
[0060]
In the example of the three-dimensional tomographic data, a boundary line of a region where the data distribution density is greater than or equal to a certain value (or smaller than a certain value) is generated as a boundary shape.
[0061]
When generating the boundary shape, the direction of the normal to the boundary shape is set to face either the inside or the outside of the partial space. As a result, when the boundary shape is viewed from the viewpoint, it is possible to determine whether the boundary is the boundary on the viewpoint side of the partial space or the boundary on the opposite side, that is, the front / back.
[0062]
The image generation control unit 102 gives viewpoint data and illumination data to the boundary rendering unit 104, and then gives information about the obtained boundary shape. The boundary rendering unit 104 performs front / back determination of the specified boundary shape. This can be obtained by comparing the normal direction of the boundary shape with the direction of the line of sight. This determination result is given to the difference calculation unit 105.
[0063]
Next, the boundary rendering unit 104 performs boundary shape rendering. The rendering process is performed by a process similar to that of the shape rendering unit 103. At this time, the luminance calculation is not performed, and only the depth data for the boundary surface of the partial space is obtained with reference to the depth buffer 107.
[0064]
If the boundary shape is visible from the viewpoint position, the depth data is given to the difference calculation unit 105. The calculation of depth information for each pixel in rendering is performed by adopting a general method called “3DDDA” that is also used in the shape rendering unit 1031. By providing dedicated hardware, the processing speed can be increased.
[0065]
Here, an outline of processing of the difference calculation unit 105 will be described with reference to FIG.
[0066]
FIG. 6A shows the boundary rendering unit 104, the depth buffer 107, the product-sum buffer 108, and the difference calculation unit 105.
[0067]
The product-sum buffer 108 is initialized with “0” before the image generation processing of the subspace. After that, the depth data of the pixels (“pixel” in the figure and one pixel shown in the figure) determined to be visible from the viewpoint position by the boundary rendering unit 104 is given to the subtraction unit included in the difference calculation unit 105.
[0068]
Next, the difference between 601 and 602 is obtained by referring to the depth data 602 of the corresponding pixel in the depth buffer 107. This difference value is “Zn ′” shown in FIG.
[0069]
The addition / subtraction unit included in the difference calculation unit 105 performs front / back determination from the normal direction obtained by the boundary rendering 104, adds a sign of “+” to “Zn ′” if the front side, and “Zn ′” if the back side. The sign of “−” is added to the value, the value of the data 603 corresponding to the pixel of the product-sum buffer 108 and the obtained difference value are calculated, and the calculation result is again displayed in the area for the pixel 603 of the product-sum buffer 108. Store.
[0070]
Thereby, the distance that the line of sight passes through the partial space, that is, d shown in FIG. 4 can be obtained.
[0071]
In this way, distance information in units of pixels is stored in the product-sum buffer 108.
[0072]
Note that, in the case of a model that includes only partial space data and does not have an opaque object, such as three-dimensional tomography data, the configuration of the difference calculation unit 105 can be simplified. This is shown in FIG. As shown in the figure, difference processing with the depth buffer 107 is eliminated, and only arithmetic processing with the product-sum buffer 108 is performed. The calculation process is a subtraction process when the boundary shape is on the viewpoint side, and an addition process when the boundary shape is on the opposite side. The adder / subtractor obtains the distance d through which the line of sight passes through the partial space by such processing, and stores it in the product-sum buffer 108.
[0073]
Next, the image generation control unit 102 instructs the synthesis unit 109 to synthesize a partial space rendering image. The synthesizer 109 performs the following calculation for each pixel using the distance data d stored in the product-sum buffer 108.
[0074]
a = exp (−K · d) (Formula 1)
(Where K is a constant indicating the attenuation rate when light passes through the subspace)
The attenuation amount of light is obtained by the following formula. And
Ce = Cb · a + Cv · (1.0−a) (Formula 2)
In this equation, color information from the viewpoint position is determined for each pixel.
[0075]
Cb is color information stored in the frame buffer 106, and Cv indicates color information of the partial space. A is obtained by the following equation.
[0076]
The combining unit 109 performs the above calculation and stores the value of Ce in the frame buffer 106.
[0077]
Thereby, the display unit 111 can display and output an image in consideration of light irradiation to the partial space.
[0078]
As described above, according to the present embodiment, it is possible to generate a fine particle model that exists uniformly in a partial space in a real and high speed so that the thickness thereof can be understood. As a result, it is possible to realize an image generation apparatus that can express light, three-dimensional tomographic data, and the like in real time and at high speed.
[0079]
Next, a second embodiment for expressing the glow will be described with reference to FIGS.
[0080]
FIG. 7 shows a configuration example in the second embodiment.
[0081]
The apparatus includes a model data storage unit 101, a shape rendering unit 103, a frame buffer 106, a depth buffer 107, a display unit 111, a glow plate generation unit 702, and an image generation that controls the operation of each component. And a control unit 701.
[0082]
The model data storage unit 101, the shape rendering unit 103, the frame buffer 106, the depth buffer 107, and the display unit 111 are the same as those given the same reference numerals in FIG.
[0083]
The image generation control unit 701 renders model data other than the light bleed by activating the shape rendering unit 103, and expresses the light bleed by activating the light plate generation unit 702.
[0084]
Now, with reference to FIG. 8, an outline of the process of expressing the glow performed by the glow plate generating unit 702 will be described.
[0085]
Here, as shown in FIG. 8A, it is assumed that a light source 801 for illumination and a viewpoint 401 exist. The light source 801 exists on the Z-axis of the X, Y, Z coordinate system with the point 803 on the object 802 to be irradiated as the origin, and the region 804 is an illumination area. The coordinates of the viewpoint 401 are (Ex, Ey, Ez), and the gaze point 805 that is the coordinates (Ax, Ay, Az) is being watched. The line of sight is represented by 806.
[0086]
The glow plate 811 for expressing the glow is generated as shown in FIGS. 8B and 8C.
[0087]
First, a straight line 807 obtained by projecting the line of sight 806 on the XY plane is obtained by calculation. Next, a straight line 808 parallel to the straight line 807 and passing through the coordinate system origin 803 is determined. Next, a straight line 809 that is orthogonal to the straight line 808 on the XY plane is generated at predetermined intervals so as to cover the illumination area 804. Next, a straight line 810 parallel to the straight line 809 and passing through the light source position 801 is obtained.
[0088]
The glow plate 811 is generated as a plane including the straight line 810 and each straight line 809.
[0089]
A translucent attribute pattern is generated as shown in FIGS. 8D and 8E for the light-emitting plate 811 generated as described above. FIG. 8D is an image viewed from the viewpoint 401. As shown in FIG. 8D, the light from the light source position 801 is irradiated to the irradiation objects 802 and 812.
[0090]
Reference numeral 814 denotes a light beam blocked by an irradiation object 802, 812 or the like.
[0091]
FIG. 8E shows the contents of the depth buffer 107 when the irradiation objects 802 and 812 are projected in the light irradiation direction from the light source position 801 in FIG. 8D. As shown in FIG. 8E, the depth buffer 107 stores distances Z0 and Z1 from the light source position 801 to the irradiation objects 802 and 812 as shown in the figure. In FIG. 8E, reference numerals 816 and 815 denote the x-axis and y-axis for the depth buffer 107, respectively. The shape rendering unit 103 creates data to be stored in the depth buffer 107. That is, the image generation control unit 701 gives the illumination position and the illumination direction as viewpoint information to the shape rendering unit 103, and further gives the shape data of the irradiation area irradiated with light to the shape rendering unit 103. Data to be stored in the depth buffer 107 is generated. Then, based on the generated depth data, a translucent attribute pattern of the glow plate is determined for each plate.
[0092]
As shown in FIG. 8E, the glow plate is observed as a straight line 817 when viewed from the light source position. By tracing this straight line 817 and obtaining depth data, the distance that the illumination reaches on the glowing plate 811 can be obtained.
[0093]
Also, the semitransparent attribute is set up to the distance indicated by the value stored in the depth buffer 107, starting from the light source position 813 on the glow plate 811.
[0094]
In addition, a transparent attribute may be set for a portion longer than the distance indicated by the value stored in the depth buffer 107 or a portion that does not become an illumination area. The lower part of FIG. 8 (e) shows each light-emitting plate 811. The white part is the part for setting the translucent attribute.
[0095]
By such processing, a cross section of the light beam can be generated on the light beam plate 811. A translucent attribute pattern can be generally expressed as a surface attribute of a shape by a technique called texture mapping.
[0096]
By instructing the shape rendering unit 103 to draw the light plate 811 generated by the above processing, it is possible to express the light beam blocked by the irradiation objects 802, 812 and the like. At this time, the drawing of the glowing plate 811 may be performed in order from the farthest from the viewpoint position.
[0097]
In addition, when setting the attributes of the glow plate, as shown in FIG. 9, a plurality of types of attribute patterns 901 having a lower transparency at the center and higher transparency toward the periphery are prepared in advance. Therefore, it is also possible to set an attribute pattern by cutting out only a necessary part (see FIG. 9, 902). In addition, by changing the transparency linearly with respect to the distance from the center or inversely proportional to the square of the distance from the center, the attenuation state of the illumination light according to the distance can be expressed realistically. It becomes possible.
[0098]
When creating data stored in the depth buffer 107 when viewed from the light source position, depth information is generated so that the viewpoint direction is equal to the X-axis 816 direction or Y-axis 815 direction of the buffer. If this is done, the attribute setting process of the glowing plate 811 is facilitated, which is preferable.
[0099]
The more the amount of light plate generated, the more realistic the expression of the light plate, but it is also conceivable to change the amount of light plate generated according to the viewpoint position 401 and the position of the light beam. That is, when the viewpoint position 401 is close to the position of the light beam, a large amount of light plate is generated, and when it is far, the generation amount of the light plate is decreased. Such perspective may be determined by providing a threshold value. It is also conceivable to change the illumination according to the number of objects that shield the illumination.
[0100]
As described above, according to the second embodiment, it is possible to perform realistic and high-speed expression of a light beam blocked by a shielding object. In addition, the state where light is attenuated can be expressed realistically.
[0101]
Next, an embodiment of a so-called glare expression method that occurs due to the diffraction phenomenon of light when looking at high brightness will be described with reference to FIGS.
[0102]
FIG. 10 shows an apparatus configuration example according to the third embodiment.
[0103]
This apparatus performs image generation by controlling operations of the model data storage unit 101, the shape rendering unit 103, the frame buffer 106, the depth buffer 107, the display unit 111, the glare plate generation unit 1002, and the respective units. And an image generation control unit 1001 to be configured. The model data storage unit 101, the shape rendering unit 103, the frame buffer 106, the depth buffer 107, and the display unit 111 are the same as those shown in FIG.
[0104]
The image generation control unit 1001 causes the shape rendering unit 103 to render model data other than glare, and causes the glare plate generation unit 1002 to generate the glare expression.
[0105]
The glare plate generation unit 1002 prepares and prepares image data for expressing glare as shown in FIG. 11A, that is, glare patterns 1101 and 1102 in advance. It goes without saying that the illustrated glare pattern is an example.
[0106]
For these glare patterns, attributes that change the transparency are set. That is, a portion that is not related to the glare expression is transparent, and a semi-transparent attribute is set only for the portion of the glare pattern.
[0107]
Next, from the illumination information for the model data, the position of the point 1104 where the illumination is to be projected on the screen 1103 of the display unit 111 is calculated.
[0108]
FIG. 11B shows a point 1104 on the display screen 1103 of the display unit 111.
[0109]
Next, the glare plate generation unit 1002 calculates how much illumination is incident on the viewpoint from the illumination information. This calculation is performed by the following equation.
[0110]
I = Io · F (θ) / r 2 (Formula 3)
Here, Io represents the luminance of illumination, and r represents the distance to the light source position. Further, F (θ) is a value that takes into consideration the directivity of illumination. When the light source has directivity like a spotlight, F (θ) takes a value that takes into consideration directivity characteristics. On the other hand, for a light source having no directivity, It becomes a constant value. Note that θ is an angle formed by the illumination direction 1202 at the illumination position 1201 and the viewpoint position 401, as shown in FIG. Note that reference numeral 1203 indicates the outermost light beam at which the illumination light is visible at a certain viewpoint position.
[0111]
The glare plate generation unit 1002 appropriately changes the size and transparency of the glare pattern 1101 and superimposes and synthesizes it on the projection position 1104 of the illumination based on the obtained luminance of the illumination at the viewpoint.
[0112]
As a method of superimposing and combining, glare patterns can be mapped to a plane as texture data, and the glare can be expressed at high speed by using the semi-transparent mapping function of texture mapping. At this time, the plane on which the texture mapping is performed is directly opposed to the line of sight, and the position is set at the illumination position. Also, Z-Buffer comparison processing is not performed at the time of plane rendering.
[0113]
Further, a lens flare generated when a high-intensity illumination is taken with a photograph or the like is appropriately set on a line connecting the center position of the screen (light points of lines a and b in FIG. 11C) and the projection position 1104 of the illumination. It can be expressed by arranging. This is shown in FIG.
[0114]
It is also conceivable to extract a high-brightness portion on the screen from the result of the illuminance calculation processing by the shape rendering unit 103 and express it in glare. That is, the result of rendering the shape by the shape rendering unit 103 is stored in the frame buffer 106. The data stored in the frame buffer 106 is sequentially examined, and an area in which the brightness higher than the expressible brightness is stored is obtained from the characteristics of the camera. Thereafter, the size and transparency of the glare pattern 1101 are changed according to the brightness value of the obtained position of high brightness, and superposition and synthesis are performed. Also by such a method, glare can be expressed for a high luminance part.
[0115]
As described above, according to the present embodiment, real and high-speed glare can be expressed.
[0116]
Next, an apparatus configuration including the glow generation unit 110 and the glare generation unit will be described with reference to FIG.
[0117]
This apparatus includes a model data storage unit 101, a shape rendering unit 103, a frame buffer 106, a depth buffer 107, a display unit 111, a glare plate generation unit 1002, a glare generation unit 110, and the operation of each unit. And an image generation control unit 1301 that controls to generate an image.
[0118]
Here, the model data storage unit 101, the shape rendering unit 103, the frame buffer 106, the depth buffer 107, and the display unit 111 are the same as those shown in FIG.
[0119]
The glare plate generation unit 1002 is the same as that shown in FIG.
In contrast, the light generation unit 110 may employ either the light generation unit 110 shown in FIG. 1 or the light generation unit shown in FIG.
[0120]
Further, the image generation control unit 1301 is a unit that combines the functions of the image generation control unit 102 shown in FIG. 1 or the image generation control unit 701 shown in FIG. 7 and the function of the image generation control unit 1001 shown in FIG. It is.
[0121]
Since the detailed operation is the same as described above, it is possible to express the light and glare realistically and at high speed with this apparatus, although avoiding redundant explanation.
[0122]
By the processing performed by the present apparatus, for example, as shown in FIG. 14, it is possible to express the glare of the headlight and the glare of the headlight as shown in FIG. Such a drawing process can be applied to a system such as a drive simulator or a flight simulator to construct a system for displaying a high-quality image.
[0123]
【The invention's effect】
As described above, according to the present invention, by performing rendering in consideration of a partial space in which fine particles, three-dimensional tomographic data, and the like are present, it is possible to express a glow in real and high speed. According to the present invention, glare can be expressed realistically and at high speed.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a first embodiment of the present invention.
FIG. 2 is a cross-sectional view taken along line AA ′ of FIG.
FIG. 3 is an explanatory diagram of an example of image generation according to the present invention.
4 is an enlarged view taken along line BB ′ of FIG.
FIG. 5 is an explanatory diagram of attenuation.
FIG. 6 is an explanatory diagram of processing performed by a difference calculation unit.
FIG. 7 is a configuration diagram of a second embodiment of the present invention.
FIG. 8 is an explanatory diagram of processing according to the second embodiment.
FIG. 9 is an explanatory diagram of an attribute pattern expressing transparency.
FIG. 10 is a configuration diagram of a third embodiment of the present invention.
FIG. 11 is an explanatory diagram of processing according to the third embodiment.
FIG. 12 is an explanatory diagram of a relationship between an illumination irradiation direction and a line of sight.
FIG. 13 is a configuration diagram of another embodiment of the present invention.
FIG. 14 is an explanatory diagram of a processing result according to another embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 101 ... Model data storage part 102 ... Image generation control part 103 ... Shape rendering part 104 ... Boundary rendering part 105 ... Difference calculation part 106 ... Frame buffer 107 ... Depth buffer 108 ... Product-sum buffer 109 ... Combining unit, 110 ... Glow generating unit, 111 ... Display unit

Claims (9)

画素ごとに色情報を格納するフレームバッファと、
該フレームバッファの内容を参照して表示出力を行なう表示手段と、
ある体積を占める空間である部分空間の境界形状に対して、境界形状を構成する画素ごとに、特定の位置からの奥行きデータを出力する境界レンダリング手段と、
前記境界形状を構成する画素が、前記特定の位置から見て、特定の位置側に存在するか否かを判断し、予め定めた規則にしたがって、対応する奥行きデータの符号付けを行ない、奥行きデータの加減算処理を、総ての、境界形状を構成する画素に対して行なう差分演算手段と、
各画素に対する該差分演算手段による処理結果を用いて、各画素の光の減衰量を計算して、さらに、対応する前記フレームバッファの格納位置の色情報、予め定められている部分空間の色情報、および、光の減衰量に基づいて、当該画素の色情報を定め、フレームバッファ内の対応する位置に格納する処理を行なう合成手段と、
を有する画像生成装置。
A frame buffer for storing color information for each pixel;
Display means for performing display output with reference to the contents of the frame buffer;
Boundary rendering means for outputting depth data from a specific position for each pixel constituting the boundary shape with respect to the boundary shape of the subspace that occupies a certain volume;
Determining whether or not the pixels constituting the boundary shape are present at a specific position when viewed from the specific position, and encoding the corresponding depth data according to a predetermined rule, Difference calculating means for performing the addition / subtraction processing on all the pixels constituting the boundary shape;
Using the processing result of the difference calculation means for each pixel, the light attenuation amount of each pixel is calculated, and further, color information of the storage position of the corresponding frame buffer, color information of a predetermined partial space and, based on the attenuation of the light, it sets the color information of the pixel, synthesizing means for performing a process of storing in the corresponding location in the frame buffer,
An image generation apparatus having
表示対象となる物体の形状、配置情報を含むモデルデータ、および、該物体を観察する視点の位置情報を格納するモデルデータ格納手段と、
前記モデルデータ、および、前記視点の位置情報を参照して、視点位置から物体を観察した2次元画像を生成する処理の制御を行なう画像生成制御手段と、
前記モデルデータを参照して、前記画像生成制御手段の制御動作に従い、2次元画像の描画生成処理を行なう形状レンダリング手段と、
形状レンダリング手段の処理結果を、画像データとして画素ごとに格納するフレームバッファと、
隠面消去処理を行なうための、視点位置からモデルデータまでの奥行きデータを格納する奥行きバッファと、
前記フレームバッファの内容を参照して表示出力を行なう表示手段と、を具備し、さらに、
ある体積を占める空間である部分空間の境界形状に対して、境界形状を構成する画素ごとに、特定の位置からの奥行きデータを出力する境界レンダリング手段と、
前記境界形状を構成する画素が、前記特定の位置から見て、特定の位置側に存在するか否かを判断し、予め定めた規則にしたがって、対応する奥行きデータの符号付けを行ない、奥行きデータの加減算処理を、総ての、境界形状を構成する画素に対して行なう差分演算手段と、
各画素に対する該差分演算手段による処理結果を用いて、各画素の光の減衰量を計算して、さらに、対応する前記フレームバッファの格納位置の色情報、予め定められている部分空間の色情報、および、光の減衰量に基づいて、当該画素の色情報を定め、フレームバッファ内の対応する位置に格納する処理を行なう合成手段と、
を備える画像生成装置。
Model data storage means for storing the shape of the object to be displayed, model data including arrangement information, and position information of the viewpoint for observing the object;
Image generation control means for controlling processing for generating a two-dimensional image obtained by observing an object from the viewpoint position with reference to the model data and the position information of the viewpoint;
Shape rendering means for performing drawing generation processing of a two-dimensional image according to the control operation of the image generation control means with reference to the model data;
A frame buffer for storing the processing result of the shape rendering means for each pixel as image data;
A depth buffer for storing depth data from a viewpoint position to model data for performing hidden surface removal processing;
Display means for performing display output with reference to the contents of the frame buffer, and
Boundary rendering means for outputting depth data from a specific position for each pixel constituting the boundary shape with respect to the boundary shape of the subspace that occupies a certain volume;
Determining whether or not the pixels constituting the boundary shape are present at a specific position when viewed from the specific position, and encoding the corresponding depth data according to a predetermined rule, Difference calculating means for performing the addition / subtraction processing on all the pixels constituting the boundary shape;
Using the processing result of the difference calculation means for each pixel, the light attenuation amount of each pixel is calculated, and further, color information of the storage position of the corresponding frame buffer, color information of a predetermined partial space and, based on the attenuation of the light, it sets the color information of the pixel, synthesizing means for performing a process of storing in the corresponding location in the frame buffer,
An image generation apparatus comprising:
請求項2において、前記画像生成制御手段は、
第1に、前記フレームバッファ、前記奥行きバッファを初期化し、
第2に、前記モデルデータ格納手段からモデルデータを読みだし、前記形状レンダリング手段を起動して、視点から見た画像生成を行ない、前記フレームバッファに、画像生成したデータを格納し、
第3に、前記部分空間の境界形状を生成し、前記境界レンダリング手段および差分演算手段を起動し、
4に、前記合成手段を起動すること
を特徴とする画像生成装置。
The image generation control means according to claim 2,
First, the frame buffer, the depth buffer is initialized,
Secondly, the model data is read from the model data storage means, the shape rendering means is activated to generate an image viewed from the viewpoint, and the image generated data is stored in the frame buffer,
Third, generate a boundary shape of the partial space, activate the boundary rendering means and difference calculation means ,
Fourth, images generator you characterized by activating the synthesis means.
請求項2において、光源と障害物が存在すると想定し、
前記部分空間は、光源からの照射光が到達する、所定量の体積を示す空間とし、前記画像生成制御手段は、前記照射光によって影を作ることになる障害物の境界形状を、光の照射方向とは反対方向に延長して生成し、生成した境界形状を、前記境界レンダリング手段に与えること
を特徴とする画像生成装置。
In claim 2, assuming that there are light sources and obstacles,
The partial space is a space indicating a predetermined amount of volume to which the irradiation light from the light source reaches, and the image generation control means applies the light to the boundary shape of the obstacle that will make a shadow by the irradiation light. the direction generated by extending in opposite directions, the resulting boundary shape, images generator you characterized by providing said boundary rendering means.
請求項2において、3次元空間に分布するデータを想定し、
前記部分空間は、前記データの分布密度が、所定値以上または所定値以下の空間を示し、
前記画像生成制御手段は、データの分布密度が、所定値以上または所定値以下の部分空間に対して生成した境界形状を、前記境界レンダリング手段に与えること
を特徴とする画像生成装置。
In claim 2, assuming data distributed in a three-dimensional space,
The partial space indicates a space where the distribution density of the data is a predetermined value or more or a predetermined value or less,
The image generation control means, the distribution density of the data, the generated boundary shape against a predetermined value or more or a predetermined value or less subspace, images generator you characterized by providing said boundary rendering means.
画素ごとに色情報を格納するフレームバッファと、
該フレームバッファの内容を参照して表示出力を行なう表示手段と、
3次元物体を照明する光源、および、障害物が存在すると想定したとき、照射方向に平行な複数の面を生成し、各面に沿って、該光源と光を遮る障害物との距離を求め、該面に対して、光源からの距離にしたがった透明度を設定する手段と、
各面に対して、透明度にしたがった描画を行ない、描画結果を前記フレームバッファに格納する形状レンダリング部と、を有する画像生成装置。
A frame buffer for storing color information for each pixel;
Display means for performing display output with reference to the contents of the frame buffer;
When it is assumed that a light source that illuminates a three-dimensional object and an obstacle exist, a plurality of surfaces parallel to the irradiation direction are generated, and the distance between the light source and the obstacle that blocks light is obtained along each surface. against said surface, and hand stage to set the transparency in accordance with the distance from the light source,
An image generation apparatus comprising: a shape rendering unit that performs rendering according to transparency on each surface and stores a rendering result in the frame buffer.
表示対象となる物体の形状、配置情報を含むモデルデータ、および、該物体を観察する視点の位置情報を格納するモデルデータ格納手段と、
前記モデルデータ、および、前記視点の位置情報を参照して、視点位置から物体を観察した2次元画像を生成する処理の制御を行なう画像生成制御手段と、
前記モデルデータを参照して、前記画像生成制御手段の制御動作に従い、2次元画像の描画生成処理を行なう形状レンダリング手段と、
前記形状レンダリング手段の処理結果を、画像データとして画素ごとに格納するフレームバッファと、
隠面消去処理を行なうための、視点位置からモデルデータまでの奥行きデータを格納する奥行きバッファと、
前記フレームバッファの内容を参照して表示出力を行なう表示手段と、を具備し、さらに、
3次元物体を照明する光源、および、障害物が存在すると想定したとき、照射方向に平行な複数の面を生成し、各面に沿って、該光源と光を遮る障害物との距離を求め、該面に対して、光源からの距離にしたがった透明度を設定する手段とを備え、
また、前記形状レンダリング手段は、各面に対して、透明度にしたがった描画を行ない、描画結果を前記フレームバッファに格納する機能を有する、画像生成装置。
Model data storage means for storing the shape of the object to be displayed, model data including arrangement information, and position information of the viewpoint for observing the object;
Image generation control means for controlling processing for generating a two-dimensional image obtained by observing an object from the viewpoint position with reference to the model data and the position information of the viewpoint;
Shape rendering means for performing drawing generation processing of a two-dimensional image according to the control operation of the image generation control means with reference to the model data;
The processing results of the shape rendering unit, and a frame buffer for storing each pixel as image data,
A depth buffer for storing depth data from a viewpoint position to model data for performing hidden surface removal processing;
Display means for performing display output with reference to the contents of the frame buffer, and
When it is assumed that a light source that illuminates a three-dimensional object and an obstacle exist, a plurality of surfaces parallel to the irradiation direction are generated, and the distance between the light source and the obstacle that blocks the light is obtained along each surface. against said surface, and a hand stage to set the transparency in accordance with the distance from the light source,
Further, the shape rendering unit has a function of performing drawing according to transparency on each surface and storing a drawing result in the frame buffer.
画素ごとに色情報を格納するフレームバッファと、該フレームバッファの内容を参照して表示出力を行なう表示手段とを有する計算機が行う画像生成方法であって、  An image generation method performed by a computer having a frame buffer for storing color information for each pixel and display means for performing display output with reference to the contents of the frame buffer,
ある体積を占める空間である部分空間の境界形状に対して、境界形状を構成する画素毎に、特定の位置からの奥行きデータを演算するステップと、  A step of calculating depth data from a specific position for each pixel constituting the boundary shape with respect to the boundary shape of a partial space that occupies a certain volume;
前記境界形状を構成する画素が、前記特定の位置から見て、特定の位置側に存在するか否かを判断し、予め定めた規則にしたがって、対応する奥行きデータの符号付けを行ない、奥行きデータの加減算処理を、総ての、境界形状を構成する画素に対して行なう差分演算ステップと、  Determining whether or not the pixels constituting the boundary shape are present at a specific position when viewed from the specific position, and encoding the corresponding depth data according to a predetermined rule. A difference calculation step for performing the addition / subtraction process on all the pixels constituting the boundary shape;
前記差分演算ステップによる各画素に対する処理結果を用いて、各画素の光の減衰量を計算し、さらに、対応する前記フレームバッファの格納位置の色情報、予め定められてい  Using the processing result for each pixel in the difference calculation step, the light attenuation amount of each pixel is calculated, and color information of the storage position of the corresponding frame buffer is determined in advance. る部分空間の色情報、および、光の減衰量を用いて、当該画素の色情報を定め、前記フレームバッファ内の対応する位置に格納するステップと、を実行することDetermining the color information of the pixel using the color information of the partial space and the amount of light attenuation, and storing the color information in the corresponding position in the frame buffer.
を特徴とする画像生成方法。An image generation method characterized by the above.
画素ごとに色情報を格納するフレームバッファと、  A frame buffer for storing color information for each pixel;
該フレームバッファの内容を参照して表示出力を行なう表示手段と、  Display means for performing display output with reference to the contents of the frame buffer;
ある体積を占める空間である部分空間の境界形状に対して、境界形状を構成する画素毎に、特定の位置からの奥行きデータを求める境界レンダリング手段と、  Boundary rendering means for obtaining depth data from a specific position for each pixel constituting the boundary shape with respect to the boundary shape of a partial space that occupies a certain volume;
前記求めた奥行きデータを用いて、画素毎に前記部分空間の奥行きの総和を示す距離情報を算出する差分演算手段と、  Using the obtained depth data, difference calculating means for calculating distance information indicating the sum of the depths of the partial spaces for each pixel;
前記差分演算手段が算出した画素毎の距離情報を用いて、画素毎の光の減衰量を計算し、さらに、対応する前記フレームバッファの格納位置の色情報、予め定められている部分空間の色情報、および、該光の減衰量を用いて、当該画素の色情報を定め、フレームバッファ内の対応する位置に格納する処理を行なう合成手段と、  Using the distance information for each pixel calculated by the difference calculation means, the light attenuation amount for each pixel is calculated, and further, the color information of the storage position of the corresponding frame buffer, the color of the predetermined partial space Combining means for determining the color information of the pixel using the information and the attenuation amount of the light, and storing the information at a corresponding position in the frame buffer;
を有する画像生成装置。An image generation apparatus having
JP32334795A 1995-12-12 1995-12-12 Image generation device Expired - Fee Related JP3720890B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32334795A JP3720890B2 (en) 1995-12-12 1995-12-12 Image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32334795A JP3720890B2 (en) 1995-12-12 1995-12-12 Image generation device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005208262A Division JP3910618B2 (en) 2005-07-19 2005-07-19 Image generation device

Publications (2)

Publication Number Publication Date
JPH09161094A JPH09161094A (en) 1997-06-20
JP3720890B2 true JP3720890B2 (en) 2005-11-30

Family

ID=18153784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32334795A Expired - Fee Related JP3720890B2 (en) 1995-12-12 1995-12-12 Image generation device

Country Status (1)

Country Link
JP (1) JP3720890B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008259699A (en) * 2007-04-12 2008-10-30 Fujifilm Corp Image processing method and apparatus, and program

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4527853B2 (en) * 2000-07-28 2010-08-18 株式会社バンダイナムコゲームス GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4728510B2 (en) * 2001-06-14 2011-07-20 株式会社バンダイナムコゲームス Image generation system, program, and information storage medium
JP4704615B2 (en) * 2001-06-25 2011-06-15 株式会社バンダイナムコゲームス Image generation system, program, and information storage medium
JP2003099801A (en) * 2001-09-25 2003-04-04 Toyota Motor Corp Image display method of three-dimensional model, image display device, image display program and recording medium thereof
JP3737784B2 (en) * 2002-07-01 2006-01-25 コナミ株式会社 3D image processing program, 3D image processing method, and video game apparatus
JP4530326B2 (en) * 2003-04-07 2010-08-25 株式会社バンダイナムコゲームス Image generation system and information storage medium
JP4528008B2 (en) * 2004-03-24 2010-08-18 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP4688648B2 (en) * 2005-11-21 2011-05-25 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP4749131B2 (en) * 2005-11-21 2011-08-17 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP4785605B2 (en) * 2006-04-26 2011-10-05 株式会社ディジタルメディアプロフェッショナル System used in a three-dimensional computer graphics device for displaying a gaseous object on a two-dimensional display
JP4787662B2 (en) * 2006-04-26 2011-10-05 株式会社ディジタルメディアプロフェッショナル System used in a three-dimensional computer graphics device for displaying a gaseous object on a two-dimensional display
JP4832152B2 (en) * 2006-04-26 2011-12-07 株式会社ディジタルメディアプロフェッショナル System used in a three-dimensional computer graphics device for displaying a gaseous object on a two-dimensional display
WO2008015780A1 (en) * 2006-08-01 2008-02-07 Digital Media Professionals Inc. System for calculating storage density image for gaseous object to be coupled to surface body
JP5423276B2 (en) * 2009-09-18 2014-02-19 株式会社セガ Image processing program and computer-readable recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008259699A (en) * 2007-04-12 2008-10-30 Fujifilm Corp Image processing method and apparatus, and program
JP4588736B2 (en) * 2007-04-12 2010-12-01 富士フイルム株式会社 Image processing method, apparatus, and program

Also Published As

Publication number Publication date
JPH09161094A (en) 1997-06-20

Similar Documents

Publication Publication Date Title
JP3720890B2 (en) Image generation device
CN111968215B (en) Volume light rendering method and device, electronic equipment and storage medium
US7583264B2 (en) Apparatus and program for image generation
JP5531093B2 (en) How to add shadows to objects in computer graphics
JP3759971B2 (en) How to shade a 3D image
US7755626B2 (en) Cone-culled soft shadows
Supan et al. Image based shadowing in real-time augmented reality
CN112513712A (en) Mixed reality system with virtual content warping and method for generating virtual content using the same
JPH05174129A (en) Modeling apparatus for imaging three-dimensional model
JPH0757117A (en) Forming method of index to texture map and computer control display system
US20120019533A1 (en) Optimal point density using camera proximity for point-based global illumination
US6771263B1 (en) Processing volumetric image data with shadows
JP6714357B2 (en) Video processing device, video processing method, and video processing program
KR101619875B1 (en) System for rendering realistic facial expressions of three dimension character using general purpose graphic processing unit and method for processing thereof
JP3910618B2 (en) Image generation device
CN109658494B (en) Shadow rendering method in three-dimensional visual graph
CN116664752A (en) Method, system and storage medium for realizing panoramic display based on patterned illumination
KR101118597B1 (en) Method and System for Rendering Mobile Computer Graphic
Umenhoffer et al. Spherical billboards and their application to rendering explosions.
Gruen Ray-guided volumetric water caustics in single scattering media with dxr
JP3261832B2 (en) Image generation device
JP3181464B2 (en) Global illumination rendering method and apparatus
JP3694468B2 (en) Image generating apparatus and storage medium
CN110832549A (en) Method for the rapid generation of ray traced reflections of virtual objects in a real world environment
JP3733493B2 (en) Image composition circuit

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050517

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050909

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080916

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090916

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees