JP5857608B2 - 画像生成装置,画像生成プログラム,および,画像生成装置を有する画像表示システム - Google Patents

画像生成装置,画像生成プログラム,および,画像生成装置を有する画像表示システム Download PDF

Info

Publication number
JP5857608B2
JP5857608B2 JP2011224743A JP2011224743A JP5857608B2 JP 5857608 B2 JP5857608 B2 JP 5857608B2 JP 2011224743 A JP2011224743 A JP 2011224743A JP 2011224743 A JP2011224743 A JP 2011224743A JP 5857608 B2 JP5857608 B2 JP 5857608B2
Authority
JP
Japan
Prior art keywords
image
blur
degree
objects
buffer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011224743A
Other languages
English (en)
Other versions
JP2013084181A (ja
Inventor
良平 秋田
良平 秋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Socionext Inc
Original Assignee
Socionext Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Socionext Inc filed Critical Socionext Inc
Priority to JP2011224743A priority Critical patent/JP5857608B2/ja
Publication of JP2013084181A publication Critical patent/JP2013084181A/ja
Application granted granted Critical
Publication of JP5857608B2 publication Critical patent/JP5857608B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は,画像生成装置,画像生成プログラム,および,画像生成装置を有する画像表示システムに関する。
携帯端末や車載用の表示装置等に,3次元仮想空間に配置された各オブジェクト(被写体)像を所定の視点位置から2次元面に投影することによって2次元表示用画像を生成する画像生成装置が搭載されている。
かかる画像生成装置において,表示対象となる3次元仮想空間内のオブジェクトは,複数のポリゴン(多角形面)で形成され,各ポリゴンは,属性データ(以下,ポリゴンデータと記す)を有する。ポリゴンデータは,3次元仮想空間におけるポリゴンの各頂点の3次元座標,頂点色,頂点透明度などを有する。
画像生成装置は,2次元表示用画像を生成する際に,各オブジェクトの視点位置からの奥行き値(Z値)に応じて,各オブジェクト画像をぼかすことで,自然な2次元表示用画像を生成する。
視点位置から見た不透明なオブジェクト同士が重なる場合に,オブジェクトのぼかし処理を調整することとで,より自然な2次元表示用画像を生成する技術が様々提案されている(特許文献1参照)。
特開2008-225767号公報
図1は,前記したX,Y,Z軸を有する3次元仮想空間においてオブジェクトの配置を示す図の一例である。図1において,横軸は所定の視点位置VPからのZ軸方向の距離を示す。視点位置VPのZ値は,0である。また,所定の仮想カメラ位置(視点位置VP)を基準にして,オブジェクトm1〜m4がZ軸方向に順に並んでいる。ここで,一例として,オブジェクトm1,m4は,不透明なオブジェクトであり,オブジェクトm2,m3は,半透明なオブジェクトであるとする。
オブジェクトm1〜m4において,所定の視点位置VPからの距離は,それぞれz1〜z4である。また,半透明なオブジェクトm3については,所定の視点位置VPからの焦点位置(Zf)に配置されている。
図2は,図1のオブジェクトを2次元面に投影した画像の一例を示す。図2の画像は,図1において,所定の視点位置VPから見えるオブジェクトm1〜m4を有する画像を示している。なお,符号BGは背景部分を示す。背景部分BGは不透明なオブジェクトである。図2においては,未だ各オブジェクトについては,ぼかし処理が施されていない。
3次元仮想空間において,半透明なオブジェクトが,不透明なオブジェクトよりも所定の視点位置VP側に配置され,かつ,この視点位置VPを基準にして,半透明なオブジェクトと不透明なオブジェクトとが重なる場合を考える。以下,このようなオブジェクトの配置状態を半透明なオブジェクトの後ろに不透明なオブジェクトが配置されていると呼ぶ。
図1,図2の例では,半透明なオブジェクトm2,m3の後ろに,不透明なオブジェクトm4,背景部分BGが配置されている。
ここで,焦点位置に配置されている半透明なオブジェクトm3と,焦点位置よりも後ろに配置されている不透明なオブジェクトm4が重なる領域において,オブジェクトm3の表面に文字や模様が描かれている状態を想定する(図2の符号CHR参照)。この場合,オブジェクトm4は,焦点位置よりも後ろに配置されているので,ぼけて表示される。半透明なオブジェクトm3の透明度が大きい場合には,このぼけて表示されるオブジェクトm4の影響により,半透明なオブジェクトm3の表面に描かれている文字や模様もぼけて表示されることが好ましい。一方,半透明なオブジェクトm3の透明度が小さい場合には,オブジェクトm3は焦点位置に配置されているので,オブジェクトm3の表面の文字や模様は,ある程度明瞭に表示されるのが好ましい。
すなわち,半透明なオブジェクトの後ろに不透明なオブジェクトが配置されている場合,半透明なオブジェクトと不透明なオブジェクトとが重なる領域を半透明なオブジェクトの透明度に応じて適切にぼかすことが好ましい。
したがって,本発明の目的は,半透明なオブジェクトの後ろに不透明なオブジェクトが配置されている場合,半透明なオブジェクトと不透明なオブジェクトとが重なる領域を適切にぼかす画像生成装置,画像生成プログラム,画像生成装置を有する画像表示システムを提供することを目的とする。
画像生成装置の第1の側面は,3次元仮想空間における各オブジェクトの透明度,および所定の視点位置からの奥行き値に基づき,前記所定の視点位置から2次元面に投影される前記各オブジェクトの2次元表示用画像を生成する画像生成装置において,
半透明な第1のオブジェクトの奥行き値を格納する第1のZバッファと,
不透明な第2のオブジェクトの奥行き値を格納する第2のZバッファと,
前記第1,第2のオブジェクトの奥行き値に基づき,前記第1,第2のオブジェクトのぼけ度を算出し,前記第1,第2のオブジェクトのぼけ度に応じて前記第1,第2のオブジェクトをぼかした2次元表示用画像を生成する画像生成部を有し,
前記画像生成部は,前記3次元仮想空間において,前記第1のオブジェクトが,前記第2のオブジェクトよりも前記所定の視点位置側に配置され,かつ,前記2次元表示用画像において前記第1のオブジェクトと前記第2のオブジェクトが重なる場合,前記第1のオブジェクトの透明度に応じて,前記第1のオブジェクトと前記第2のオブジェクトが重なる領域のぼけ度を,前記第2のオブジェクトのぼけ度の割合で補正する。
画像生成装置の第1の側面によれば,半透明なオブジェクトと不透明なオブジェクトとが重なる領域を半透明なオブジェクトの透明度に応じて適切にぼかすことができるので,より自然な2次元表示用画像を生成できる。
3次元仮想空間においてオブジェクトの配置を示す図の一例である。 図1のオブジェクトを2次元面に投影した画像の一例を示す。 本実施の形態の画像表示システムの一例を説明するブロック図である。 本実施の形態における2次元表示用画像を生成する処理を説明する第1のフロー図である。 本実施の形態における2次元表示用画像を生成する処理を説明する第2のフロー図である。 図4のステップS1を説明する第1のフロー図である。 図4のステップS1を説明する第2のフロー図である。 図4のステップS1を説明する第3のフロー図である。 3次元仮想空間におけるオブジェクト等の各種データが記録された3次元データのデータ種別およびパラメータを有するテーブルの一例である。 オブジェクト処理順序テーブルの一例を示す図である。 モデルビュー変換を説明する図である。 射影変換を説明する図である。 ビューポート変換を説明する図である。 レンダリング処理を説明する図である。 ピクセルpix_iのRGB値,座標を算出する処理を説明する図である。 フレームバッファb,Zバッファbの一例を示す図である。 Zバッファbに格納されたZ値を模式的に示し図である。 ブレンド処理を説明する図である。 Z値の上書き処理を説明する図である。 半透明なオブジェクトm2,m3用のZバッファm2,m3の一例を示す図である。 ぼけ度を算出する際に参照されるグラフの一例を示す図である。 不透明なオブジェクトm1,m4のぼけ度が格納されたフォーカシングバッファbの一例を示す図である。 半透明なオブジェクトのぼけ度が格納されたフォーカシングバッファmkの一例を示した図である。 ぼけ度の算出処理を説明する図である。 ぼけ度の算出処理を説明する図である。 合成処理を説明する図である。
(本実施の形態)
図3は,本実施の形態の画像表示システムの一例を説明するブロック図である。画像生成システムは,3次元仮想空間における各オブジェクトの透明度,および所定の視点位置VPからのZ値(奥行き値)に基づき,所定の視点位置VPから2次元面に投影される各オブジェクトの2次元表示用画像を生成する画像生成装置10と,液晶表示装置等の表示装置20とを有する。
画像生成装置10は,装置制御用のコンピュータであるCPU11と,画像処理専用のコンピュータであるGPU(Graphics Processing Unit)12と,各種制御データやフレームバッファ,Zバッファ等を記憶するメインメモリ13と,2次元表示用画像データ等を格納するVRAM14と,3次元データ151などを格納するROM15と,VRAM14に格納された2次元表示用画像データを表示装置20に表示する処理を制御する表示コントローラ16とを有する。
CPU11は,ROM15に格納されているプログラムを読み出し,実行することにより,GPU12,メインメモリ13,VRAM14,ROM15,表示コントローラ16を制御して,画像生成部111としての機能を果たす。画像生成部111は,例えば,プログラム(ソフトウェア)であり,画像生成装置10の起動前には,ROM15に格納されている。そして,CPU11は,画像生成装置10の起動時にROM15からこのプログラムを読み出し,実行する。なお,画像生成部111をプログラムではなく,専用のハードウェアにより構成してもよい。
図4,図5は,本実施の形態における2次元表示用画像を生成する処理を説明する第1,第2のフロー図である。
ステップS1:画像生成装置10のGPU12は,基準画像の生成,基準画像内のオブジェクトのZ値の算出を行う。ここで基準画像とは,所定の視点位置VPから2次元面に投影される各オブジェクトの2次元表示用画像であって,各オブジェクトについてぼかし処理が施されていない画像,すなわち無限円まで明瞭な画像である。図1の例においては,図2に示した画像が基準画像である。この基準画像は,基準表示用画像とも呼ばれる。
図6〜図8は,図4のステップS1を説明する第1〜第3のフロー図である。
図6のステップS101:CPU11は,ROM15に格納されている3次元データ151を読み出し,GPU12に設定する。3次元データ151は,例えば,図9に示す内容の3次元データであり,3次元仮想空間情報とも呼ばれる。
(3次元データ)
図9において,3次元データはテーブルで表され,3次元仮想空間におけるオブジェクト等の各種データが記録された3次元データのデータ種別およびパラメータを有する。
データ種別としては,所定の視点位置,オブジェクト数,オブジェクト数に対応する複数のオブジェクト1…ml(エル)がある。オブジェクトについては,オブジェクト毎にそれぞれパラメータが記録されている。
まず,所定の視点位置における,視界空間(ビューボリューム),ビューポートのパラメータについて説明する。
視界空間のパラメータleft,right,bottom,top,near,farは,視界空間を定義するパラメータである。この視界空間内のオブジェクトが,所定の視点位置から見えるオブジェクトとして,2次元面に投影して表示される。
ビューポートのパラメータscale_x, scale_y, scale_z,offset_x, offset_y, offset_zは,視界空間そのものを2次元面に表示する際の,位置およびサイズを定義するパラメータである。
オブジェクト数のパラメータtarget_numは,3次元データ内に含まれているオブジェクトの数を示すパラメータである。
次に,オブジェクトの透明度,スケール,回転角度,位置座標,形状・色のパラメータについて説明する。図9において,オブジェクト1〜mlのうち,オブジェクト1のパラメータを図示し,他のオブジェクトのパラメータについては例示を省略している。
透明度のパラメータo1_tは,オブジェクトの透明度を示すパラメータであり,0〜1の範囲の値を有する。0の場合は完全不透明,1に近づくほど透明であることを示す。ここで,透明度が所定の透明度以上のオブジェクトを半透明なオブジェクトとし,透明度が所定の透明度未満のオブジェクトを不透明なオブジェクトとする。この所定の透明度とは,例えば透明度0.2であり,透明度0.2以上のオブジェクトを半透明なオブジェクトとする。このとき,透明度1(完全透明)であっても,半透明なオブジェクトとする。一方,透明度0.2未満のオブジェクトを不透明なオブジェクトとする。このとき,透明度0の場合は,前記したように完全不透明である。
なお,3次元仮想空間における背景は,不透明なオブジェクトに含まれる。
スケールのパラメータo1_sx, o1_sy, o1_szは,オブジェクト座標系における,オブジェクトの各軸方向の拡大率を表す。オブジェクト座標系とは,オブジェクトの中心を原点とした座標系を示す。
回転角度のパラメータo1_θx, o1_θy, o1_θzは,オブジェクト座標系における,オブジェクトの各軸方向の回転角度を示す。
位置座標のパラメータo1_ox, o1_oy, o1_ozは,ワールド座標系における,オブジェクトの中心位置を示す。ワールド座標系とは,所定の視点位置を原点とした座標系である。
形状・色については,オブジェクトを形成する複数のポリゴン1〜nの頂点座標,頂点の色(色値)からなる集合体で示される。ここでは,ポリゴンは3角形である。なお,この座標パラメータは,オブジェクトの中心位置を原点とした相対座標で示される。すなわち,この座標パラメータは,オブジェクト座標系におけるパラメータである。
各ポリゴンは,頂点座標のパラメータと頂点の色を示すパラメータを有する。例えば,ポリゴン1の頂点1の座標パラメータは,o1_p1_x1, o1_p1_y1, o1_p1_z1であり,ポリゴン1の頂点1の色値パラメータは,o1_p1_r1, o1_p1_g1, o1_p1_b1である。なお,座標パラメータ,色値パラメータの”o1_p1”は,オブジェクト1のポリゴン1を示し,色値パラメータのr,g,bは,それぞれ赤成分(R値),緑成分(G値),青成分(B値)であり,0〜255の範囲の値をとる。全ての成分が0の場合は,黒色,全ての成分が255の場合は,白色を表す。なお,ポリゴンの頂点座標毎に透明度を有していてもよい。
以下の説明において,図9の3次元データは,図1で示した4つのオブジェクトm1〜m4の配置例に対応する各種パラメータ,および,背景BGに対応する各種パラメータを有しているとする。
図6のステップS102:画像生成部111は,図9に示した各オブジェクトの透明度パラメータo1_tを参照して,図9の3次元データにおいて半透明なオブジェクトがあるか否かをチェックする。
半透明なオブジェクトがある場合には(ステップS102/YES),ステップS103に移り,半透明なオブジェクトがない場合には(ステップS102/NO),ステップS104に移る。
ステップS103:画像生成部111は,オブジェクト処理順序テーブルを生成し,以下のルールに従って,オブジェクト処理順序テーブルの格納領域にオブジェクトの識別番号を設定する。
図10は,オブジェクト処理順序テーブルの一例を示す図である。図10(A)に示すように,オブジェクト処理順序テーブルは,パラメータtarget_numで示されるオブジェクト数分の格納領域を持ち,各格納領域にはオブジェクトを特定するための識別番号が設定される。
前記のルールは以下の通りである。すなわち,不透明なオブジェクトの識別番号(ID1…IDn)を,このオブジェクトのZ値が大きい順にオブジェクト処理順序テーブルの先頭から設定する。そして,半透明なオブジェクトの識別番号(IDx…IDz)を,このオブジェクトのZ値が大きい順にオブジェクト処理順序テーブルにおける不透明なオブジェクトの識別番号の後ろ(最後部)から順次設定する。
図10(B)は,図1の例における,オブジェクト処理順序テーブルの格納例を示す図である。
画像生成部111は,生成したオブジェクト処理順序テーブルをオブジェクト処理順序テーブル1311としてメインメモリ13に記憶する。そして,図6のステップS104に移る。
(オブジェクト毎のレンダリング処理)
ステップS104:GPU12は,レンダリング処理対象のオブジェクトを選択する。なお,GPU12は,画像生成部111の制御を受け,下記のステップで説明する処理を実行する。
以下,選択したオブジェクトをオブジェクトmと呼ぶ。具体的には,GPU12が,N回目にこのステップを実行する場合,図10のオブジェクト処理順序テーブルの先頭からN番目の格納領域に設定されたオブジェクトの識別番号により識別されるオブジェクトを選択する。
GPU12は,後述するように,まず,不透明なオブジェクトに対して,ステップS105〜S117で説明する処理を実行する。不透明なオブジェクトに対してこの処理が終了すると,次いで,半透明なオブジェクトに対して,ステップS105〜S112,S118〜S123,S115〜S117の処理を実行する。
ステップS105:GPU12は,選択したオブジェクトmのスケール,回転,位置座標パラメータを参照し,オブジェクト座標系におけるこのオブジェクトmのポリゴンの頂点座標を,視点座標系における頂点座標に変換するための変換用行列を生成する。
ここで,オブジェクト座標系は,オブジェクトの中心を原点とした座標系であり,視点座標系は,任意の視点位置VPを原点とした座標系である。また,この変換は,モデルビュー変換と呼ばれる。
ステップS106:GPU12は,ステップS104で選択したオブジェクトmにおける処理対象のポリゴンを選択する。以下,選択したポリゴンをポリゴンpと呼ぶ。GPU12が,ステップS106の処理を初めて実行するときは,pは初期値1である。
ステップS7:GPU12は,モデルビュー変換,射影変換,ビューポート変換を実行する。
(モデルビュー変換)
図11は,モデルビュー変換を説明する図である。図11に示すように,GPU12は,オブジェクト座標系におけるポリゴンPo1の頂点座標Vo1〜Vo3を,モデルビュー変換行列により,視点座標系におけるポリゴンPo1の頂点座標Vv1〜Vv3に変換する。このポリゴンPo1が,例えば,ステップS106で選択された,ポリゴンpである。なお,図中,頂点座標Vo1〜Vo3は,それぞれ(x1,y1,z1),(x2,y2,z2),(x3,y3,z3)で示され,頂点座標Vv1〜Vv3は,(x1’,y1’,z1’),(x2’,y2’,z2’),(x3’,y3’,z3’ )で示される。
視点座標系においては,視界空間のパラメータleft,right,bottom,top,near,farにより,前記の視界空間が定義され,nearとfarで切り取られた四角錐台内の空間にあるオブジェクトが2次元面に表示されるオブジェクトになる。
(射影変換)
GPU12は,視点座標系におけるオブジェクトmのポリゴンpの頂点座標を,正規化座標系における頂点座標に変換する。正規化座標系は,1辺が例えば長さ2(単位)の立方体の中心を原点とした座標系である。また,この変換は,射影変換と呼ばれる。
図12は,射影変換を説明する図である。図12に示すように,GPU12は,視点座標系におけるポリゴンPo1の頂点座標Vv1〜Vv3を,射影変換行列により,正規化座標におけるポリゴンPo1の頂点座標Vn1〜Vn3に変換する。なお,図中,頂点座標Vn1〜Vn3は,それぞれ(xd1,yd1,zd1),(xd2,yd2,zd2),(xd3,yd3,zd3)で示される。GPU12は,ステップS101が実行された後に,図9で説明した視界空間パラメータを使用して射影行列を生成する。
(ビューポート変換)
GPU12は,正規化座標系におけるオブジェクトmのポリゴンpの頂点座標を,スクリーン座標系における頂点座標に変換する。スクリーン座標系は,2次元面の表示画像を表示する際の座標系である。また,この変換は,ビューポート変換と呼ばれる。
図13は,ビューポート変換を説明する図である。図13に示すように,GPU12は,正規化座標系におけるポリゴンPo1の頂点座標Vn1〜Vn3を,ピューポートパラメータにより,スクリーン座標系におけるポリゴンPo1の頂点座標Vs1〜Vs3に変換する。なお,頂点座標Vs1〜Vs3は,それぞれ(xs1,ys1,zs1),(xs2,ys2,zs2),(xs3,ys3,zs3)で示される。
図13に示したように,ビューポートパラメータscale_x, scale_y,offset_x, offset_y,は,表示装置の表示画面DPにおける2次元表示用画像の表示位置を定義するパラメータである。また,ビューポートパラメータscale_z,offset_zは,GPU12が,このポリゴンPo1のスクリーン座標系におけるZ値を算出するためのパラメータである。
(レンダリング)
GPU12は,スクリーン座標系におけるポリゴンPの頂点座標により囲まれた範囲の各ピクセル(画素)の色値,座標値を,頂点座標の色値,座標値に基づき補間することにより,ポリゴンPをレンダリングする。具体的には,図7のステップS108以下の処理を実行する。
図7のステップS108:GPU12は,スクリーン座標系におけるポリゴンPo1の頂点座標Vs1〜Vs3により囲まれた範囲からレンダリングを実行するピクセルを選択する。
図14は,レンダリング処理を説明する図である。図14において,スクリーン座標系におけるポリゴンPo1の頂点座標Vs1〜Vs3により囲まれたピクセル(画素)が示され,選択するピクセルを符号pix_iで示す。なお,iは”1”〜”前記範囲を構成する総ピクセル数”であり,初期値は1である。
図7のステップS109:GPU12は,ステップS108で選択したピクセルpix_iの色値(RGB値)を,頂点座標Vs1〜Vs3の色値から線形補間により算出する。
ステップS110:GPU12は,ステップS108で選択したピクセルpix_iの座標(X値,Y値,Z値)を,頂点座標Vs1〜Vs3の座標値から線形補間により算出する。
図15は,ピクセルpix_iの色値(R,G,B),座標(X,Y,Z)を算出する処理を説明する図である。図15(A)は,ピクセルpix_iの色値を算出する処理を示し,図15(B)は,ピクセルpix_iの座標を算出する処理を示している。なお,GPU12は,ピクセルpix_iが頂点座標の場合には,補間処理は実行せず,その頂点座標の座標値,色値をピクセルpix_iの座標値,色値とする。
GPU12は,ステップS109で算出されたピクセルpix_iの色値を格納するフレームバッファを作成する。以下,このフレームバッファをフレームバッファbと呼ぶ。そして,GPU12は,生成したフレームバッファbをフレームバッファ1312としてメインメモリ13に記憶する。
また,GPU12は,ステップS110で算出されたピクセルpix_iのZ値を格納するためのZバッファを作成する。以下,このZバッファをZバッファbと呼ぶ。Zバッファbは,不透明なオブジェクトのZ値を格納するバッファである。
そして,GPU12は,Zバッファbをメインメモリ13にZバッファ1313として記憶する。
このフレームバッファb,Zバッファbの生成処理は,1回のみ実行される。
図16は,フレームバッファb,Zバッファbの一例を示す図である。図16(A)は,フレームバッファbを示し,図16(B)は,フレームバッファbに対応するZバッファbを示し,各4角形がピクセルを示す。GPU12は,Zバッファbの生成時に全ピクセルを最大Z値で初期化し,フレームバッファbの生成時に全ピクセルを所定の値で初期化する。
図16(A),図16(B)の符号pix_iで示すピクセルが,図14で説明したピクセルpix_iに対応するピクセルである。
なお,図16(A),図16(B)においては,フレームバッファbの1ピクセルと,Zバッファbの1ピクセルが1対1で対応しているが,フレームバッファbの複数ピクセルとZバッファbの1ピクセルを対応させてもよい。例えば,フレームバッファbの4ピクセルとZバッファbの1ピクセルと対応させてもよい。この場合,フレームバッファの4ピクセルの面積は,Zバッファの1ピクセルの面積と等しくなる。
図7のステップS111:GPU12は,図7のステップS108で選択したピクセルpix_iのZ値は,このピクセルpix_iの座標値(X,Y)に対応するZバッファb内のZ値(図16(B)参照)より小さい(手前にある)か否かを判定する。
小さい場合(ステップS111/YES),図8のステップS112に移る。
ステップS112:GPU12は,レンダリング処理対象のポリゴンから構成されるオブジェクトmの透明度パラメータom_tを参照して、オブジェクトmが不透明か否かを判定する。
このオブジェクトが不透明の場合(ステップS112/YES),ステップS113に移る。なお,全ての不透明なオブジェクトについてのレンダリング処理が終了するまで,ステップS112はYESであり,ステップS113の処理が実行される。
ステップS113:GPU12は,図7のステップS108で選択したピクセルpix_iの座標値(X,Y)に対応するZバッファb内のZ値(図16(B)参照)を,図7のステップS110で算出したピクセルpix_iのZ座標(Z値)で上書きする。
ステップS114:GPU12は,図7のステップS108で選択したピクセルpix_iの座標値(X,Y)に対応するフレームバッファb内の色値(図16(A)参照)を,図7のステップS109で算出したピクセルpix_iの色値で上書きする。そして,図7のステップS115に移る。
ステップS115:GPU12は,スクリーン座標系におけるポリゴンpの頂点座標Vs1〜Vs3により囲まれた範囲のピクセルを全てレンダリングしたか判定する。全てのピクセルについてレンダリングしていない場合(ステップS115/NO),ステップS108に移る。このとき,ピクセルpix_iの値を1つカウントアップする。具体的には,GPU12は,図14の矢印に示す様に,ピクセルpix_iを移動させて,次にレンダリング処理を実行するピクセルを選択する。
このように,GPU12は,ステップS108〜S115の処理を繰り返し実行し,ポリゴンPo1の頂点座標Vs1〜Vs3により囲まれた範囲のピクセルを全てレンダリング処理する。
全てのピクセルについてレンダリングした場合(ステップS115/YES),ステップS116に移る。
ステップS116:GPU12は,オブジェクトmを構成する全てのポリゴンに対してレンダリングが終了したかを判定する。レンダリングが終了していない場合(ステップS116/NO),図6のステップS106に移る。このとき,pの値を1つカウントアップする。このように,GPU12は,ステップS106〜S116の処理を繰り返し実行し,オブジェクトmを構成する全てのポリゴンに対してレンダリングを実行する。レンダリングが終了した場合(ステップS116/YES),ステップS117に移る。
ステップS117:GPU12は,3次元データ内の全てのオブジェクトについてレンダリングが終了したかを判定する。レンダリングが終了していない場合(ステップS117/NO),図6のステップS104に移る。
GPU12は,全ての不透明なオブジェクトに対して,ステップS104〜S117で説明した処理を実行する。
図17は,Zバッファbに格納されたZ値を模式的に示した図である。図17において,不透明なオブジェクトm1,m4のZ値は,z1,z4である。
GPU12は,フレームバッファbに対応するZバッファbに,不透明なオブジェクトm1,m4のZ値,および,基準画像における不透明なオブジェクトm1,m4の背景画像BGのZ値をピクセル毎に格納している。
次いで,GPU12は,半透明なオブジェクトに対して,ステップS104〜S112,S118〜S123,S115〜S117の処理を実行する。
GPU12は,図6のステップS104において半透明なオブジェクトを選択すると,ステップS105〜ステップS110の処理を実行し,図7のステップS111に移る。図7のステップS111において,図7のステップS108で選択されたピクセルpix_iのZ値が,ピクセルpix_iに対応するZバッファb内のZ値より小さい場合(ステップS111/YES),図8のステップS112に移る。
GPU12は,処理対象のポリゴンから構成されるオブジェクトmの透明度パラメータom_tを参照して、オブジェクトmが不透明か否かを判定する(ステップS112)。ここで,オブジェクトmは半透明なので,この判定はNOであり,ステップS118の処理に移る。
ステップS118:GPU12は,図7のステップS110で算出したピクセルpix_iの座標値(X,Y)に対応するフレームバッファb内の色値と,図7のステップS109で算出したピクセルpix_iの色値とをオブジェクトmの透明度om_tでブレンドした色値を算出する。
なお,このブレンドした色値を初めて算出する前に,フレームバッファbに格納されている色値は,不透明なオブジェクトの色値,および,背景の色値である。図1の例では,フレームバッファbには,不透明なオブジェクトm1,m4,背景BGの色値がのみ格納されている(図2参照)。
図18は,ブレンド処理を説明する図である。図18(A)は,図7のステップS109でピクセルpix_iの色値が算出された状態を示し,図18(B)は,ステップS118の次のステップS119で説明する上書き処理が実行される状態を示す。
ブレンドした色値を算出する処理は,例えば,(式1)〜(式3)に基づき実行する。ここで,ブレンド後の色値をそれぞれRb,Gb,Bbとして,レンダリング処理対象のピクセルpix_iの色値をそれぞれ,Rp,Gp,Bp(図18(A)参照)とする。そして,このピクセルpix_iの座標値(X,Y)に対応するフレームバッファb内の色値をそれぞれ,Rf,Gf,Bf(図18(B)参照)とすると,(式1)〜(式3)は下記の通りである。
Rb=Rf×om_t+Rp×(1-om_t)…(式1)
Gb=Gf×om_t+Gp×(1-om_t)…(式2)
Bb=Bf×om_t+Bp×(1-om_t)…(式3)
ステップS119:GPU12は,このピクセルpix_iの座標値に対応するフレームバッファb内の色値を,ステップS118においてブレンドされた色値で上書きする。
ステップS120:GPU12は,現在処理の対象となっている半透明なオブジェクトmのZ値を格納するZバッファが既にメインメモリ13にあるか否かを判定する。
このオブジェクト用のZバッファがない場合には(ステップS120/NO),ステップS121に移る。
ステップS121:GPU12は,このオブジェクト用のZバッファを生成する。このZバッファの初期値は最大Z値である。以下,現在処理の対象となっている半透明なオブジェクトmのZ値を格納するZバッファをZバッファmk(kは1以上の整数)と呼ぶ。そして,GPU12は,生成したZバッファmkをZバッファ132k’としてメインメモリ14に記憶する。
ステップS120において,このオブジェクト用のZバッファmkがある場合には(ステップS121/NO),ステップS121の処理を省略し,ステップS122に移り,Z値の上書き判定処理を実行する。
図19は,Z値の上書き処理を説明する図である。図19(A)は,図8のステップS122の上書き判定処理を示し,図19(B)は,ステップS122の次のステップS123の上書き処理が実行される状態を示す。
ステップS122:GPU12は,図7のステップS108で選択したピクセルpix_iのZ値は,このピクセルpix_iの座標値(X,Y)に対応するZバッファmk内のZ値より小さいか否かを判定する。小さい場合(ステップS122/YES),ステップS123に移る。
ステップS123:GPU12は,図7のステップS108で選択したピクセルpix_iの座標値(X,Y)に対応するZバッファmk内のZ値を,図7のステップS110で算出したピクセルpix_iのZ値(Z座標)で上書きする。そして,図7のステップS115に移る。
図7のステップS108で選択されたピクセルpix_iのZ値が,このピクセルpix_iの座標値(X,Y)に対応するZバッファmk内のZ値より大きい場合(ステップS122/NO),ステップS123の処理を省略し,図7のステップS115に移る。
GPU12は,全ての半透明なオブジェクトについて,Zバッファmkの生成処理,フレームバッファbのブレンド処理が終了するまで,図6のステップS104〜S107,図7のステップS108〜S111,図8のステップS112,S118〜S123,図7のステップS115〜S117の処理を実行する。
図20は,半透明なオブジェクトm2,m3用のZバッファm2,m3の一例を示す図である。GPU12が,前記の処理を繰り返し行うことにより,図20(A)に示す半透明なオブジェクトm2のZバッファm2,図20(B)に示す半透明なオブジェクトm3のZバッファm3が生成される。そして,GPU12は,Zバッファm2,m3をそれぞれZバッファ1321,1322としてメインメモリ13に記憶する。なお,図20のZバッファm2,m3も,図19のように,ピクセル毎に格納領域を有する。
図20(A)に示すように,半透明なオブジェクトm2(3角形)の形状において,大部分のZ値は,Z2である。一方,半透明なオブジェクトm2の形状において,一部分(欠けた部分)のZ値は,最大Z値Zmaxとなる。このようになるのは,図1,図2で示したように,オブジェクトm2の所定の視点位置VP側に不透明なオブジェクトm1が配置されているからである。そのため,図7のステップS111において,この一部分に対応するピクセルpix_iのレンダリングを実行する場合,ステップS111がNOになり,図8のステップS112以下の処理が実行されない。その結果,半透明なオブジェクトm2(3角形)の形状において,前記の一部分については,GPU12は,ステップS123で説明したZ値の上書き処理を行わず,前記一部分に対応するZバッファm2のピクセルには,初期値である最大Z値Zmaxが格納されたままになる。
図20(B)において,半透明なオブジェクトm3のZ値は,Z3になる。
図20(A)に示したように,GPU12は,フレームバッファbに対応するZバッファm2に,半透明なオブジェクトm2のZ値(Z2)および基準画像における半透明なオブジェクトm2の背景画像のZ値(Zmax)をピクセル毎に格納する。
この際,図1,図2に示したように,3次元仮想空間において,不透明のオブジェクトm1が,半透明なオブジェクトm2よりも所定の視点位置側に配置され,かつ,2次元表示用画像において半透明なオブジェクトm2と不透明なオブジェクトm1が重なるので,GPU12は,以下の処理を実行する。すなわち,GPU12は,図20(A)に示したように,この重なる領域外の半透明なオブジェクトm2のZ値(Z2)および基準画像における半透明なオブジェクトm2の背景画像BGのZ値(Zmax)をピクセル毎に格納する。
また,図20(B)に示したように,GPU12は,フレームバッファbに対応するZバッファm3に,半透明なオブジェクトm3のZ値(Z3)および基準画像における半透明なオブジェクトm3の背景画像のZ値(Zmax)をピクセル毎に格納する。
さらに,GPU12は,所定の視点位置VPから2次元面に投影される,ぼかし処理が施されていない不透明なオブジェクトm1,m4,半透明なオブジェクトm2,m3の基準画像(図2参照)をフレームバッファbに格納する。
以上が,図4のステップS1の処理の説明である。図4のステップS1が終了すると,ステップS2に移る。
ステップS2:画像生成部111は,基準画像に基づきぼかし用画像を生成する。なお,GPU12が,ぼかし用画像を生成してもよい。ぼかし用画像の生成方法は,従来から提案されている様々な方法を用いることができる。例えば,基準画像内のオブジェクトの輪郭を荒くするため,基準画像をX倍に拡大し,この拡大画像を1/X倍に縮小する方法がある。他にも,基準画像の隣接ピクセルを平均化したり,または,ガウスフィルタを利用して,基準画像の各ピクセルの色値を平滑化する方法がある。図2の基準画像に基づくぼかし用画像は,後述する図26(B)に示す画像である。
画像生成部111は,生成したぼかし用画像をメインメモリ13のぼかし用画像バッファ1331に格納する。
ステップS3:画像生成部111は,不透明なオブジェクトのZ値に基づき,この不透明なオブジェクトのぼけ度を算出する。
ここで,ぼけ度とはオブジェクトのぼかし具合の強さである。ぼけ度は,基準画像とぼかし用画像との合成時における両画像の合成比率を示す0〜1の範囲の値である。0に近いほど基準画像の比率が高くなり(シャープな画像となり),1に近いほどぼかし用画像の比率が高くなる(ぼけた画像になる)。
図21は,ぼけ度を算出する際に参照されるグラフの一例を示す図である。縦軸はぼけ度Bを示し,横軸はZ値を示し,符号Lで示す太線がぼけ度算出用のグラフ線を示す。Z値に対応するグラフ線Lの縦軸が示す値が,このZ値のぼけ度を示す。画像生成部111は,このグラフ線を参照し,不透明なオブジェクトのぼけ度を算出する。例えば,オブジェクトのZ値がZaの場合,画像生成部111は,ぼけ度をbと算出する。また,このZ値が焦点位置Zf,Zmin,Zmaxの場合は,画像生成部111は,それぞれ,ぼけ度を0,1,1と算出する。
具体的には,画像生成部111は,不透明なオブジェクトのZ値が格納されたZバッファbの各ピクセルに対応してこの各ピクセルのぼけ度を算出する。そして,画像生成部111は,Zバッファbの各ピクセルに対応してこの各ピクセルのぼけ度が格納されるフォーカシングバッファbを生成する。フォーカシングバッファbは,不透明なオブジェクトのぼけ度が格納されたバッファである。画像生成部111は,生成したフォーカシングバッファbをフォーカシングバッファ1341として,メインメモリ13に記憶する。
図22は,不透明なオブジェクトm1,m4のぼけ度が格納されたフォーカシングバッファbの一例を示す図である。オブジェクトm1,m4のぼけ度は,それぞれb1,b4であり,背景BGのぼけ度は最大ぼけ度1である。なお,図22のフォーカシングバッファbも,図19のように,ピクセル毎に格納領域を有する。
ステップS4:画像生成部111は,最も大きいZ値を有する半透明なオブジェクトを選択する。この選択は,図7で説明したオブジェクト処理順序テーブルにおいて,最も先頭側に位置する半透明なオブジェクトの識別番号を特定することにより実行される。図1,図10(B)の例では,半透明なオブジェクトm3が選択される。
ステップS5:画像生成部111は,選択した半透明なオブジェクトmのZ値に基づき,このオブジェクトmのぼけ度を算出する。具体的には,画像生成部111は,半透明なオブジェクトmのZ値が格納されたZバッファmkの各ピクセルに対応してこの各ピクセルのぼけ度を算出する。そして,画像生成部111は,Zバッファmkの各ピクセルに対応してこの各ピクセルのぼけ度が格納されるフォーカシングバッファを生成する。
以下,Zバッファmkの各ピクセルに対応してこの各ピクセルのぼけ度が格納されるフォーカシングバッファをフォーカシングバッファmkと呼ぶ。
そして,画像生成部111は,前記のZバッファの各ピクセルに対応して算出されたぼけ度をフォーカシングバッファmkに格納する。
図23は,半透明なオブジェクトのぼけ度が格納されたフォーカシングバッファmkの一例を示した図である。図23(A)は,図1の例において,オブジェクトm3のぼけ度が格納されたフォーカシングバッファm3を示す。図1の例において,画像生成部111が,1回目のステップS5を実行した場合には,図23(A)に示したフォーカシングバッファm3が生成される。
画像生成部111は,生成したフォーカシングバッファm3をフォーカシングバッファ1351として,メインメモリ13に記憶する。
ステップS6:画像生成部111は,選択した半透明なオブジェクトmの透明度,ぼけ度に基づき,基準画像のぼけ度を算出する。
図24は,基準画像のぼけ度の算出処理を説明する図である。図24(A)は,不透明なオブジェクトのフォーカシングバッファbを示し,図24(B)は,図4のステップS4で選択した半透明なオブジェクトm3のフォーカシングバッファm3を示し,図24(C)は,算出後のぼけ度が格納されたカレントフォーカシングバッファを示す。
画像生成部111は,基準画像のぼけ度の算出処理に当たり,半透明のオブジェクトのぼけ度の補正を行う。この補正について説明する。まず,画像生成部111は,フォーカシングバッファm3において,ぼけ度が最大ぼけ度(B=1)以外の領域を特定する。この領域が,図4のステップS4で選択した半透明なオブジェクトmのぼけ度が格納された領域である。そして,画像生成部111は,この領域における処理対象のピクセルpib_i(図24(B)参照)を選択する。次いで,画像生成部111は,このピクセルpib_iに対応する,不透明なオブジェクトのフォーカシングバッファbのピクセルpia_i(図24(A)参照)を選択する。フォーカシングバッファbにおけるピクセルpia_iの座標と,フォーカシングバッファm3におけるピクセルpib_iの座標は,同座標である。つまり,フォーカシングバッファb,フォーカシングバッファm3の原点をバッファの左上端とし,ピクセルpia_iの座標(Xa,Ya),ピクセルpib_iの座標(Xb,Yb)とすると,Xa=Xb,Ya=Ybである。
そして,画像生成部111は,半透明なオブジェクトmのぼけ度を補正する。具体的には,画像生成部111は,半透明なオブジェクトm3のぼけ度(b3),不透明なオブジェクトm4のぼけ度(b4),背景部分のぼけ度(1),および,半透明なオブジェクトm3の透明度om_tに基づき,半透明なオブジェクトm3のぼけ度を補正する。ここで,半透明なオブジェクトのぼけ度を第1のぼけ度,不透明なオブジェクトのぼけ度,背景部分のぼけ度を第2のぼけ度とする。
画像生成部111は,半透明なオブジェクトの透明度に応じて,半透明なオブジェクトと,不透明なオブジェクトおよび背景部分とが重なる領域のぼけ度を第2のぼけ度の割合で補正する。
すなわち,画像生成部111は,この重なる領域のぼけ度を,半透明なオブジェクトの透明度om_tが大きくなるに従って,第2のぼけ度に近づけるように補正し,半透明なオブジェクトの透明度om_tが小さくなるに従って,第1のぼけ度に近づけるように補正する。
このぼけ度の補正において,画像生成部111は,第1のぼけ度と第2のぼけ度との合成比率を半透明なオブジェクトの透明度om_tに基づき調整し,調整後の合成比率に基づき,第1のぼけ度と第2のぼけ度を合成する。
この補正処理(合成処理)は,例えば,(式4)に基づき実行する。ここで,補正後のぼけ度をb’として,ピクセルpia_iのぼけ度をbとして,ピクセルpib_iのぼけ度をbxとすると,(式4)は下記の通りである。
b’=bx×(1-om_t)+b×om_t…(式4)
ここで,om_tは,選択した半透明なオブジェクトの透明度を示す。図1の例では,0.5であるとする。画像生成部111は,補正後のぼけ度b’をフォーカシングバッファbのピクセルpia_iに格納する。
画像生成部111は,前記ぼけ度の補正処理を,特定した領域の全ピクセルに対して実行し,補正後のぼけ度をフォーカシングバッファbのピクセルpia_iに格納する。このようにすることで,半透明のオブジェクトのぼけ度を補正することができる。
前記の実行により,例えば,図24(C)において,半透明なオブジェクトm3と不透明なオブジェクトm4とが重なる領域のぼけ度がぼけ度b5と補正され,オブジェクトm3において背景部分(ぼけ度1)とが重なる領域のぼけ度がぼけ度b6と補正される。この補正により,基準画像のぼけ度が算出される。
ステップS7:画像生成部111は,基準画像の全オブジェクトについてぼけ度の算出処理が終了したかを判定する。具体的には,画像生成部111は,選択した半透明なオブジェクトが図10に示したオブジェクト処理順序テーブルの末尾の格納領域に設定された識別番号のオブジェクトか否かを判定する。
基準画像の全オブジェクトについてぼけ度の算出処理が終了していない場合(ステップS7/NO),ステップS8に移る。
ステップS8:画像生成部111は,次に大きいZ値を有する半透明なオブジェクトを選択する。この選択は,図7で説明したオブジェクト処理順序テーブルに格納されている半透明なオブジェクトの識別番号を上(先頭)から順に参照することにより実行される。図1,図10(B)の例では,半透明なオブジェクトm2が選択される。次いで,ステップS5に戻る。
ステップS5において,画像生成部111は,ステップS8で選択した半透明なオブジェクトmのZ値が格納されたZバッファmkに基づき,前記したように,このオブジェクトmのぼけ度を算出する。そして,画像生成部111は,新たに生成したフォーカシングバッファmkにぼけ度を格納する。このように,フォーカシングバッファmkは,Zバッファmkに対応して生成される。
図23(B)は,図1の例において,オブジェクトm2のぼけ度が格納されたフォーカシングバッファm2を示す。図1の例において,画像生成部111が,2回目のステップS5を実行した場合には,図23(B)に示したフォーカシングバッファm2が生成される。
画像生成部111は,生成したフォーカシングバッファm2をフォーカシングバッファ1352として,メインメモリ13に記憶する。以上,説明したように,フォーカシングバッファ1351…135nは,Zバッファ1321…132nに対応して記憶される。
次いで,図6のステップS6に移る。ステップS6において,画像生成部111は,選択した半透明なオブジェクトmの透明度,ぼけ度に基づき,基準画像のぼけ度を算出する。画像生成部111が,ステップS6の処理を2回目以降に行う場合,算出対象となる基準画像のぼけ度は,前回ステップS6において,カレントフォーカシングバッファ(図24(C)参照)に格納された基準画像のぼけ度である。
図25は,基準画像のぼけ度の算出処理を説明する図である。図25(A)は,直前にぼけ度が算出された基準画像のフォーカシングバッファであるカレントフォーカシングバッファを示す。図25(A)は,図24(C)のカレントフォーカシングバッファである。図25(B)は,図4のステップS8で選択したオブジェクトm2のフォーカシングバッファm2を示し,図25(C)は,算出後のぼけ度が格納されたカレントフォーカシングバッファを示す。
画像生成部111は,基準画像のぼけ度の算出処理に当たり,前記したように,半透明のオブジェクトのぼけ度の補正を行う。具体的には,まず,画像生成部111は,フォーカシングバッファm2において,ぼけ度が最大ぼけ度(B=1)以外の領域を特定する。そして,画像生成部111は,この領域における処理対象のピクセルpib_i(図25(B)参照)を選択する。次いで,画像生成部111は,このピクセルpib_iに対応する,カレントフォーカシングバッファのピクセルpia_i(図25(A)参照)を選択する。
そして,前記の(式4)に基づき,半透明なオブジェクトm2のぼけ度を補正する。画像生成部111は,前記ぼけ度の補正処理を,特定した領域の全ピクセルに対して実行し,補正後のぼけ度をカレントフォーカシングバッファのピクセルpia_iに格納する。
前記の実行により,例えば,図25(C)において,半透明なオブジェクトm2と背景部分(ぼけ度1)とが重なる領域のぼけ度がぼけ度b7と補正され,半透明なオブジェクトm2と不透明なオブジェクトm4とが重なる領域のぼけ度がぼけ度b8と補正される。また,前記の実行により,半透明なオブジェクトm2と半透明なオブジェクトm3と背景部分とが重なる領域のぼけ度がぼけ度b9と補正され,半透明なオブジェクトm2と半透明なオブジェクトm3と不透明なオブジェクトm4とが重なる領域のぼけ度がぼけ度b10と補正される。この補正により,基準画像のぼけ度が新たに算出される。
以上説明したように,画像生成部111は,補正された半透明なオブジェクトm2,m3のぼけ度(第1のぼけ度),不透明なオブジェクトのぼけ度(第2のぼけ度)に基づき,基準画像のピクセル毎のぼけ度を算出する。
そして,画像生成部111は,基準画像の全オブジェクトについてぼけ度の算出処理が終了したかを判定する(ステップS7)。
基準画像の全オブジェクトについてぼけ度の算出処理が終了した場合(ステップS7/YES),ステップS9に移る。
ステップS9:画像生成部111は,基準画像とぼかし用画像とを,新たに算出された基準画像のぼけ度に基づき,ピクセル単位で合成する。具体的には,画像生成部111は,基準画像のピクセル毎の色値と,基準画像に基づき生成されたぼかし用画像のピクセル毎の色値との合成比率を基準画像のピクセル毎のぼけ度に基づき調整する。そして,画像生成部111は,調整後の合成比率に基づいて,基準画像のピクセル毎の色値とぼかし用画像のピクセル毎の色値とを合成して2次元表示用画像を生成する。
図26は,合成処理を説明する図である。図26(A)は,基準画像の色値が格納されたフレームバッファを示し,図26(B)は,図4のステップS2で生成したぼかし用画像の色値が格納されたバッファを示し,図26(C)は,オブジェクトのぼけ度が格納されたカレントフォーカシングバッファを示し,図26(D)は,合成後の表示用画像の色値が格納された表示用フレームバッファを示す。
この合成処理は,例えば,(式5)に基づき実行される。ここで,基準画像のフレームバッファのピクセルpica_i(図26(A)参照)の色値をCoとして,ピクセルpica_iに対応する,ぼかし用画像が格納されたぼかし画像フレームバッファのピクセルpicb_i(図26(B)参照)の色値をCbとする。そして,ピクセルpica_iに対応する,カレントフォーカシングバッファのピクセルpia_i(図26(C)参照)に格納されたぼけ度をbとして,ピクセルpica_iに対応する,画像合成のフレームバッファのピクセルpicc_i(図26(D)参照)の色値をCとすると,(式5)は下記の通りである。
C=Co×(1-b)+Cb×b…(式5)
画像生成部111は,前記合成処理を全ピクセルについて実行し,合成後の色値(2次元表示用画像データ)をVRAM14の表示用フレームバッファに格納する。すなわち,2次元表示用画像をVRAM14に描画する。
ステップS10:表示コントローラ16は,描画された2次元表示用画像を読み出し,表示装置20に表示する。その結果,図26(D)に示す画像が表示される。
ステップS11:CPU11は,画像生成処理が終了したかを判定する。この判定は,生成する画像の種別に応じて行う。例えば,生成する画像が静止画の場合には,CPU11は,処理を終了する(ステップS11/YES)。また,生成する画像が動画やゲーム用画像の場合のように,次のフレームを表示する必要がある場合には,処理を継続してステップS1に戻る(ステップS11/NO)。なお,ゲーム用画像の場合,キー操作の有無により,前記判定を行うこともできる。
以上説明したように,画像生成部111は,半透明なオブジェクト毎のZバッファ1321…132n(第1のZバッファ),不透明なオブジェクトのZバッファ1313(第2のZバッファ)に格納された各オブジェクトのZ値に基づき,この各オブジェクトのぼけ度を算出し,この各オブジェクトのぼけ度に応じてこの各オブジェクトをぼかした2次元表示用画像を生成する処理を実行する。
例えば,第1のZバッファ1321に半透明なオブジェクト(第1のオブジェクト)のZ値が格納され,第2のZバッファ1313に不透明なオブジェクト(第2のオブジェクト)のZ値が格納されている場合,画像生成部111は,半透明なオブジェクト,不透明なオブジェクトのぼけ度に応じて半透明なオブジェクト,不透明なオブジェクトをぼかした2次元表示用画像を生成する。
この実行時において,画像生成部111は,3次元仮想空間において,半透明なオブジェクトが,不透明なオブジェクトよりも所定の視点位置VP側(図1のVP側)に配置され,かつ,所定の視点位置VPを基準にして半透明なオブジェクトと不透明なオブジェクトが重なる場合,半透明なオブジェクトの透明度に応じて,この重なる領域のぼけ度を,不透明なオブジェクトのぼけ度の割合で補正する。すなわち,画像生成部111は,半透明なオブジェクトの透明度が大きくなるに従って,この重なる領域のぼけ度を不透明なオブジェクトのぼけ度に近づけるように補正し,半透明なオブジェクトの透明度が小さくなるに従って,この重なる領域のぼけ度を半透明なオブジェクトのぼけ度に近づけるように補正する。
本実施の形態によれば,半透明なオブジェクトの後ろに不透明なオブジェクトが配置されている場合,半透明なオブジェクトと不透明なオブジェクトとが重なる領域を半透明なオブジェクトの透明度に応じて適切にぼかすことができる。そのため,より自然な2次元表示用画像を生成できる。
以上の実施の形態をまとめると,次の付記のとおりである。
(付記1)
3次元仮想空間における各オブジェクトの透明度,および所定の視点位置からの奥行き値に基づき,前記所定の視点位置から2次元面に投影される前記各オブジェクトの2次元表示用画像を生成する画像生成装置において,
半透明な第1のオブジェクトの奥行き値を格納する第1のZバッファと,
不透明な第2のオブジェクトの奥行き値を格納する第2のZバッファと,
前記第1,第2のオブジェクトの奥行き値に基づき,前記第1,第2のオブジェクトのぼけ度を算出し,前記第1,第2のオブジェクトのぼけ度に応じて前記第1,第2のオブジェクトをぼかした2次元表示用画像を生成する画像生成部を有し,
前記画像生成部は,前記3次元仮想空間において,前記第1のオブジェクトが,前記第2のオブジェクトよりも前記所定の視点位置側に配置され,かつ,前記2次元表示用画像において前記第1のオブジェクトと前記第2のオブジェクトが重なる場合,前記第1のオブジェクトの透明度に応じて,前記第1のオブジェクトと前記第2のオブジェクトが重なる領域のぼけ度を,前記第2のオブジェクトのぼけ度の割合で補正する
ことを特徴とする画像生成装置。
(付記2)
3次元仮想空間における各オブジェクトの透明度,および所定の視点位置からの奥行き値に基づき,前記所定の視点位置から2次元面に投影される前記各オブジェクトの2次元表示用画像を生成する画像生成装置において,
半透明な第1のオブジェクトの奥行き値を格納する第1のZバッファと,
不透明な第2のオブジェクトの奥行き値を格納する第2のZバッファと,
前記第1,第2のオブジェクトの奥行き値に基づき,前記第1,第2のオブジェクトのぼけ度を算出し,前記第1,第2のオブジェクトのぼけ度に応じて前記第1,第2のオブジェクトをぼかした2次元表示用画像を生成する画像生成部を有し,
前記画像生成部は,前記3次元仮想空間において,前記第1のオブジェクトが,前記第2のオブジェクトよりも前記所定の視点位置側に配置され,かつ,前記2次元表示用画像において前記第1のオブジェクトと前記第2のオブジェクトが重なる場合,前記第1のオブジェクトと前記第2のオブジェクトが重なる領域のぼけ度を,前記第1のオブジェクトの透明度が大きくなるに従って,前記第2のオブジェクトのぼけ度に近づけるように補正し,前記第1のオブジェクトの透明度が小さくなるに従って,前記第1のオブジェクトのぼけ度に近づけるように補正する
ことを特徴とする画像生成装置。
(付記3)
付記1又は2において,
前記画像生成部は,前記重なる領域のぼけ度の補正において,前記第1のオブジェクトの第1のぼけ度と前記第2のオブジェクトの第2のぼけ度との合成比率を前記第1のオブジェクトの透明度に基づき調整し,調整後の合成比率に基づき,前記第1のぼけ度と前記第2のぼけ度を合成する
ことを特徴とする画像生成装置。
(付記4)
付記3において,
さらに,前記所定の視点位置から2次元面に投影される,ぼかし処理が施されていない前記第1,第2のオブジェクトの基準画像をフレームバッファに格納する画像処理プロセッサを有し,
前記画像生成部は,前記補正された第1のぼけ度,前記第2のぼけ度に基づき,前記基準画像のピクセル毎のぼけ度を算出し,
前記基準画像のピクセル毎の色値と,前記基準画像に基づき生成されたぼかし用画像のピクセル毎の色値との合成比率を前記算出した基準画像のピクセル毎のぼけ度に基づき調整し,調整後の合成比率に基づき,前記基準画像のピクセル毎の色値と前記ぼかし用画像のピクセル毎の色値とを合成して前記2次元表示用画像を生成する
ことを特徴とする画像生成装置。
(付記5)
3次元仮想空間における各オブジェクトの透明度,および所定の視点位置からの奥行き値に基づき,前記所定の視点位置から2次元面に投影される前記各オブジェクトの2次元表示用画像を生成する処理をコンピュータに実行させる画像生成プログラムにおいて,
前記所定の視点位置から2次元面に投影される,ぼかし処理が施されていない前記第1,第2のオブジェクトの基準画像をフレームバッファに格納し,
前記フレームバッファに対応する第1のZバッファに,半透明な第1のオブジェクトの第1の奥行き値および前記基準画像における第1のオブジェクトの背景画像の奥行き値をピクセル毎に格納し,
前記フレームバッファに対応する第2のZバッファに,不透明な第2のオブジェクトの第2の奥行き値および前記基準画像における第2のオブジェクトの背景画像の奥行き値をピクセル毎に格納し,
前記第1の奥行き値に基づき前記第1のオブジェクトの第1のぼけ度を算出し,
前記第2の奥行き値に基づき前記第2のオブジェクトの第2のぼけ度を算出し,
前記3次元仮想空間において,前記第1のオブジェクトが,前記第2のオブジェクトよりも前記所定の視点位置側に配置され,かつ,前記2次元表示用画像において前記第1のオブジェクトと前記第2のオブジェクトが重なる場合,前記第1のオブジェクトの透明度に応じて,前記第1のオブジェクトと前記第2のオブジェクトが重なる領域のぼけ度を,前記第2のオブジェクトのぼけ度の割合で補正する
処理をコンピュータに実行させる画像生成プログラム。
(付記6)
3次元仮想空間における各オブジェクトの透明度,および所定の視点位置からの奥行き値に基づき,前記所定の視点位置から2次元面に投影される前記各オブジェクトの2次元表示用画像を生成する処理をコンピュータに実行させる画像生成プログラムにおいて,
前記所定の視点位置から2次元面に投影される,ぼかし処理が施されていない前記第1,第2のオブジェクトの基準画像をフレームバッファに格納し,
前記フレームバッファに対応する第1のZバッファに,半透明な第1のオブジェクトの第1の奥行き値および前記基準画像における第1のオブジェクトの背景画像の奥行き値をピクセル毎に格納し,
前記フレームバッファに対応する第2のZバッファに,不透明な第2のオブジェクトの第2の奥行き値および前記基準画像における第2のオブジェクトの背景画像の奥行き値をピクセル毎に格納し,
前記第1の奥行き値に基づき前記第1のオブジェクトの第1のぼけ度を算出し,
前記第2の奥行き値に基づき前記第2のオブジェクトの第2のぼけ度を算出し,
前記3次元仮想空間において,前記第1のオブジェクトが,前記第2のオブジェクトよりも前記所定の視点位置側に配置され,かつ,前記2次元表示用画像において前記第1のオブジェクトと前記第2のオブジェクトが重なる場合,前記第1のオブジェクトと前記第2のオブジェクトが重なる領域のぼけ度を,前記第1のオブジェクトの透明度が大きくなるに従って,前記第2のオブジェクトのぼけ度に近づけるように補正し,前記第1のオブジェクトの透明度が小さくなるに従って,前記第1のオブジェクトのぼけ度に近づけるように補正する
処理をコンピュータに実行させる画像生成プログラム。
(付記7)
付記5又は6の前記補正において,
前記第1のぼけ度,前記第2のぼけ度,および,前記第1のオブジェクトの透明度に基づき,前記重なる領域のぼけ度を補正する
処理をコンピュータに実行させる画像生成プログラム。
(付記8)
付記7の前記補正において,
前記第1のぼけ度と前記第2のぼけ度との合成比率を前記第1のオブジェクトの透明度に基づき調整し,調整後の合成比率に基づき,前記第1のぼけ度と前記第2のぼけ度を合成することにより,前記第1のぼけ度を補正する
処理をコンピュータに実行させる画像生成プログラム。
(付記9)
付記8において,
前記補正された第1のぼけ度,前記第2のぼけ度に基づき,前記基準画像のピクセル毎のぼけ度を算出し,
前記基準画像のピクセル毎の色値と,前記基準画像に基づき生成されたぼかし用画像のピクセル毎の色値との合成比率を前記算出した前記基準画像のピクセル毎のぼけ度に基づき調整し,
調整後の合成比率に基づいて,前記基準画像のピクセル毎の色値と前記ぼかし用画像のピクセル毎の色値とを合成して前記2次元表示用画像を生成する
処理をコンピュータに実行させる画像生成プログラム。
(付記10)
3次元仮想空間における各オブジェクトの透明度,および所定の視点位置からの奥行き値に基づき,前記所定の視点位置から2次元面に投影される前記各オブジェクトの2次元表示用画像を生成する画像生成装置と前記画像生成装置が生成した画像を表示する表示装置とを有する画像表示システムであって,
前記画像生成装置は,半透明な第1のオブジェクトの奥行き値を格納する第1のZバッファと,
不透明な第2のオブジェクトの奥行き値を格納する第2のZバッファと,
前記第1,第2のオブジェクトの奥行き値に基づき,前記第1,第2のオブジェクトのぼけ度を算出し,前記第1,第2のオブジェクトのぼけ度に応じて前記第1,第2のオブジェクトをぼかした2次元表示用画像を生成する画像生成部を有し,
前記画像生成部は,前記3次元仮想空間において,前記第1のオブジェクトが,前記第2のオブジェクトよりも前記所定の視点位置側に配置され,かつ,前記2次元表示用画像において前記第1のオブジェクトと前記第2のオブジェクトが重なる場合,前記第1のオブジェクトの透明度に応じて,前記第1のオブジェクトと前記第2のオブジェクトが重なる領域のぼけ度を,前記第2のオブジェクトのぼけ度の割合で補正する
ことを特徴とする画像表示システム。
(付記11)
3次元仮想空間における各オブジェクトの透明度,および所定の視点位置からの奥行き値に基づき,前記所定の視点位置から2次元面に投影される前記各オブジェクトの2次元表示用画像を生成する画像生成装置と前記画像生成装置が生成した画像を表示する表示装置とを有する画像表示システムであって,
前記画像生成装置は,半透明な第1のオブジェクトの奥行き値を格納する第1のZバッファと,
不透明な第2のオブジェクトの奥行き値を格納する第2のZバッファと,
前記第1,第2のオブジェクトの奥行き値に基づき,前記第1,第2のオブジェクトのぼけ度を算出し,前記第1,第2のオブジェクトのぼけ度に応じて前記第1,第2のオブジェクトをぼかした2次元表示用画像を生成する画像生成部を有し,
前記画像生成部は,前記3次元仮想空間において,前記第1のオブジェクトが,前記第2のオブジェクトよりも前記所定の視点位置側に配置され,かつ,前記2次元表示用画像において前記第1のオブジェクトと前記第2のオブジェクトが重なる場合,前記第1のオブジェクトと前記第2のオブジェクトが重なる領域のぼけ度を,前記第1のオブジェクトの透明度が大きくなるに従って,前記第2のオブジェクトのぼけ度に近づけるように補正し,前記第1のオブジェクトの透明度が小さくなるに従って,前記第1のオブジェクトのぼけ度に近づけるように補正する
ことを特徴とする画像表示システム。
10…画像生成装置,11…CPU,111…画像生成部,12…GPU,13…メインメモリ,14…VRAM,15…ROM,16…表示コントローラ,20…表示装置。

Claims (8)

  1. 3次元仮想空間における各オブジェクトの透明度,および所定の視点位置からの奥行き値に基づき,前記所定の視点位置から2次元面に投影される前記各オブジェクトの2次元表示用画像を生成する画像生成装置において,
    半透明な第1のオブジェクトの奥行き値を格納する第1のZバッファと,
    不透明な第2のオブジェクトの奥行き値を格納する第2のZバッファと,
    前記第1,第2のオブジェクトの奥行き値に基づき,前記第1,第2のオブジェクトのぼけ度を算出し,前記第1,第2のオブジェクトのぼけ度に応じて前記第1,第2のオブジェクトをぼかした2次元表示用画像を生成する画像生成部を有し,
    前記画像生成部は,前記3次元仮想空間において,前記第1のオブジェクトが,前記第2のオブジェクトよりも前記所定の視点位置側に配置され,かつ,前記2次元表示用画像において前記第1のオブジェクトと前記第2のオブジェクトが重なる場合,前記第1のオブジェクトと前記第2のオブジェクトが重なる領域のぼけ度を,前記第1のオブジェクトの透明度に応じた前記第2のオブジェクトのぼけ度で補正する
    ことを特徴とする画像生成装置。
  2. 3次元仮想空間における各オブジェクトの透明度,および所定の視点位置からの奥行き値に基づき,前記所定の視点位置から2次元面に投影される前記各オブジェクトの2次元表示用画像を生成する画像生成装置において,
    半透明な第1のオブジェクトの奥行き値を格納する第1のZバッファと,
    不透明な第2のオブジェクトの奥行き値を格納する第2のZバッファと,
    前記第1,第2のオブジェクトの奥行き値に基づき,前記第1,第2のオブジェクトのぼけ度を算出し,前記第1,第2のオブジェクトのぼけ度に応じて前記第1,第2のオブジェクトをぼかした2次元表示用画像を生成する画像生成部を有し,
    前記画像生成部は,前記3次元仮想空間において,前記第1のオブジェクトが,前記第2のオブジェクトよりも前記所定の視点位置側に配置され,かつ,前記2次元表示用画像において前記第1のオブジェクトと前記第2のオブジェクトが重なる場合,前記第1のオブジェクトと前記第2のオブジェクトが重なる領域のぼけ度を,前記第1のオブジェクトの透明度が大きくなるに従って,前記第2のオブジェクトのぼけ度に近づけるように補正し,前記第1のオブジェクトの透明度が小さくなるに従って,前記第1のオブジェクトのぼけ度に近づけるように補正する
    ことを特徴とする画像生成装置。
  3. 請求項1又は2において,
    前記画像生成部は,前記重なる領域のぼけ度の補正において,前記第1のオブジェクトの第1のぼけ度と前記第2のオブジェクトの第2のぼけ度との合成比率を前記第1のオブジェクトの透明度に基づき調整し,調整後の合成比率に基づき,前記第1のぼけ度と前記第2のぼけ度を合成する
    ことを特徴とする画像生成装置。
  4. 請求項3において,
    さらに,前記所定の視点位置から2次元面に投影される,ぼかし処理が施されていない前記第1,第2のオブジェクトの基準画像をフレームバッファに格納する画像処理プロセッサを有し,
    前記画像生成部は,前記補正された第1のぼけ度,前記第2のぼけ度に基づき,前記基準画像のピクセル毎のぼけ度を算出し,
    前記基準画像のピクセル毎の色値と,前記基準画像に基づき生成されたぼかし用画像のピクセル毎の色値との合成比率を前記算出した基準画像のピクセル毎のぼけ度に基づき調整し,調整後の合成比率に基づき,前記基準画像のピクセル毎の色値と前記ぼかし用画像のピクセル毎の色値とを合成して前記2次元表示用画像を生成する
    ことを特徴とする画像生成装置。
  5. 3次元仮想空間における各オブジェクトの透明度,および所定の視点位置からの奥行き値に基づき,前記所定の視点位置から2次元面に投影される前記各オブジェクトの2次元表示用画像を生成する処理をコンピュータに実行させる画像生成プログラムにおいて,
    前記所定の視点位置から2次元面に投影される,ぼかし処理が施されていない前記第1,第2のオブジェクトの基準画像をフレームバッファに格納し,
    前記フレームバッファに対応する第1のZバッファに,半透明な第1のオブジェクトの第1の奥行き値および前記基準画像における第1のオブジェクトの背景画像の奥行き値をピクセル毎に格納し,
    前記フレームバッファに対応する第2のZバッファに,不透明な第2のオブジェクトの第2の奥行き値および前記基準画像における第2のオブジェクトの背景画像の奥行き値をピクセル毎に格納し,
    前記第1の奥行き値に基づき前記第1のオブジェクトの第1のぼけ度を算出し,
    前記第2の奥行き値に基づき前記第2のオブジェクトの第2のぼけ度を算出し,
    前記3次元仮想空間において,前記第1のオブジェクトが,前記第2のオブジェクトよりも前記所定の視点位置側に配置され,かつ,前記2次元表示用画像において前記第1のオブジェクトと前記第2のオブジェクトが重なる場合,前記第1のオブジェクトと前記第2のオブジェクトが重なる領域のぼけ度を,前記第1のオブジェクトの透明度に応じた前記第2のオブジェクトのぼけ度で補正する
    処理をコンピュータに実行させる画像生成プログラム。
  6. 3次元仮想空間における各オブジェクトの透明度,および所定の視点位置からの奥行き値に基づき,前記所定の視点位置から2次元面に投影される前記各オブジェクトの2次元表示用画像を生成する処理をコンピュータに実行させる画像生成プログラムにおいて,
    前記所定の視点位置から2次元面に投影される,ぼかし処理が施されていない前記第1,第2のオブジェクトの基準画像をフレームバッファに格納し,
    前記フレームバッファに対応する第1のZバッファに,半透明な第1のオブジェクトの第1の奥行き値および前記基準画像における第1のオブジェクトの背景画像の奥行き値をピクセル毎に格納し,
    前記フレームバッファに対応する第2のZバッファに,不透明な第2のオブジェクトの第2の奥行き値および前記基準画像における第2のオブジェクトの背景画像の奥行き値をピクセル毎に格納し,
    前記第1の奥行き値に基づき前記第1のオブジェクトの第1のぼけ度を算出し,
    前記第2の奥行き値に基づき前記第2のオブジェクトの第2のぼけ度を算出し,
    前記3次元仮想空間において,前記第1のオブジェクトが,前記第2のオブジェクトよりも前記所定の視点位置側に配置され,かつ,前記2次元表示用画像において前記第1のオブジェクトと前記第2のオブジェクトが重なる場合,前記第1のオブジェクトと前記第2のオブジェクトが重なる領域のぼけ度を,前記第1のオブジェクトの透明度が大きくなるに従って,前記第2のオブジェクトのぼけ度に近づけるように補正し,前記第1のオブジェクトの透明度が小さくなるに従って,前記第1のオブジェクトのぼけ度に近づけるように補正する
    処理をコンピュータに実行させる画像生成プログラム。
  7. 3次元仮想空間における各オブジェクトの透明度,および所定の視点位置からの奥行き値に基づき,前記所定の視点位置から2次元面に投影される前記各オブジェクトの2次元表示用画像を生成する画像生成装置と前記画像生成装置が生成した画像を表示する表示装置とを有する画像表示システムであって,
    前記画像生成装置は,半透明な第1のオブジェクトの奥行き値を格納する第1のZバッファと,
    不透明な第2のオブジェクトの奥行き値を格納する第2のZバッファと,
    前記第1,第2のオブジェクトの奥行き値に基づき,前記第1,第2のオブジェクトのぼけ度を算出し,前記第1,第2のオブジェクトのぼけ度に応じて前記第1,第2のオブジェクトをぼかした2次元表示用画像を生成する画像生成部を有し,
    前記画像生成部は,前記3次元仮想空間において,前記第1のオブジェクトが,前記第2のオブジェクトよりも前記所定の視点位置側に配置され,かつ,前記2次元表示用画像において前記第1のオブジェクトと前記第2のオブジェクトが重なる場合,前記第1のオブジェクトと前記第2のオブジェクトが重なる領域のぼけ度を,前記第1のオブジェクトの透明度に応じた前記第2のオブジェクトのぼけ度で補正する
    ことを特徴とする画像表示システム。
  8. 3次元仮想空間における各オブジェクトの透明度,および所定の視点位置からの奥行き値に基づき,前記所定の視点位置から2次元面に投影される前記各オブジェクトの2次元表示用画像を生成する画像生成装置と前記画像生成装置が生成した画像を表示する表示装置とを有する画像表示システムであって,
    前記画像生成装置は,半透明な第1のオブジェクトの奥行き値を格納する第1のZバッファと,
    不透明な第2のオブジェクトの奥行き値を格納する第2のZバッファと,
    前記第1,第2のオブジェクトの奥行き値に基づき,前記第1,第2のオブジェクトのぼけ度を算出し,前記第1,第2のオブジェクトのぼけ度に応じて前記第1,第2のオブジェクトをぼかした2次元表示用画像を生成する画像生成部を有し,
    前記画像生成部は,前記3次元仮想空間において,前記第1のオブジェクトが,前記第2のオブジェクトよりも前記所定の視点位置側に配置され,かつ,前記2次元表示用画像において前記第1のオブジェクトと前記第2のオブジェクトが重なる場合,前記第1のオブジェクトと前記第2のオブジェクトが重なる領域のぼけ度を,前記第1のオブジェクトの透明度が大きくなるに従って,前記第2のオブジェクトのぼけ度に近づけるように補正し,前記第1のオブジェクトの透明度が小さくなるに従って,前記第1のオブジェクトのぼけ度に近づけるように補正する
    ことを特徴とする画像表示システム。
JP2011224743A 2011-10-12 2011-10-12 画像生成装置,画像生成プログラム,および,画像生成装置を有する画像表示システム Active JP5857608B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011224743A JP5857608B2 (ja) 2011-10-12 2011-10-12 画像生成装置,画像生成プログラム,および,画像生成装置を有する画像表示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011224743A JP5857608B2 (ja) 2011-10-12 2011-10-12 画像生成装置,画像生成プログラム,および,画像生成装置を有する画像表示システム

Publications (2)

Publication Number Publication Date
JP2013084181A JP2013084181A (ja) 2013-05-09
JP5857608B2 true JP5857608B2 (ja) 2016-02-10

Family

ID=48529296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011224743A Active JP5857608B2 (ja) 2011-10-12 2011-10-12 画像生成装置,画像生成プログラム,および,画像生成装置を有する画像表示システム

Country Status (1)

Country Link
JP (1) JP5857608B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6250214B1 (ja) * 2017-06-13 2017-12-20 株式会社 ディー・エヌ・エー 画像処理装置及び画像処理プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4148377B2 (ja) * 1997-10-28 2008-09-10 松下電器産業株式会社 画像生成装置、画像生成方法、画像生成プログラム記録媒体、画像合成装置、画像合成方法、および画像合成プログラム記録媒体
JP3262772B2 (ja) * 1999-12-17 2002-03-04 株式会社ナムコ 画像生成システム及び情報記憶媒体
JP3635051B2 (ja) * 2001-02-01 2005-03-30 株式会社ソニー・コンピュータエンタテインメント 画像生成方法及び装置、画像処理プログラムを記録した記録媒体、画像処理プログラム
JP2002298152A (ja) * 2001-04-02 2002-10-11 Konami Computer Entertainment Japan Inc 画像の描画方法及びそれに用いるプログラム
JP2006293470A (ja) * 2005-04-06 2006-10-26 Namco Bandai Games Inc 描画装置、方法および描画プログラム
JP4749198B2 (ja) * 2006-03-30 2011-08-17 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム

Also Published As

Publication number Publication date
JP2013084181A (ja) 2013-05-09

Similar Documents

Publication Publication Date Title
JP6153366B2 (ja) 画像生成システム及びプログラム
JP2006092156A (ja) プログラム、情報記憶媒体及び画像生成装置
JP2012079291A (ja) プログラム、情報記憶媒体及び画像生成システム
EP1355276A2 (en) System and method for distance adjusted rendering
JP2007026112A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2006195882A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP4305903B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
KR100381817B1 (ko) 제트버퍼를 이용한 입체영상 생성방법 및 기록매체
JP2011053737A (ja) プログラム、情報記憶媒体及び画像生成装置
JP5857608B2 (ja) 画像生成装置,画像生成プログラム,および,画像生成装置を有する画像表示システム
JP4868586B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP3502796B2 (ja) ビデオゲームにおける立体モデル表示方法及び装置、ゲーム装置並びにビデオゲーム用立体モデル表示プログラムを格納したコンピュータ読み取り可能な記録媒体
JP2010029375A (ja) ゲームシステム、プログラム、及び情報記憶媒体
JP2010238110A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2013030125A (ja) プログラム、情報記憶媒体及びゲームシステム
JP2009169471A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP4714919B2 (ja) レンダリング装置及び記録媒体並びにプログラム
JP2005275796A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP2010033253A (ja) プログラム、情報記憶媒体および画像生成システム
JP2010033297A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP2010033294A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP2009245133A (ja) プログラム、情報記憶媒体、及び、画像生成システム
JP4554834B2 (ja) 画像処理装置及び方法並びにそのプログラム
JP3372034B2 (ja) レンダリング方法及び装置、ゲーム装置、並びに立体モデルをレンダリングするプログラムを格納するコンピュータ読み取り可能な記録媒体
JP2009211243A (ja) プログラム、情報記憶媒体、及び画像生成システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140701

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151130

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5857608

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150