JP2013146324A - コンピュータプログラム及び画像処理装置 - Google Patents

コンピュータプログラム及び画像処理装置 Download PDF

Info

Publication number
JP2013146324A
JP2013146324A JP2012007730A JP2012007730A JP2013146324A JP 2013146324 A JP2013146324 A JP 2013146324A JP 2012007730 A JP2012007730 A JP 2012007730A JP 2012007730 A JP2012007730 A JP 2012007730A JP 2013146324 A JP2013146324 A JP 2013146324A
Authority
JP
Japan
Prior art keywords
color
fog
pixel
frame image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012007730A
Other languages
English (en)
Inventor
Tomonori Takano
友憲 高野
Mikio Ueda
幹夫 上田
Tomohito Ishida
智史 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2012007730A priority Critical patent/JP2013146324A/ja
Publication of JP2013146324A publication Critical patent/JP2013146324A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】 ハードウェアの負担増を抑制しつつ、霧のかかった仮想ゲーム空間を仮想カメラで撮影したときのフレーム画像のリアリティを高めることのできるコンピュータプログラム及び画像処理装置を提供する。
【解決手段】 画像処理装置1は、フォグを有する仮想ゲーム空間を仮想カメラで撮影したフレーム画像を生成するフレーム画像生成部43を備え、該フレーム画像生成部43は、フレームの各画素について画素色とフォグ色とを混合した表示色を決定する際、色強度が高い画素ほどフォグ色の影響度を低くする。
【選択図】図4

Description

本発明は、仮想空間を仮想カメラで撮影したときの画像をモニタに表示すべくコンピュータを機能させるコンピュータプログラム、及び画像処理装置に関する。
従来、仮想の三次元空間内で行動するプレイヤキャラクタをユーザが操作することによって進行するゲームが存在する。例えば、プレイヤキャラクタを操作して仮想ゲーム空間内を移動させ、遭遇したモンスター等の敵キャラクタを討伐しながらゲームを進行させるアクションゲームなどがある。このようなゲームでは、キャラクタ等の動的オブジェクトや建築物等の静的オブジェクトを含む三次元の仮想ゲーム空間を設定し、これを仮想カメラによって撮影したフレーム画像をモニタに表示している。具体的には、オブジェクトの配置を決定し、仮想カメラの位置及び向き、光源、エフェクトなどの設定を行い、レンダリング処理を実行することにより、仮想ゲーム空間を投影変換したフレーム画像を生成する。
また、仮想ゲーム空間をよりリアルに表現するために、仮想ゲーム空間内の大気による作用をフォグ(霧)によって表現する場合がある(特許文献1,2参照)。例えば、レンダリング処理において深度テストを行い、仮想カメラから遠方に位置するオブジェクトほど、これを表示する画素の色をフォグ色(例えば、白色)に近づける。これにより、遠方に位置するオブジェクトほど白く霞んで表示されるため、大気の存在を臨場感のある画像で表現することができる。
特許第3727098号公報 特許第4698893号公報
しかしながら、上記特許文献1,2に開示されたフォグの表現方法では、現実世界で発生する光の散乱現象(Light Scattering)が考慮されていないため、リアリティに欠けるものとなっている。例えば、濃いフォグの中に輝度の高い物体が存在する場合、現実世界であれば散乱光によって当該物体が発する光を視認できる場合であっても、上記の従来方法により生成したフレーム画像では、当該物体がフォグに完全に埋没してしまって視認できなくなる場合がある。
一方、光の散乱現象を物理的に表現する数式を用いることにより、レンダリング処理にて当該現象を反映したフレーム画像を生成することも考えられる。しかし、このような処理はハードウェアにかかる負荷が大きく現実的ではない。更に、高輝度領域を予め選択しておき、この領域と仮想カメラとの間のフォグを除外することにより、当該領域の視認性を高くすることも考えられる。しかし、この場合には高輝度領域とその周囲との間で、フォグの有無が顕著に識別されてしまい、かえってリアリティに欠ける画像となる可能性がある。
そこで本発明は、ハードウェアの負担増を抑制しつつ、霧のかかった仮想空間を仮想カメラで撮影したときのフレーム画像のリアリティを高めることのできるコンピュータプログラム及び画像処理装置を提供することを目的とする。
本発明に係るコンピュータプログラムは、コンピュータを、フォグを有する仮想空間を仮想カメラで撮影した画像を生成する画像生成手段として機能させ、前記画像生成手段は、各画素について画素色とフォグ色とを混合した表示色を決定する際、色強度が高い画素ほどフォグ色の影響度を低くする。
このような構成とすることにより、1画素ごとに、色強度に応じてフォグ色の影響が可変となるため、レンダリング処理の負荷の増大を抑制しつつ、現実世界での光の散乱現象をリアルに表現することができる。ここで、「色強度」としては、後述するように典型的には「輝度」(カンデラ/平方メートル)を採用することができるが、これに限定されず、RGB各色の階調を示す値の合計に基づいて設定してもよいし、現実世界にて霧を通じて視認しやすい色ほど高い値となるように色強度を定めてもよい。
また、前記フレーム画像生成手段は、下記の式(1)
に基づいて前記表示色を決定するように構成されていてもよい。
また、前記色強度として輝度を用いることとしてもよい。
本発明に係る画像処理装置は、上述した何れかに記載のコンピュータプログラムを記憶したプログラム記憶部と、該プログラム記憶部に記憶されたプログラムを実行するコンピュータと、を備える。
本発明によれば、ハードウェアの負担増を抑制しつつ、霧のかかった仮想空間を仮想カメラで撮影したときの画像のリアリティを高めることのできるコンピュータプログラム及び画像処理装置を提供することができる。
実施の形態に係る画像処理装置のハードウェア構成を示すブロック図である。 図1に示す画像処理装置の機能的な構成を示すブロック図である。 フレーム画像の生成処理を説明するためのフローチャートである。 フレーム画像生成での表示色の決定手順を説明するためのフローチャートである。 比較例に係るフレーム画像を示す図面である。 実施例に係るフレーム画像を示す図面である。
以下、本発明の実施の形態に係るコンピュータプログラム、及び画像処理装置について、図面を参照しつつ説明する。なお、ここではユーザが仮想ゲーム空間内のプレイヤキャラクタの動作を操作することによって進行するアクションゲームを例示するが、本発明は、仮想ゲーム空間をモニタに表示する処理であれば、如何なるものにも適用可能である。
[ハードウェア構成]
図1は、本発明の実施の形態に係る画像処理装置1のハードウェア構成を示すブロック図である。図1に示すように、画像処理装置1は、他の画像処理装置1及びサーバ装置3との間で、インターネット又はLANなどの通信ネットワークNWを介して互いに通信可能である。この画像処理装置1は、その動作を制御するコンピュータであるCPU10を備え、このCPU10にはバス11を介して、ディスクドライブ12、メモリカードスロット13、プログラム記憶手段を成すHDD14及びROM15、並びにRAM16が接続されている。
ディスクドライブ12には、DVD−ROM等のディスク型記録媒体30が装填可能であり、該ディスク型記録媒体30には、本発明の実施の形態に係るゲームプログラム(コンピュータプログラム)30a、及び本ゲームに登場する各キャラクタ(プレイヤキャラクタ,味方キャラクタ,敵キャラクタ等)や、仮想ゲーム空間を形成するのに必要なオブジェクト及びテクスチャ等のゲームデータ30bも記録されている。また、メモリカードスロット13にはカード型記録媒体31が装填でき、ゲームの途中経過等のプレイ状況を示すセーブデータを、CPU10からの指示に応じて記録可能である。
HDD14は画像処理装置1が内蔵する大容量記録媒体であって、ディスク型記録媒体30から読み込んだゲームプログラム30a及びゲームデータ30b、更にはセーブデータ等を記録する。ROM15は、マスクROM又はPROMなどの半導体メモリであり、画像処理装置1を起動する起動プログラムや、ディスク型記録媒体30が装填されたときの動作を制御するプログラムなどを記録している。RAM16は、DRAM又はSRAMなどから成り、CPU10が実行すべきゲームプログラム30aや、その実行の際に必要になるゲームデータ30bなどを、ゲームのプレイ状況に応じてディスク型記録媒体30又はHDD14から読み込んで一時的に記録する。
また、CPU10には更に、バス11を介してグラフィック処理部17、オーディオ合成部20、無線通信制御部23、及びネットワークインタフェース25が接続されている。
このうちグラフィック処理部17は、CPU10の指示に従って仮想ゲーム空間や各キャラクタ等を含むゲーム画像(フレーム画像)を描画する。また、グラフィック処理部17にはビデオ変換部18を介して外部のモニタ(出力部)19が接続されており、グラフィック処理部17にて描画されたフレーム画像はビデオ変換部18において動画形式に変換され、更にモニタ19にて表示されるようになっている。
オーディオ合成部20は、CPU10の指示に従ってデジタルのゲーム音声を再生及び合成する。また、オーディオ合成部20にはオーディオ変換部21を介して外部のスピーカ22が接続されている。従って、オーディオ合成部20にて再生及び合成されたゲーム音声は、オーディオ変換部21にてアナログ形式にデコードされ、更にスピーカ22から外部へ出力されるようになっている。
無線通信制御部23は、2.4GHz帯の無線通信モジュールを有し、画像処理装置1に付属するコントローラ24との間で無線により接続され、データの送受信が可能となっている。ユーザは、このコントローラ24に設けられたボタン等の操作子(図示せず)を操作することにより、画像処理装置1へ信号を入力することができ、モニタ19に表示されるプレイヤキャラクタの動作を制御可能になっている。また、ネットワークインタフェース25は、インターネット又はLANなどの通信ネットワークNWに対して画像処理装置1を接続するものであり、他の画像処理装置1又はサーバ装置3との間で通信可能である。そして、画像処理装置1を、通信ネットワークNWを介して他の画像処理装置1と接続し、互いにデータを送受信することにより、同一のゲーム空間内で同期して複数のプレイヤキャラクタを表示させることができる。従って、複数人が共同してゲームを進行させるマルチプレイが可能になっている。
[画像処理装置の機能的構成]
図2は、上述した画像処理装置1の機能的な構成を示すブロック図である。図2に示すように画像処理装置1は、本発明のゲームプログラムを実行することで、仮想ゲーム空間生成部40、キャラクタ制御部41,ゲーム進行制御部42,フレーム画像生成部43等の機能を実現することができる。このような各機能は、ハード的には図1に示すCPU10,HDD14,ROM15,RAM16,グラフィック処理部17,ビデオ変換部18,オーディオ合成部20,オーディオ変換部21,ネットワークインタフェース25等から構成されている。
仮想ゲーム空間生成部40は、所定の広がりを有する三次元の仮想ゲーム空間を生成する。即ち、ゲームデータ30bに含まれる、ポリゴン等を用いてモデリングされたオブジェクトやテクスチャ等のデータにより、ゲームが進行する舞台となる三次元の仮想ゲーム空間を生成する。
キャラクタ制御部41は、予めモデリングされたプレイヤキャラクタや敵キャラクタ等のキャラクタを、仮想ゲーム空間内に生成し、ユーザの操作やゲーム状況に応じてその動作を制御する。例えば、ユーザはコントローラ24を操作することにより、プレイヤキャラクタをゲーム空間100内で移動させたり、敵キャラクタに対して攻撃行動をさせたりすることができる。また、敵キャラクタを、予め設定された思考パターンに従って行動させる。
ゲーム進行制御部42は、ユーザの操作及びゲーム内時間の経過等に応じて、ゲームの進行を制御する。例えば、ユーザの操作によりプレイヤキャラクタが所定の行動を行った場合に、所定のイベントを発生させて一定期間だけ所定の動画を再生する。更に、ゲーム内時間の経過に応じて、仮想ゲーム空間の環境を変化させる。例えば、昼夜の変化に応じて周囲の明るさを変化させたり、夜になると街灯をつけたり、シチュエーションに応じて仮想ゲーム空間内にフォグを発生させたりする。
フレーム画像生成部43は、仮想ゲーム空間内の様子をモニタ19に表示すべく、仮想ゲーム空間を仮想カメラで撮影したときの二次元画像(フレーム画像)を生成する。このフレーム画像の生成は、例えば1秒間に30フレーム分実行され(30fps)、生成されたフレーム画像は順次モニタ19に表示される。
[フレーム画像生成処理の詳細]
次に、上記フレーム画像生成部43によるフレーム画像の生成処理について、特に、フォグの存在する仮想ゲーム空間を仮想カメラで撮影したときのフレーム画像を生成する処理について詳述する。図3は、1フレームごとに実行するフレーム画像の生成処理を説明するためのフローチャートである。画像処理装置1は、1フレームごとに仮想ゲーム空間を構成する各要素の設定(更新)を行い、続いて、設定済みの仮想ゲーム空間に基づいて二次元のフレーム画像を生成するためのレンダリング処理を行う。
具体的には、仮想ゲーム空間生成部40により、仮想ゲーム空間を構成するオブジェクトの設定(ステップS10)、光源及び仮想カメラの設定(ステップS11)、エフェクトの設定(ステップS12)などを行う。オブジェクトの設定(ステップS10)では、ポリゴン等を用いて予めモデリングされたオブジェクトについて、1フレーム経過後の位置、形状、テクスチャなどを決定する。光源の設定(ステップS11)では、1フレーム経過後の光源の位置、向き、光度などを決定し、仮想カメラの設定(ステップS11)では、1フレーム経過後の仮想カメラの位置、向き、画角などを決定する。エフェクトの設定(ステップS12)では、例えば火の粉を表現する各パーティクルの位置、色、寿命などを決定し、フォグを表現するテクスチャの色やブレンド率を決定したりする。
次に、上記のようにして設定した仮想ゲーム空間について、フレーム画像生成部43により、ソリッド処理(ステップS20)、抜き処理(ステップS21)、トランスペアレンシー処理(ステップS22)、エフェクト処理(ステップS23)、スクリーン処理(ステップS24)などを含むレンダリング処理を行い、RAM16等のメモリに用意されたフレームバッファに書き込むためのフレームデータを生成する。
ソリッド処理(ステップS20)では、建築物や敵キャラクタ等の不透明なオブジェクトを示すフレームデータを生成し、フレームバッファに書き込む。抜き処理(ステップS21)では、フレーム画像に含まれることとなる木の葉などの平面的なオブジェクトを示すフレームデータを生成し、フレームバッファに書き込む。トランスペアレンシー処理(ステップS22)では、透明なオブジェクトを示すフレームデータを生成し、フレームバッファに書き込む。エフェクト処理(ステップS23)では、火の粉などのパーティクルを示すフレームデータを生成し、フレームバッファに書き込む。また、フォグ用のテクスチャをブレンド率に応じて他のフレームデータと合成した結果を、フレームバッファに書き込む。スクリーン処理(ステップS24)では、仮想ゲーム空間を構成するオブジェクト等に対して最も仮想カメラに近い位置に表示する二次元画像(例えば、プレイヤキャラクタの体力ゲージ、キャラクタの発言内容を示す文字列等)を示すフレームデータを生成し、フレームバッファに書き込む。
なお、図3に示すフローチャートは、説明の便宜上、各処理を図示した順序で実行するように記載しているが、実際には、採用するレンダリング方法に応じて異なる順序で実行したり、複数の処理を同時に実行したりする場合もある。例えば、仮想カメラによってフォグを介してオブジェクトを撮影したときの当該オブジェクトのフレームデータを生成する場合は、これに関連するソリッド処理及びエフェクト処理を同時に実行し、当該オブジェクトの表面色とフォグ色との合成色が生成される。
[散乱光の表現]
ところで、本実施の形態に係る画像処理装置1では、フォグを介して高輝度のオブジェクトを見た場合を示すフレーム画像は、光の散乱現象を考慮した画像になっており、輝度が高いオブジェクトほど(より一般的には、色強度が強いオブジェクトほど)視認されやすいように表現される。このような表現は、フレーム画像生成部43が、フレーム画像を構成する各画素について、フォグ適用前の画素色とフォグ色とを所定のブレンド率に基づいて混合して表示色を決定する際に、輝度が高い画素ほどフォグ色の影響度が低くなるように設定することによって実現する。
より具体的に説明する。オブジェクトに関するフレームデータを生成する場合、当該オブジェクトを示す形状モデルを二次元投影面(モニタ19の表示領域に対応するスクリーン)に透視投影する。また、例えば公知のZバッファ法を用いて隠面消去処理を行うことで、仮想カメラに対してより近くに位置するオブジェクトにより隠される部分を消去する。更に、光源に関する情報に基づいてオブジェクト表面の輝度を決定するシェーディング処理や、シャドウイング処理(影付け)、及びテクスチャマッピングを行う。
ここで、隠面消去処理により、オブジェクトを構成する各ポリゴンにおいて表示されることとなった部分に対応する画素については、上記シェーディング処理、シャドウイング処理、及びテクスチャマッピングによって画素色が決定される。更に、Zバッファ法による隠面消去処理時に得られる深度値を用いて、この画素色に対してフォグ色を混合すると共に、当該画素の輝度に応じてフォグ色の影響度を変更することで、この画素の最終的な表示色を決定する。
この表示色の決定手順について、図4のフローチャートを参照して説明する。まず、Zバッファ法による隠面消去処理について概説しておく。Zバッファ法では、フレームバッファの全ての画素を背景色で初期化すると共に、Zバッファの全ての画素を最遠点(例えば、後方クリッピング面)で初期化する。次に、適宜選択したオブジェクトを構成するポリゴンを任意の順序で選択し、そのポリゴンを透視投影及び走査変換する。これによって判明するポリゴン内の部分に対応する各画素について、当該部分までの深度値(仮想カメラからの距離)を取得する。そして、この深度値がZバッファに記憶されている対応画素の値より小さければ、Zバッファの対応画素の値を、取得した深度値に更新する。また、これと共に、当該画素に対応するポリゴン部分の色に基づき、以下で図4を参照して説明するようにして表示色を決定し、フレームバッファの対応画素の色をこの表示色に更新する。一方で、取得した奥行き値が、Zバッファに記憶されている対応画素の値より大きければ、この画素についてはZバッファ及びフレームバッファの更新は行わない。
図4に示すように、各画素の表示色の決定処理では、表示対象となるオブジェクトにマッピングされるテクスチャデータから各画素の画素色を取得し(ステップS30)、予めゲームデータ30bに記憶されたフォグ色を取得する(ステップS31)。また、Zバッファを参照して各画素の深度値を取得する(ステップS32)。そして、この深度値に基づいて各画素に適用するフォグ混合率の決定(ステップS33)及び各画素の輝度(色強度)の決定(ステップS34)を行い、各画素に対する輝度混合率(色強度混合率)を決定する(ステップS35)。
ここで、「輝度」は本発明に係る色強度の一例であり、典型的には0〜1の範囲の数値データにより設定される。具体的には、輝度は、光源に関する情報に基づいてオブジェクト表面の輝度を決定する、既知のシェーディング処理により設定することができる。また、「輝度混合率」は本発明に係る色強度混合率の一例であり、各画素色に対する輝度の影響度(換言すれば、各画素に対するフォグ色の影響度)を指定するものであり、典型的には0〜1の範囲の数値データにより設定できる。この輝度混合率は、例えばシェーディング処理の結果により決定することができる。なお、フォグ混合率は、深度値が大きいほど高くなるように、これも0〜1の範囲の数値データとして予め設定されている。具体的には、仮想カメラからオブジェクトまでの距離が遠いほどフォグ色が高い割合で画素色に対して混合されるように、フォグ混合率は設定されている。また、フォグ色及びフォグ混合率は、一定値ではなく状況に応じて変化する情報として定義してもよく、そのようなフォグ色及びフォグ混合率は公知の技術によって取得(算出)することが可能である。
このようにして取得及び決定された画素色、フォグ色、フォグ混合率、輝度(色強度)、輝度混合率(色強度混合率)を用いて、下記の式(1)により、各画素の表示色を決定する(ステップS36)。
式(1)から分かるように、本実施の形態ではフォグが存在する仮想ゲーム空間の表示色を決定する際、単純に各画素に対して所定のフォグ混合率でフォグ色を混合するだけではなく、各画素の輝度(色強度)及び輝度混合率(色強度混合率)に応じた画素色を加算して表示色を決定する。例えば、輝度が十分に大きければ、「画素色」に乗算される値は「1」となるため、表示色は「画素色+フォグ色×フォグ混合率」となり、元の画素色が強く表現される。このように、高輝度の部分は、低輝度の部分に比べてフォグの影響度が小さくなり、フォグの中でもユーザに視認されやすいように表示される。従って、光の散乱現象を擬似的に表現でき、フォグのかかった仮想ゲーム空間を仮想カメラで撮影したときのフレーム画像を、よりリアルなものとすることができる。
図5は、比較例を示すフレーム画像である。図5中の「フォグなし」と付記された上側の画像は、フォグがない状態の仮想ゲーム空間を表す基準フレーム画像100である。また、「フォグあり1(本発明使用前)」と付記された下側の画像は、単純に各画素に対して所定のフォグ混合率でフォグ色を混合して表示色を決定し、この表示色を用いて基準フレーム画像100と同じ情景を表現し直した、比較例に係るフレーム画像101である。
フォグのない基準フレーム画像100では、町中の仮想ゲーム空間50が表示されている。この仮想ゲーム空間50では、中央の奥へ続く路地があり、その左右及び突き当たりに建物が配置され、路地には奥側へ向かう人型のキャラクタが配置されている。また、突き当たりの建物の上方にある窓P1, P2から、比較的輝度の高い光が漏れでている様子が表現されている。また、その更に上方には、建物の屋根に設置されたアンテナP3が低輝度の色で表現されている。
これに対して比較例に係るフレーム画像101では、低輝度のアンテナP3はもとより、高輝度で表現された窓P1, P2もが、フォグに埋没して視認できない画像になっている。なお、各フレーム画像100, 101において、右下のドアP4から漏れ出ている高輝度の明かりは、フォグの影響を完全に除去すべく、本発明とは関連性のない別個の処理により表現をしたものである(図6中のフレーム画像100, 102についても同様)。
図6は、実施例を示すフレーム画像である。図6中の「フォグなし」と付記された上側の画像は、図5と同じフォグがない状態の基準フレーム画像100である。また、「フォグあり2(本発明使用後)」と付記された下側の画像は、各画素の輝度を考慮して式(1)を用いて決定した表示色を用い、基準フレーム画像100と同じ情景を表現し直した、本発明を適用した実施例に係るフレーム画像102である。なお、比較例に係るフレーム画像101と、実施例に係るフレーム画像102とは、フォグ色及びフォグ混合率を同一に設定している。
基準フレーム画像100と比較すると、実施例に係るフレーム画像102は、低輝度で表現されたアンテナP3はフォグに埋没して視認できないが、高輝度で表現された窓P1, P2は、フォグの影響が低減されることにより、ユーザが視認できる程度に表現された画像になっている。このように、本発明を適用した実施例に係るフレーム画像102では、輝度が高い画素ほどフォグ色の影響が低減されており、光の散乱現象が擬似的に表現され、フォグの存在する仮想ゲーム空間をよりリアルに表現できている。
なお、表示色の決定手順中のステップS36で適用する式(1)に換えて、下記の式(2)を適用して表示色を決定することとしてもよい。この場合であっても、輝度等の色強度の高い画素へのフォグの影響を低減でき、よりリアルに仮想ゲーム空間を表現することができる。
また、本実施の形態では隠面消去処理においてZバッファ法を用いる場合について例示したが、これに限られず、例えばスキャンライン法など他のアルゴリズムを採用してもよい。何れの場合であっても、各画素の表示色を決定する際に、公知の手段を用いてフォグ色やフォグ混合率を取得した上で、例えば上記式(1)あるいは式(2)等を適用することにより、色強度の高い画素に対するフォグの影響度を相対的に低減して表示色を決定すればよい。
また、本実施の形態では「色強度」として輝度(カンデラ/平方メートル)を採用した場合を例示したが、これに限られない。例えば、RGB各色の階調を示す値(8ビットであれば各色の0〜255の値)の合計に基づいて設定してもよい。要は、現実世界にて霧を通じて視認しやすい色ほど、高い値となるように色強度を定めるのが好ましい。また、上述した説明では深度値に基づいて各画素に適用するフォグ混合率を決定する例を示したが(図4のステップS33)、このように仮想カメラからの距離に応じてフォグ濃度を決定する態様に限られない。例えば、仮想ゲーム空間において仮想カメラと表示対象となるオブジェクトとの間のフォグ濃度が一様でない場合であっても、本発明を適用することが可能である。
また、本発明は、水中の仮想空間を表す画像、「かすみ」や「もや」がかかった仮想空間を表す画像において、ぼかしを表現する場合にも適用することができる。また、フォグの影響度を予め決定しておき、その影響度に応じて表示色を決定することも可能である。例えば、フォグの影響度が大きい領域と小さい領域とを予め設定しておけば、各領域に応じて表示色を決定することが可能である。更に、色強度に基づくフォグ色の影響度の調整は、画素単位で行う他、ポリゴン単位やオブジェクト単位で行うこととしてもよい。
本発明は、ハードウェアの負担増を抑制しつつ、霧のかかった仮想ゲーム空間を仮想カメラで撮影したときのフレーム画像のリアリティを高めることのできるコンピュータプログラム及び画像処理装置に適用することができる。
1 画像処理装置
30a ゲームプログラム
30b ゲームデータ
40 ゲーム空間生成部
43 フレーム画像生成部

Claims (4)

  1. コンピュータを、
    フォグを有する仮想空間を仮想カメラで撮影した画像を生成する画像生成手段として機能させ、
    前記画像生成手段は、各画素について画素色とフォグ色とを混合した表示色を決定する際、色強度が高い画素ほどフォグ色の影響度を低くすることを特徴とするコンピュータプログラム。
  2. 前記画像生成手段は、下記の式(1)
    に基づいて前記表示色を決定することを特徴とする請求項1に記載のコンピュータプログラム。
  3. 前記色強度として輝度を用いることを特徴とする請求項2に記載のコンピュータプログラム。
  4. 請求項1乃至3の何れかに記載のコンピュータプログラムを記憶したプログラム記憶部と、該プログラム記憶部に記憶されたプログラムを実行するコンピュータと、を備えた、画像処理装置。
JP2012007730A 2012-01-18 2012-01-18 コンピュータプログラム及び画像処理装置 Pending JP2013146324A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012007730A JP2013146324A (ja) 2012-01-18 2012-01-18 コンピュータプログラム及び画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012007730A JP2013146324A (ja) 2012-01-18 2012-01-18 コンピュータプログラム及び画像処理装置

Publications (1)

Publication Number Publication Date
JP2013146324A true JP2013146324A (ja) 2013-08-01

Family

ID=49044521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012007730A Pending JP2013146324A (ja) 2012-01-18 2012-01-18 コンピュータプログラム及び画像処理装置

Country Status (1)

Country Link
JP (1) JP2013146324A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252426A (ja) * 2005-03-14 2006-09-21 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2006318386A (ja) * 2005-05-16 2006-11-24 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2006318389A (ja) * 2005-05-16 2006-11-24 Namco Bandai Games Inc プログラム、情報記憶媒体、及び画像生成システム
US20110018890A1 (en) * 2009-07-27 2011-01-27 Disney Enterprises, Inc. Computer graphics method for creating differing fog effects in lighted and shadowed areas

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252426A (ja) * 2005-03-14 2006-09-21 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2006318386A (ja) * 2005-05-16 2006-11-24 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2006318389A (ja) * 2005-05-16 2006-11-24 Namco Bandai Games Inc プログラム、情報記憶媒体、及び画像生成システム
US20110018890A1 (en) * 2009-07-27 2011-01-27 Disney Enterprises, Inc. Computer graphics method for creating differing fog effects in lighted and shadowed areas

Similar Documents

Publication Publication Date Title
JP3725524B2 (ja) コンピュータディスプレイ画像を生成する方法ならびに画像データを生成するコンピュータ処理システムおよびグラフィックスプロセッサ
US8237730B1 (en) Tone mapping for motion pictures
CN102542596B (zh) 顶点烘培三维动画扩充
US8411089B2 (en) Computer graphics method for creating differing fog effects in lighted and shadowed areas
EP2065854A1 (en) Image processing device, control method for image processing device and information recording medium
JP4804122B2 (ja) プログラム、テクスチャデータ構造、情報記憶媒体及び画像生成システム
JP4651527B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP2008027064A (ja) プログラム、情報記録媒体および画像生成システム
JP5256153B2 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2005149209A (ja) 複合現実感提示方法、複合現実感提示装置
JP4995054B2 (ja) ゲームプログラム、そのゲームプログラムを記録した記録媒体及びコンピュータ
JP3639286B2 (ja) ゲームプログラム、及びゲーム装置
McDermott Creating 3D Game Art for the iPhone with Unity: Featuring modo and Blender pipelines
JP2006252426A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2009140135A5 (ja)
JP4827250B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP4199817B1 (ja) 画像生成装置、画像生成方法、および、プログラム
JP2013146324A (ja) コンピュータプログラム及び画像処理装置
JP2001143100A (ja) 三次元ビデオグラフィックスシステムにおける深度ぼかし効果提供方法および装置
JP2007328460A (ja) 画像生成プログラム
JP4566120B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP2010033302A (ja) 画像生成システム、プログラム及び情報記憶媒体
JP4086002B2 (ja) プログラム、画像処理装置及び方法、並びに記録媒体
JP2005275795A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2006277488A (ja) プログラム、情報記憶媒体及び画像生成システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160426