JP4929380B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP4929380B2 JP4929380B2 JP2010154372A JP2010154372A JP4929380B2 JP 4929380 B2 JP4929380 B2 JP 4929380B2 JP 2010154372 A JP2010154372 A JP 2010154372A JP 2010154372 A JP2010154372 A JP 2010154372A JP 4929380 B2 JP4929380 B2 JP 4929380B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- virtual space
- predetermined object
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000000034 method Methods 0.000 claims description 57
- 230000003247 decreasing effect Effects 0.000 claims description 12
- 230000002093 peripheral effect Effects 0.000 claims description 11
- 230000003287 optical effect Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 238000013500 data storage Methods 0.000 description 9
- 230000015654 memory Effects 0.000 description 6
- 230000007423 decrease Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Description
本発明は画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
仮想空間の様子を表す画像を表示手段に表示させる画像処理装置が知られている。例えば、ゲーム空間の様子を表すゲーム画面を表示手段に表示させるゲーム装置が知られている。 There is known an image processing apparatus that displays an image representing a state of a virtual space on a display unit. For example, a game device that displays a game screen representing the state of the game space on a display means is known.
上記のような画像処理装置では、例えば、暗闇や霧などによって仮想空間における視界が悪いが故に仮想空間内の物やキャラクタをおぼろげにしか認識できない様子を表現したい場合がある。 In the image processing apparatus as described above, for example, there is a case where it is desired to express a state where an object or character in the virtual space can be recognized only in an involuntary manner due to poor visibility in the virtual space due to darkness or fog.
本発明は上記課題に鑑みてなされたものであって、その目的は、例えば、暗闇や霧などによって仮想空間における視界が悪いが故に仮想空間内の物やキャラクタをおぼろげにしか認識できない様子を好適に表現することが可能な画像処理装置、画像処理方法、及びプログラムを提供することにある。 The present invention has been made in view of the above problems, and the purpose thereof is, for example, suitable for a state in which objects and characters in the virtual space can be recognized only in a dull manner due to poor visibility in the virtual space due to darkness, fog, etc. The present invention provides an image processing apparatus, an image processing method, and a program that can be expressed as follows.
上記課題を解決するために、本発明に係る画像処理装置は、仮想空間の様子を表す画像を表示手段に表示させる画像処理装置において、前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成手段と、前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得手段と、前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に関する情報に基づいて増減する輝度変更手段と、前記輝度変更手段によって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行手段と、前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成手段と、前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御手段と、を含むことを特徴とする。 In order to solve the above problems, an image processing apparatus according to the present invention removes a predetermined object from objects arranged in the virtual space in the image processing apparatus that displays an image representing a state of the virtual space on a display unit. The first image generating means for generating a first image representing the appearance of the virtual space as viewed from the viewpoint as a grayscale image, and information regarding the distance from the viewpoint for each pixel of the first image is acquired. Distance information obtaining means for performing, and a luminance changing means for increasing or decreasing the luminance of the pixel of the first image based on information on a difference in luminance between the pixel and a peripheral pixel of the pixel or / and information on the difference in distance. A blurring process / pixel shifting process execution unit that applies at least one of a blurring process and a pixel shifting process to the first image whose pixel brightness has been increased or decreased by the brightness changing unit. And, when the predetermined object is included in the target area of the virtual space, a second image generating means for generating a second image representing the state of the predetermined object when the virtual space is viewed from the viewpoint, Display control means for causing the display means to display an image formed by combining the first image and the second image so as to distort the predetermined object represented in the second image. And
また、本発明に係る画像処理方法は、仮想空間の様子を表す画像を表示手段に表示させる画像処理方法において、前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成ステップと、前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得ステップと、前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に基づいて増減する輝度変更ステップと、前記輝度変更ステップによって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行ステップと、前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成ステップと、前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御ステップと、を含むことを特徴とする。 The image processing method according to the present invention is the image processing method in which an image representing the state of the virtual space is displayed on the display unit, wherein the predetermined space is removed from the objects arranged in the virtual space. A first image generation step of generating a first image representing a state of viewing from a viewpoint as a grayscale image, and a distance information acquisition step of acquiring information on the distance from the viewpoint for each pixel of the first image; A luminance changing step for increasing / decreasing the luminance of a pixel of the first image based on a difference in luminance between the pixel and a peripheral pixel of the pixel or / and a difference in the distance; and A blurring process / pixel shifting process executing step of performing at least one of a blurring process and a pixel shifting process on the first image whose luminance has been increased or decreased; A second image generating step for generating a second image representing a state of the predetermined object when the virtual space is viewed from the viewpoint when the predetermined object is included in a target area of the space; A display control step of causing the display means to display an image obtained by combining the second image with the predetermined object represented by the second image so as to be distorted.
また、本発明に係るプログラムは、仮想空間の様子を表す画像を表示手段に表示させる画像処理装置としてコンピュータを機能させるためのプログラムであって、前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成手段、前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得手段、前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に基づいて増減する輝度変更手段、前記輝度変更手段によって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行手段、前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成手段、及び、前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御手段、として前記コンピュータを機能させるためのプログラムである。 The program according to the present invention is a program for causing a computer to function as an image processing apparatus for displaying an image representing a state of a virtual space on a display unit, and is a predetermined object among objects arranged in the virtual space. The first image generation means for generating a first image representing the state of the virtual space as viewed from the viewpoint as a grayscale image, and information on the distance from the viewpoint for each pixel of the first image. Distance information acquisition means for acquiring, luminance change means for increasing / decreasing the luminance of a pixel of the first image based on a difference in luminance between the pixel and a peripheral pixel of the pixel and / or a difference in the distance, the luminance Blur process / pixel shift process for applying at least one of a blur process and a pixel shift process to the first image whose pixel brightness has been increased or decreased by the changing means A second image generation unit configured to generate a second image representing a state of the predetermined object when the virtual space is viewed from the viewpoint when the predetermined object is included in a target area of the virtual space; The computer is used as display control means for causing the display means to display an image formed by combining the first image and the second image so as to distort the predetermined object represented in the second image. It is a program to make it function.
また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。 An information storage medium according to the present invention is a computer-readable information storage medium recording the above program.
本発明によれば、例えば、暗闇や霧などによって仮想空間における視界が悪いが故に仮想空間内の物やキャラクタをおぼろげにしか認識できない様子を好適に表現することが可能になる。 According to the present invention, for example, it is possible to suitably express a state in which an object or character in the virtual space can be recognized only in a dull manner because the visibility in the virtual space is poor due to darkness, fog, or the like.
また本発明の一態様では、前記表示制御手段は、前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを前記対象領域の基準点から離れるにつれて歪みの程度が大きくなるように歪ませて合成してなる前記画像を前記表示手段に表示させるようにしてもよい。 Also, in one aspect of the present invention, the display control unit causes the first image and the second image to have a degree of distortion as the predetermined object represented in the second image moves away from the reference point of the target region. The display unit may display the image obtained by distorting and synthesizing so as to increase.
また本発明の一態様では、前記第2画像生成手段は、前記仮想空間内の音源位置を取得する手段と、前記音源位置に基づいて前記対象領域を設定する手段と、前記対象領域の大きさを時間経過に伴って増やす手段と、を含むようにしてもよい。 In the aspect of the invention, the second image generation unit includes a unit that acquires a sound source position in the virtual space, a unit that sets the target region based on the sound source position, and a size of the target region. And a means for increasing the value with time.
以下、本発明の実施形態の例について図面に基づき詳細に説明する。ここでは、画像処理装置の一態様であるゲーム装置に本発明を適用した場合について説明する。本発明の実施形態に係るゲーム装置は、例えば家庭用ゲーム機(据置型ゲーム機)、携帯ゲーム機、携帯電話機、携帯情報端末(PDA)、又はパーソナルコンピュータなどによって実現される。ここでは、本発明の実施形態に係るゲーム装置を家庭用ゲーム機によって実現する場合について説明する。 Hereinafter, examples of embodiments of the present invention will be described in detail with reference to the drawings. Here, a case where the present invention is applied to a game device which is an aspect of an image processing device will be described. The game device according to the embodiment of the present invention is realized by, for example, a home game machine (stationary game machine), a portable game machine, a mobile phone, a personal digital assistant (PDA), or a personal computer. Here, a case where the game device according to the embodiment of the present invention is realized by a consumer game machine will be described.
図1は、本発明の実施形態に係るゲーム装置(画像処理装置)のハードウェア構成を示す。図1に示すゲーム装置10は、家庭用ゲーム機11、表示部32、音声出力部34、及び光ディスク36(情報記憶媒体)を含む。表示部32及び音声出力部34は家庭用ゲーム機11に接続される。表示部32としては例えば家庭用テレビ受像機又は液晶ディスプレイなどが用いられ、音声出力部34としては例えば家庭用テレビ受像機に内蔵されたスピーカ又はヘッドホンなどが用いられる。
FIG. 1 shows a hardware configuration of a game device (image processing device) according to an embodiment of the present invention. A
家庭用ゲーム機11は公知のコンピュータシステムである。家庭用ゲーム機11は、バス12、制御部14、主記憶16、画像処理部18、入出力処理部20、音声処理部22、光ディスクドライブ24、ハードディスク26、通信インタフェース28、及びコントローラ30を含む。
The home game machine 11 is a known computer system. The home game machine 11 includes a
制御部14は一又は複数のマイクロプロセッサを含む。制御部14は、光ディスク36から読み出されるプログラムに基づいて、各部の制御処理や情報処理を実行する。主記憶16は例えばRAMを含み、光ディスク36から読み出されたプログラム及びデータが主記憶16に書き込まれる。主記憶16は制御部14の作業用メモリとしても用いられる。バス12はアドレス及びデータを家庭用ゲーム機11の各部でやり取りするためのものである。
The
画像処理部18はVRAMを含み、制御部14から供給される画像データに基づいてVRAM上に画面を描画する。VRAM上に描画された画面はビデオ信号に変換されて所定のタイミングで表示部32に出力される。
The
入出力処理部20は、制御部14が音声処理部22、光ディスクドライブ24、ハードディスク26、通信インタフェース28、及びコントローラ30にアクセスするためのインタフェースである。音声処理部22はサウンドバッファを含み、光ディスク36からサウンドバッファに読み出された音声データを音声出力部34から出力する。通信インタフェース28は、インターネットなどの通信ネットワークに家庭用ゲーム機11を有線又は無線接続するためのインタフェースである。
The input /
光ディスクドライブ24は光ディスク36に記録されたプログラムやデータを読み取る。家庭用ゲーム機11では各種ゲームが光ディスク36に記録されたプログラムに基づいて実行される。ここでは、プログラムやデータを家庭用ゲーム機11に供給するために光ディスク36を用いるが、メモリカード等、他の情報記憶媒体を用いるようにしてもよい。また、例えば通信ネットワークを介して遠隔地からプログラムやデータを家庭用ゲーム機11に供給するようにしてもよい。ハードディスク26は一般的なハードディスク装置(補助記憶装置)である。光ディスク36に記憶されることとして説明するプログラムやデータはハードディスク26に記憶されていてもよい。
The
コントローラ30はユーザが操作を行うための操作部である。入出力処理部20は一定周期毎(例えば1/60秒ごと)にコントローラ30の各操作部材の状態をスキャンし、そのスキャン結果を表す操作信号をバス12を介して制御部14に供給する。制御部14は操作信号に基づいてユーザの操作を判定する。
The
以下では、暗闇や霧などによって仮想空間(ゲーム空間)における視界が悪いが故に仮想空間内の物やキャラクタをおぼろげにしか認識できない様子を好適に表現するための技術について説明する。なお、ここでは、聴力に優れているゲームキャラクタが暗闇の中に置かれた物の存在を音を頼りに認識しながら暗闇の中を移動していくゲームがゲーム装置10で実行される例について説明する。
In the following, a technique for suitably expressing a state in which objects and characters in the virtual space can be recognized only in an involuntary manner due to poor visibility in the virtual space (game space) due to darkness, fog, or the like will be described. Here, an example in which a game in which a game character that excels in hearing is moving in the dark while recognizing the presence of an object placed in the dark using sound is executed on the
図2は仮想空間の一例を示す。図2に示す仮想空間40は、互いに直交する三つの座標軸(Xw軸、Yw軸、及びZw軸)が設定された仮想的な3次元空間になっている。仮想空間40に配置されるオブジェクトの位置などはこれら三つの座標軸の座標値によって特定される。
FIG. 2 shows an example of a virtual space. The
図2に示す仮想空間40には、床を表すオブジェクトである床42が配置されている。また、床42上には、壁を表すオブジェクトである壁44と、ロッカー(戸棚)を表すオブジェクトであるロッカー46a,46bとが配置されている。床42、壁44及びロッカー46a,46bは配置位置が変化しない静的オブジェクトである。なお、以下では、ロッカー46a,46bのことを総称して「ロッカー46」と記載する場合がある。
In the
さらに、床42上には、ユーザによって操作されるキャラクタオブジェクトであるユーザキャラクタ48と、敵キャラクタを表すオブジェクトである敵キャラクタ50と、が配置されている。ユーザキャラクタ48はユーザの操作に従って仮想空間40内を移動する。一方、敵キャラクタ50は所定のアルゴリズムに従って自律的に仮想空間40内を移動する。ユーザキャラクタ48及び敵キャラクタ50は配置位置や姿勢が変化する動的オブジェクトである。
Furthermore, a
ユーザキャラクタ48が敵キャラクタ50から攻撃を受けると、ユーザキャラクタ48の体力パラメータが減少する。このため、ユーザはユーザキャラクタ48が敵キャラクタ50からの攻撃を受けないように留意しながらユーザキャラクタ48を移動させる。
When the
仮想空間40には仮想カメラ52(視点)が設定される。図2に示す例では、仮想カメラ52がユーザキャラクタ48の後方かつ上方に設定されている。仮想カメラ52はユーザキャラクタ48の移動に従って移動する。
A virtual camera 52 (viewpoint) is set in the
仮想カメラ52から見た仮想空間40を表す画面が表示部32に表示される。図3は表示部32に表示される画面の一例を示す。図3に示す画面には床42、壁44、ユーザキャラクタ48、及び敵キャラクタ50が表示されている。なお、図3において画面の大部分に付された斜線は、仮想空間40が暗いことを表している。また、図3では床42、壁44、及び敵キャラクタ50が点線で表されている。これは、画面に床42、壁44、及び敵キャラクタ50がおぼろげに表示されることを示している。暗い仮想空間40内における床42、壁44、及び敵キャラクタ50をおぼろげに表示するための技術については後述する(図7のステップS102〜S108参照)。
A screen representing the
図3に示す画面にはロッカー46a,46bが表示されていない。図3に示す画面は、ユーザキャラクタ48がロッカー46a,46bの存在(輪郭や形状)を認識できていない状態を表している。このゲームでは、例えば、床42又は壁44を叩いた場合などに発生する音によってユーザキャラクタ48がロッカー46の存在を認識するようになっている。
The
図4はユーザキャラクタ48によるロッカー46の存在の認識について説明するための図である。図4に示すように、音が発生した場合には音源位置54が設定される。例えば、ユーザキャラクタ48が壁44を叩いたことによって音が発生した場合には、ユーザキャラクタ48が叩いた位置が音源位置54に設定される。
FIG. 4 is a diagram for explaining the recognition of the presence of the locker 46 by the
音源位置54が設定されると、音源位置54に基づいて音領域56が設定される。例えば、音領域56は音源位置54を中心とする球状領域である。音領域56は音の伝搬を表しており、音領域56は時間経過に伴って大きくなっていく。つまり、音領域56の半径(r)は時間経過に伴って所定の初期値(例えば0)から所定の最大値(R)まで徐々に大きくなっていく。そして、音領域56の半径(r)が最大値(R)になると、音領域56は消滅する。なお、ここでは音領域56が球状領域であることとして説明するが、音領域56は球状領域以外の領域であってもよい。
When the
音領域56の表面がロッカー46と接触した場合(言い換えれば、音領域56内にロッカー46に含まれる場合)、そのロッカー46の存在がユーザキャラクタ48によって認識されたことになり、そのロッカー46は画面に表示される。例えば、図4に示す例では、ロッカー46aが音領域56と接触しているため、ロッカー46aが画面に表示される。図5は、この場合に表示部32に表示される画面の一例を示す。図5に示す画面には、ユーザキャラクタ48が認識したロッカー46aが表示されている。なお、ロッカー46aはおぼろげに表示されるようになっている。ユーザキャラクタ48が認識したロッカー46aをおぼろげに表示するための技術については後述する(図7のステップS111,S112参照)。
When the surface of the
以下、以上に説明したような画面を表示するための構成について説明する。図6は、ゲーム装置10で実現される機能ブロックのうち、本発明に関連する機能ブロックを主として示す機能ブロック図である。図6に示すように、ゲーム装置10は、データ記憶部60、第1画像生成部62、距離情報取得部64、輝度変更部66、ぼかし処理/画像ずらし処理実行部68、第2画像生成部70、及び表示制御部72を含む。
Hereinafter, a configuration for displaying the screen as described above will be described. FIG. 6 is a functional block diagram mainly showing functional blocks related to the present invention among the functional blocks realized by the
データ記憶部60は例えば主記憶16及び光ディスク36によって実現される。データ記憶部60は各種データを記憶する。例えば、仮想空間40に配置される各オブジェクトの形状データがデータ記憶部60に記憶される。また、静的オブジェクト(例えば、床42、壁44、及びロッカー46)の位置データがデータ記憶部60に記憶される。
The
さらに、ゲームの状況を示すゲーム状況データがデータ記憶部60に記憶される。例えば、下記に示すようなデータがゲーム状況データに含まれる。
[1]ユーザキャラクタ48及び敵キャラクタ50の状態データ(例えば位置、姿勢、移動方向、及び移動速度など)
[2]ユーザキャラクタ48のパラメータデータ(例えば体力パラメータ)
[3]仮想カメラ52の状態データ(例えば位置、視線方向、及び画角)
[4]音領域フラグ、音源位置54、及び音領域56の半径(r)
Further, game situation data indicating the game situation is stored in the
[1] State data of the
[2] Parameter data of the user character 48 (for example, physical fitness parameter)
[3] State data of the virtual camera 52 (for example, position, line-of-sight direction, and angle of view)
[4] Radius (r) of sound area flag,
なお、音領域フラグは、音領域56が発生中であるか否かを示す情報、言い換えれば、音源位置54で発生した音が伝搬中である否かを示す情報である。音領域フラグは「0」又は「1」の値をとる。値「0」は音領域56が発生中でないことを示し、値「1」は音領域56が発生中であることを示す。また、音領域56が発生中である場合には、音領域56の基準位置である音源位置54と、音領域56の現在の半径(r)と、がゲーム状況データの一部として記憶される。
The sound region flag is information indicating whether the
データ記憶部60以外の機能ブロックは、制御部14が光ディスク36に記憶されたプログラムに従って処理を実行することによって実現される。図7は、制御部14が所定時間(例えば1/60秒)ごとに実行する処理のうち、本発明に関連する処理の一例を主に示すフロー図である。以下、図7に示す処理を説明しながら、データ記憶部60以外の機能ブロックの動作について説明する。
Functional blocks other than the
図7に示すように、まず制御部14はゲーム状況データを更新する(S101)。例えば、制御部14はユーザキャラクタ48の状態データをユーザの操作に基づいて更新し、敵キャラクタ50の状態データを所定のアルゴリズムに基づいて更新する。また、制御部14は仮想カメラ52の状態データも更新する。
As shown in FIG. 7, first, the
また例えば、制御部14は、ユーザキャラクタ48が敵キャラクタ50から攻撃を受けたか否かを判定する。そして、ユーザキャラクタ48が敵キャラクタ50から攻撃を受けた場合、制御部14はユーザキャラクタ48のパラメータデータ(例えば体力パラメータ)を更新する。
For example, the
また例えば、制御部14は音発生条件が満足されたか否かを判定する。「音発生条件」は、例えば、ユーザキャラクタ48が壁44などを叩いたか否かの条件である。音発生条件が満足された場合、制御部14は音源位置54をゲーム状況データの一部として記憶させるとともに、音領域フラグを「0」から「1」に更新する。また、音領域フラグが「1」である場合、制御部14は、ゲーム状況データの一部として記憶される音領域56の半径(r)を更新する。上述したように、制御部14は、音領域56の半径(r)を時間経過に伴って徐々に増加することによって、音領域56の大きさを時間経過に伴って徐々に増やす。なお、音領域56の半径(r)が最大値(R)になると、音領域フラグは「1」から「0」に更新される。
For example, the
ステップS101の処理が実行された後、制御部14(第1画像生成部62)は、仮想カメラ52から見た仮想空間40の様子を表す背景画像(第1画像)をVRAM上に生成する(S102)。このとき、仮想空間40に配置されるオブジェクトのうち、所定オブジェクトが取り除かれている。また、背景画像はグレースケールの画像として生成される。
After the processing of step S101 is executed, the control unit 14 (first image generation unit 62) generates a background image (first image) representing the state of the
本実施形態の場合、ロッカー46(所定オブジェクト)が仮想空間40から取り除かれる。また、ユーザキャラクタ48及び敵キャラクタ50も仮想空間40から取り除かれる。そして、それらのオブジェクトが取り除かれてなる仮想空間40を仮想カメラ52から見た様子を表す画像が背景画像として生成される。
In the case of this embodiment, the locker 46 (predetermined object) is removed from the
この場合、仮想空間40から取り除かれないオブジェクト(例えば床42や壁44など)にマッピングされるテクスチャ画像は、そのテクスチャ画像の各画素の輝度に基づいてグレースケールの画像に変換される。そして、グレースケールに変換されたテクスチャ画像に基づいて背景画像が生成される。その結果、背景画像はグレースケールの画像になる。図8(A)は、ステップS102で生成される背景画像の一例を示す模式図である。
In this case, a texture image mapped to an object that is not removed from the virtual space 40 (for example, the
ステップS102の処理が実行された後、制御部14(距離情報取得部64)は、ステップS102で生成された背景画像(第1画像)の距離情報(深度情報)を取得する(S103)。制御部14は、背景画像の各画素について、仮想カメラ52からの距離に関する距離情報を取得する。この距離情報は、画素に表示される仮想空間40内の位置と、仮想カメラ52の位置と、の間の距離に関する情報である。例えば、壁44上の一点が表示される画素の場合、壁44上の該点と仮想カメラ52の位置との間の距離に関する情報が取得される。なお、上記距離は仮想カメラ52から視線方向への奥行き(深さ)に相当するため、以下では上記距離のことを「深度」と記載する。例えば、深度は0〜255の数値で表される。
After the process of step S102 is executed, the control unit 14 (distance information acquisition unit 64) acquires the distance information (depth information) of the background image (first image) generated in step S102 (S103). The
ステップS103の処理が実行された後、制御部14(輝度変更部66)は、ステップS102で生成された背景画像(第1画像)の画素の輝度を変更する(S104)。制御部14は、背景画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度差又は/及び深度差に関する情報に基づいて増減する。
After the process of step S103 is executed, the control unit 14 (luminance changing unit 66) changes the luminance of the pixel of the background image (first image) generated in step S102 (S104). The
ステップS104では、例えば、周辺画素との間の輝度差が大きい画素の輝度が元々の輝度よりも高くなるように(言い換えれば、より白くなるように)変更される。この場合、画素(対象画素)とその周辺画素との間の輝度差が大きいか否かは下記に説明するようにして判定される。まず、制御部14は対象画素の周辺画素の輝度の平均を算出する。「対象画素の周辺画素」は、例えば、「対象画素を中心とする縦:m(例えば3)画素×横:n(例えば3)画素の領域」に含まれるm×n個の画素のうちの対象画素以外の画素である。そして、制御部14は、対象画素の輝度と、周辺画素の輝度の平均と、の間の差が第1基準値よりも大きいか否かを判定する。上記差が第1基準値よりも大きい場合、制御部14は対象画素とその周辺画素との間の輝度差が大きいと判定し、対象画素の輝度を元々の輝度よりも高くなるように変更する。
In step S104, for example, the luminance of the pixel having a large luminance difference with the surrounding pixels is changed so as to be higher than the original luminance (in other words, whiter). In this case, whether or not the luminance difference between the pixel (target pixel) and its surrounding pixels is large is determined as described below. First, the
またステップS104では、例えば、周辺画素との間の輝度差が小さい画素の輝度が元々の輝度よりも低くなるように(言い換えれば、より黒くなるように)変更される。この場合、画素(対象画素)とその周辺画素との間の輝度差が小さいか否かは下記に説明するようにして判定される。まず、制御部14は対象画素の周辺画素の輝度の平均を算出する。その後、制御部14は、対象画素の輝度と、周辺画素の輝度の平均と、の間の差が第2基準値よりも小さいか否かを判定する。そして、上記差が第2基準値よりも小さい場合、制御部14は対象画素と周辺画素との間の輝度差が小さいと判定し、対象画素の輝度を元々の輝度よりも低くなるように変更する。
Further, in step S104, for example, the brightness of a pixel having a small brightness difference with the surrounding pixels is changed to be lower than the original brightness (in other words, to be blacker). In this case, whether or not the luminance difference between the pixel (target pixel) and its surrounding pixels is small is determined as described below. First, the
またステップS104では、例えば、周辺画素との間の深度差が大きい画素の輝度が元々の輝度よりも高くなるように(言い換えれば、より白くなるように)変更される。この場合、画素(対象画素)とその周辺画素との間の深度差が大きいか否かは下記に説明するようにして判定される。まず、制御部14は対象画素の周辺画素の深度の平均を算出する。その後、制御部14は、対象画素の深度と、周辺画素の深度の平均と、の間の差が第3基準値よりも大きいか否かを判定する。そして、上記差が第3基準値よりも大きい場合、制御部14は対象画素と周辺画素との間の深度差が大きいと判定し、対象画素の輝度を元々の輝度よりも高くなるように変更する。
In step S104, for example, the luminance of a pixel having a large depth difference from surrounding pixels is changed so as to be higher than the original luminance (in other words, whiter). In this case, whether or not the depth difference between the pixel (target pixel) and its surrounding pixels is large is determined as described below. First, the
またステップS104では、例えば、周辺画素との間の深度差が小さい画素の輝度が元々の輝度よりも低くなるように(言い換えれば、より黒くなるように)変更される。この場合、画素(対象画素)とその周辺画素との間の深度差が小さいか否かは下記に説明するようにして判定される。まず、制御部14は対象画素の周辺画素の深度の平均を算出する。その後、制御部14は、対象画素の深度と、周辺画素の深度の平均と、の間の差が第4基準値よりも小さいか否かを判定する。そして、上記差が第4基準値よりも小さい場合、制御部14は対象画素と周辺画素との間の深度差が小さいと判定し、対象画素の輝度を元々の輝度よりも低くなるように変更する。
In step S104, for example, the luminance of the pixel having a small depth difference from the surrounding pixels is changed to be lower than the original luminance (in other words, to be blacker). In this case, whether or not the depth difference between the pixel (target pixel) and its surrounding pixels is small is determined as described below. First, the
ステップS104の処理が実行される結果として、背景画像において、輝度や深度が大きく変化する部分、つまり各オブジェクトの境界(輪郭)部分が強調され、それ以外の部分はぼかされる。 As a result of the execution of the process of step S104, a portion where the brightness and depth greatly change in the background image, that is, a boundary (contour) portion of each object is emphasized, and the other portions are blurred.
ステップS104の処理が実行された後、制御部14(ぼかし処理/画像ずらし処理実行部68)は、ステップS104で画素の輝度が変更された背景画像(第1画像)にぼかし処理を施す(S105)。ここでは一般的なぼかし処理が用いられる。さらに、制御部14(ぼかし処理/画像ずらし処理実行部68)は、ステップS105でぼかし処理が施された背景画像(第1画像)に画素ずらし処理を施す(S106)。 After the process of step S104 is executed, the control unit 14 (blurring process / image shifting process executing unit 68) performs a blurring process on the background image (first image) in which the luminance of the pixel is changed in step S104 (S105). ). Here, a general blurring process is used. Further, the control unit 14 (blurring process / image shifting process execution unit 68) performs a pixel shifting process on the background image (first image) subjected to the blurring process in step S105 (S106).
図9は画素ずらし処理の一例について説明するための図である。本実施形態の場合、制御部14は、背景画像80の画素82を正弦波に基づいて所定方向にずらす。具体的には、各画素82に正弦波の振幅値が関連づけられる。図9に示す例では、各画素列84ごとに正弦波の振幅値が関連づけられている。そして、制御部14は、画素82を、その画素82に関連づけられた振幅値に対応する画素数だけ上方向又は下方向にずらす。振幅値が正の値である場合に画素82は上方向にずらされ、振幅値が負の値である場合に画素82は下方向にずらされる。なお、各画素行86ごとに正弦波の振幅値が関連づけるようにしてもよい。また制御部14は、画素82を、その画素82に関連づけられた振幅値に対応する画素数だけ右方向又は左方向にずらすようにしてもよい。
FIG. 9 is a diagram for explaining an example of the pixel shifting process. In the present embodiment, the
さらに、本実施形態の場合、ステップS106で画素ずらし処理が施された背景画像に対して、前フレームにおいて生成された背景画像(ぼかし処理及び画素ずらし処理が施された背景画像)が半透明合成される。 Further, in the case of the present embodiment, the background image generated in the previous frame (background image subjected to the blurring process and the pixel shifting process) is translucently combined with the background image subjected to the pixel shifting process in step S106. Is done.
ステップS106の処理が実行された後、制御部14は敵キャラクタ画像をVRAM上に生成する(S107)。ステップS107では、例えば、敵キャラクタ50が床42や壁44とともに配置された仮想空間40を仮想カメラ52から見た様子を表す画像が敵キャラクタ画像として生成される。この敵キャラクタ画像では、敵キャラクタ50が描画された部分以外の部分が透明に設定される。図8(B)は、ステップS107で生成される敵キャラクタ画像の一例を示す模式図である。
After the process of step S106 is executed, the
なお、ステップS107では、仮想カメラ52の位置、視線方向、及び画角が、ステップS102における仮想カメラ52の位置、視線方向、及び画角と同じに設定される。また、ステップS107では、ライティングが、敵キャラクタ50のうちの、光源からの光が当たっている部分が青白くなり、かつ、敵キャラクタ50のうちの、光源からの光が当たっていない部分が黒くなるように設定される。さらに、敵キャラクタ画像は、ステップS102で生成される背景画像よりも低い解像度の画像として生成される。例えば、ステップS102で生成される背景画像の解像度は「1024×600」に設定され、敵キャラクタ画像の解像度は「128×90」に設定される。
In step S107, the position, line-of-sight direction, and angle of view of the
ステップS107の処理が実行された後、制御部14は、ステップS106で画素ずらし処理が施された背景画像に対して、ステップS107で生成された敵キャラクタ画像を半透明合成する(S108)。この場合、敵キャラクタ画像はぼかし処理が施され、かつ、背景画像と同じ大きさまで伸張された状態で背景画像に半透明合成される。ステップS107,S108の処理が実行される結果として、敵キャラクタ50のうちの、光源からの光が当たっている部分のみが青白く表示されるようになり、敵キャラクタ50が画面におぼろげに表示されることになる。
After the process of step S107 is executed, the
ステップS108の処理が実行された後、制御部14はユーザキャラクタ画像を生成する(S109)。ステップS109では、ユーザキャラクタ48が床42、壁44、及び敵キャラクタ50とともに配置された仮想空間40を仮想カメラ52から見た様子を表す画像がユーザキャラクタ画像として生成される。なお、この場合、仮想カメラ52の位置、視線方向、及び画角は、ステップS102における仮想カメラ52の位置、視線方向、及び画角と同じに設定される。また、このユーザキャラクタ画像では、ユーザキャラクタ48が描画された部分以外の部分が透明に設定される。図8(C)は、ステップS109で生成されるユーザキャラクタ画像の一例を示す模式図である。
After the process of step S108 is executed, the
ステップS109の処理が実行された後、制御部14は音領域フラグが「1」であるか否かを判定する(S110)。音領域フラグが「1」である場合、すなわち、音領域56が発生中である場合、制御部14(第2画像生成部70)はロッカー画像(第2画像)を生成する(S111)。すなわち、制御部14は、音領域56(対象領域)内に含まれるロッカー46(所定オブジェクト)の画像を生成する。
After the process of step S109 is executed, the
ステップS111では、まず、音領域56がゲーム状況データに基づいて特定される。さらに、音領域56内に含まれるロッカー46が検出される。例えば、ロッカー46の全体又は一部が音領域56内に含まれる場合、そのロッカー46は音領域56内に含まれると判断される。そして、音領域56内に含まれるロッカー46が床42、壁44、ユーザキャラクタ48、及び敵キャラクタ50とともに配置された仮想空間40を仮想カメラ52から見た様子を表す画像がロッカー画像として生成される。
In step S111, first, the
なお、この場合、仮想カメラ52の位置、視線方向、及び画角は、ステップS102における仮想カメラ52の位置、視線方向、及び画角と同じに設定される。また、この場合、ロッカー46には、歪んだ空間内に配置されたロッカーを表現するべく予め作成されたテクスチャ画像がマッピングされる。また、ここで生成されるロッカー画像では、ロッカー46が描画された部分以外の部分が透明に設定される。図8(D)は、ステップS111で生成されるロッカー画像の一例を示す模式図である。
In this case, the position, line-of-sight direction, and angle of view of the
ステップS111の処理が実行された後、制御部14(表示制御部72)は表示部32に表示する画像を生成する(S112)。制御部14は、ステップS108で敵キャラクタ画像が半透明合成された背景画像(第1画像)と、ステップS111で生成されたロッカー画像(第2画像)とを合成してなる画像を生成する。なお、「ステップS108で敵キャラクタ画像が半透明合成された背景画像」は、「背景画像と敵キャラクタ画像とを半透明合成してなる画像」と言い換えることができる。
After the process of step S111 is performed, the control part 14 (display control part 72) produces | generates the image displayed on the display part 32 (S112). The
背景画像とロッカー画像とを半透明合成する場合、制御部14は、背景画像とロッカー画像とを、ロッカー画像に表されるロッカー46を歪ませるようにして半透明合成する。すなわち、制御部14はロッカー画像を歪ませ、歪んだロッカー画像を背景画像と半透明合成する。また、ロッカー画像を歪ませる場合、制御部14は、音源位置54(音領域56の基準位置)から離れるにつれて歪みの程度が大きくなるようにして、ロッカー画像を歪ませる。
When the background image and the locker image are translucently combined, the
なお、ロッカー画像に表されるロッカー46を歪ませるための処理としては様々な処理を用いることができる。例えば、制御部14は画素ずらし処理をロッカー画像に施すことによって、ロッカー画像に表されるロッカー46を歪ませる。またこの場合、制御部14は、音源位置54から離れるにつれてずらしの程度が大きくなるようにして、画素ずらし処理をロッカー画像に施す。さらにこの場合、画素をずらす方向は一定方向としてもよいし、ステップS106と同様に、正弦波に基づいて、画素をずらす方向が決定されるようにしてもよい。
Various processes can be used as a process for distorting the rocker 46 represented in the rocker image. For example, the
さらに、ステップS112において、制御部14は、背景画像とロッカー画像とを半透明合成してなる画像に対して、ステップS109で生成されたユーザキャラクタ画像を合成する。そして、このようにして生成された画像が表示部32に表示される。
Further, in step S112, the
一方、音領域フラグが「1」でない場合、ステップS111の処理を実行せずに、制御部14(表示制御部72)は表示部32に表示する画像を生成する(S112)。この場合のステップS112では、ステップS108で敵キャラクタ画像が半透明合成された背景画像に対して、ステップS109で生成されたユーザキャラクタ画像が合成される。そして、こうして生成された画像が表示部32に表示される。
On the other hand, when the sound region flag is not “1”, the control unit 14 (display control unit 72) generates an image to be displayed on the
以上に説明したゲーム装置10(画像処理装置)では、図7のステップS102〜S108の処理が実行されることによって、暗い仮想空間40内における床42、壁44、及び敵キャラクタ50をおぼろげに画面に表示される。また、図7のステップS111,S112の処理が実行されることによって、ユーザキャラクタ48が音を頼りに認識したロッカー46がおぼろげに画面に表示される。ゲーム装置10によれば、暗闇内で音を頼りに物(ロッカー46)の存在を認識するが故に物の存在をおぼろげにしか認識できないことを好適に表現できるようになる。
In the game apparatus 10 (image processing apparatus) described above, the screen of the
なお、本発明は以上に説明した実施の形態に限定されるものではない。 The present invention is not limited to the embodiment described above.
(1)例えば、図7のステップS105,S106の一方を省略するようにしてもよい。例えば、図7のステップS105は省略するようにしてもよい。 (1) For example, one of steps S105 and S106 in FIG. 7 may be omitted. For example, step S105 in FIG. 7 may be omitted.
(2)また例えば、ユーザキャラクタ48が過去に認識したロッカー46(すなわち、過去に音領域56内に含まれたことがあるロッカー46)は、音領域56に含まれていない場合であっても、画面に表示されるようにしてもよい。
(2) For example, even if the rocker 46 recognized by the
この場合、図7のステップS101では、ユーザキャラクタ48が過去に認識したことがないロッカー46(すなわち、過去に音領域56に含まれたことがないロッカー46)が仮想空間40から取り除かれる。また、ユーザキャラクタ48及び敵キャラクタ50も仮想空間40から取り除かれる。そして、それらのオブジェクトが取り除かれてなる仮想空間40を仮想カメラ52から見た様子を表す画像が背景画像として生成される。また、図7のステップS111では、音領域56(対象領域)内に含まれるロッカー46であって、それまでユーザキャラクタ48が認識していなかったロッカー46(つまり、それまで音領域56内に含まれたことがなかったロッカー46)の画像が生成される。
In this case, in step S101 in FIG. 7, the rocker 46 that the
(3)また例えば、仮想空間40には、ロッカー46以外の物を表すオブジェクトが配置されるようにしてもよい。例えば、他の家具(ベッド、テーブル、又はいすなど)を表すオブジェクトが配置されるようにしてもよい。また例えば、家具以外の物を表すオブジェクトが配置されるようにしてもよい。これらのオブジェクトに関してはロッカー46と同様に処理を実行するようにすればよい。
(3) Further, for example, an object representing an object other than the locker 46 may be arranged in the
(4)以上では、ユーザキャラクタ48が暗闇の中で音を頼りに物(ロッカー46)の存在を認識するゲームに本発明を適用した例について説明したが、例えば、ユーザキャラクタ48が暗闇の中でペンライトなどの弱い光を頼りに物の存在を認識するゲームにも本発明を適用することができる。
(4) In the above, an example in which the present invention is applied to a game in which the
この場合、音領域56の代わりに、ペンライトの光が届く領域を示す光領域を設定するようにすればよい。この場合、光領域の基準位置は光源位置(ペンライト又はユーザキャラクタの位置)となり、光領域は光源位置に基づいて設定される。例えば、光源位置を中心とする所定半径の球状領域が光領域として設定される。
In this case, instead of the
このようにすれば、暗闇内で弱い光を頼りに物の存在を認識するが故に物の存在をおぼろげにしか認識できないことを好適に表現できるようになる。 In this way, it is possible to suitably express that the existence of an object can be recognized only in a dull manner because it recognizes the existence of the object by relying on weak light in the dark.
(5)以上では、ユーザキャラクタ48が暗闇の中を移動するゲームに本発明を適用した例について説明したが、例えば、ゲームキャラクタが深い霧の中を移動するゲームにも本発明は適用することができる。本発明は、視界の悪い仮想空間(見通しの悪い仮想空間)内をゲームキャラクタが移動するゲームに適用することができる。
(5) In the above description, the example in which the present invention is applied to a game in which the
なお、例えば、ゲームキャラクタが深い霧の中を移動するゲームの場合、そのような状況に応じたオブジェクトが仮想空間40に配置される。例えば、床42の代わりに、地面を表すオブジェクトが配置される。また例えば、ロッカー46の代わりに、例えば、宝箱を表すオブジェクトが配置される。
For example, in the case of a game in which a game character moves in a deep fog, objects corresponding to such a situation are arranged in the
(6)また例えば、仮想カメラ52(視点)はユーザキャラクタ48の目の位置に設定されるようにしてもよい。
(6) Further, for example, the virtual camera 52 (viewpoint) may be set at the eye position of the
(7)また例えば、本発明はゲーム装置10以外の画像処理装置に適用することができる。本発明は、仮想空間の様子を表す画像を生成する画像処理装置に適用することができる。
(7) Further, for example, the present invention can be applied to an image processing apparatus other than the
10 ゲーム装置、11 家庭用ゲーム機、12 バス、14 制御部、16 主記憶、18 画像処理部、20 入出力処理部、22 音声処理部、24 光ディスクドライブ、26 ハードディスク、28 通信インタフェース、30 コントローラ、32 表示部、34 音声出力部、36 光ディスク、40 仮想空間、42 床、44 壁、46a,46b ロッカー、48 ユーザキャラクタ、50 敵キャラクタ、52 仮想カメラ、54 音源位置、56 音領域、60 データ記憶部、62 第1画像生成部、64 距離情報取得部、66 輝度変更部、68 ぼかし処理/画素ずらし処理実行部、70 第2画像生成部、72 表示制御部、80 背景画像、82 画素、84 画素列、86 画素行。
DESCRIPTION OF
Claims (5)
前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成手段と、
前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得手段と、
前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に関する情報に基づいて増減する輝度変更手段と、
前記輝度変更手段によって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行手段と、
前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成手段と、
前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御手段と、
を含むことを特徴とする画像処理装置。 In an image processing apparatus that displays an image representing a state of a virtual space on a display unit,
First image generation means for generating, as a grayscale image, a first image representing a state in which the virtual space obtained by removing a predetermined object from the objects arranged in the virtual space is viewed from a viewpoint;
Distance information acquisition means for acquiring information about the distance from the viewpoint for each pixel of the first image;
Brightness changing means for increasing or decreasing the brightness of the pixel of the first image based on information on a difference in brightness between the pixel and a peripheral pixel of the pixel or / and information on the difference in the distance;
A blurring process / pixel shifting process executing means for performing at least one of a blurring process and a pixel shifting process on the first image whose pixel brightness has been increased or decreased by the brightness changing unit;
A second image generating unit configured to generate a second image representing a state of the predetermined object when the virtual space is viewed from the viewpoint when the predetermined object is included in a target area of the virtual space;
Display control means for causing the display means to display an image obtained by combining the first image and the second image so as to distort the predetermined object represented in the second image;
An image processing apparatus comprising:
前記表示制御手段は、前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを前記対象領域の基準点から離れるにつれて歪みの程度が大きくなるように歪ませて合成してなる前記画像を前記表示手段に表示させることを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The display control means distorts the first image and the second image so that the degree of distortion increases as the predetermined object represented in the second image moves away from the reference point of the target area. An image processing apparatus, wherein the combined image is displayed on the display means.
前記第2画像生成手段は、
前記仮想空間内の音源位置を取得する手段と、
前記音源位置に基づいて前記対象領域を設定する手段と、
前記対象領域の大きさを時間経過に伴って増やす手段と、を含む、
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
The second image generation means includes
Means for obtaining a sound source position in the virtual space;
Means for setting the target region based on the sound source position;
Means for increasing the size of the target area with time,
An image processing apparatus.
前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成ステップと、
前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得ステップと、
前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に基づいて増減する輝度変更ステップと、
前記輝度変更ステップによって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行ステップと、
前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成ステップと、
前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御ステップと、
を含むことを特徴とする画像処理方法。 In an image processing method for displaying an image representing a state of a virtual space on a display means,
A first image generation step of generating a first image representing a state in which the virtual space obtained by removing a predetermined object from the objects arranged in the virtual space is viewed from a viewpoint as a grayscale image;
A distance information acquisition step for acquiring information regarding the distance from the viewpoint for each pixel of the first image;
A luminance changing step for increasing or decreasing the luminance of the pixel of the first image based on a luminance difference between the pixel and a peripheral pixel of the pixel or / and a difference in the distance;
A blurring process / pixel shifting process performing step of performing at least one of a blurring process and a pixel shifting process on the first image in which the brightness of the pixels has been increased or decreased by the brightness changing step;
A second image generation step of generating a second image representing a state of the predetermined object when the virtual space is viewed from the viewpoint when the predetermined object is included in the target area of the virtual space;
A display control step for causing the display means to display an image formed by combining the first image and the second image so as to distort the predetermined object represented in the second image;
An image processing method comprising:
前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成手段、
前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得手段、
前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に基づいて増減する輝度変更手段、
前記輝度変更手段によって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行手段、
前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成手段、及び、
前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御手段、
として前記コンピュータを機能させるためのプログラム。 A program for causing a computer to function as an image processing device that displays an image representing a state of a virtual space on a display means,
First image generation means for generating, as a grayscale image, a first image representing a state in which the virtual space obtained by removing a predetermined object from the objects arranged in the virtual space is viewed from a viewpoint;
Distance information acquisition means for acquiring information related to the distance from the viewpoint for each pixel of the first image;
A luminance changing means for increasing or decreasing the luminance of the pixel of the first image based on a difference in luminance between the pixel and a peripheral pixel of the pixel or / and a difference in the distance;
Blur processing / pixel shift processing execution means for performing at least one of blur processing and pixel shift processing on the first image in which the brightness of the pixels is increased or decreased by the brightness change means;
A second image generating unit configured to generate a second image representing a state of the predetermined object when the virtual space is viewed from the viewpoint when the predetermined object is included in a target area of the virtual space; and
Display control means for causing the display means to display an image formed by combining the first image and the second image so as to distort the predetermined object represented in the second image;
A program for causing the computer to function as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010154372A JP4929380B2 (en) | 2010-07-06 | 2010-07-06 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010154372A JP4929380B2 (en) | 2010-07-06 | 2010-07-06 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012018491A JP2012018491A (en) | 2012-01-26 |
JP4929380B2 true JP4929380B2 (en) | 2012-05-09 |
Family
ID=45603708
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010154372A Active JP4929380B2 (en) | 2010-07-06 | 2010-07-06 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4929380B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6403650B2 (en) * | 2015-09-18 | 2018-10-10 | 日本電信電話株式会社 | Aerial image rendering device, control method thereof, and program |
CN113965664B (en) * | 2020-07-20 | 2024-02-09 | 武汉Tcl集团工业研究院有限公司 | Image blurring method, storage medium and terminal equipment |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4409719B2 (en) * | 2000-05-09 | 2010-02-03 | 株式会社バンダイナムコゲームス | GAME DEVICE AND INFORMATION STORAGE MEDIUM |
JP3456648B2 (en) * | 2001-09-27 | 2003-10-14 | 株式会社ナムコ | PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE |
WO2005110567A2 (en) * | 2004-05-10 | 2005-11-24 | Nintendo Co., Ltd. | Video game including effects for providing different first person experiences of the same video game world and a storage medium storing software for the video game |
JP2005319189A (en) * | 2004-05-11 | 2005-11-17 | Namco Ltd | Program, information storage medium and image generation system |
JP4015644B2 (en) * | 2004-05-31 | 2007-11-28 | 株式会社ソニー・コンピュータエンタテインメント | Image processing apparatus and image processing method |
-
2010
- 2010-07-06 JP JP2010154372A patent/JP4929380B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012018491A (en) | 2012-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106383587B (en) | Augmented reality scene generation method, device and equipment | |
US9652063B2 (en) | Input direction determination system, terminal, server, network system, information storage medium, and input direction determination method | |
US8520901B2 (en) | Image generation system, image generation method, and information storage medium | |
JP5026692B2 (en) | Image processing apparatus, image processing method, and program | |
JP3442270B2 (en) | Image generating apparatus and information storage medium | |
JP2009237680A (en) | Program, information storage medium, and image generation system | |
WO2004045734A1 (en) | Game image display control program, game device, and recording medium | |
KR20010042671A (en) | Image displaying device, image processing device, image displaying system | |
JP2013097473A (en) | Game processing system, game processing method, game processing device, and game processing program | |
JP5913709B1 (en) | Image generation apparatus, image generation method, and image generation program | |
JP2018147002A (en) | Image processing program, image processing system, image processing apparatus and image processing method | |
JP5236674B2 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
US20120306869A1 (en) | Game device, image display device, stereoscopic image display method and computer-readable non-volatile information recording medium storing program | |
JP2011186834A (en) | Game program, recording medium, and computer device | |
JP7116410B2 (en) | Program and image generation system | |
JP2008077372A (en) | Image processor, control method for image processor and program | |
JP4929380B2 (en) | Image processing apparatus, image processing method, and program | |
JP5256153B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP3639286B2 (en) | GAME PROGRAM AND GAME DEVICE | |
JP4847594B2 (en) | Image generating apparatus, image generating method, and program | |
JP2003203250A (en) | Shooting game device and information storage medium | |
JP4847572B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP3646988B2 (en) | GAME DEVICE, GAME SCREEN DISPLAY METHOD, AND PROGRAM | |
JP6960968B2 (en) | Programs and servers | |
JP2005050070A (en) | Image processing device, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120131 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120213 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150217 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4929380 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |