JP4929380B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP4929380B2
JP4929380B2 JP2010154372A JP2010154372A JP4929380B2 JP 4929380 B2 JP4929380 B2 JP 4929380B2 JP 2010154372 A JP2010154372 A JP 2010154372A JP 2010154372 A JP2010154372 A JP 2010154372A JP 4929380 B2 JP4929380 B2 JP 4929380B2
Authority
JP
Japan
Prior art keywords
image
pixel
virtual space
predetermined object
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010154372A
Other languages
Japanese (ja)
Other versions
JP2012018491A (en
Inventor
和弥 足立
記央 花輪
寛之 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2010154372A priority Critical patent/JP4929380B2/en
Publication of JP2012018491A publication Critical patent/JP2012018491A/en
Application granted granted Critical
Publication of JP4929380B2 publication Critical patent/JP4929380B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は画像処理装置、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

仮想空間の様子を表す画像を表示手段に表示させる画像処理装置が知られている。例えば、ゲーム空間の様子を表すゲーム画面を表示手段に表示させるゲーム装置が知られている。   There is known an image processing apparatus that displays an image representing a state of a virtual space on a display unit. For example, a game device that displays a game screen representing the state of the game space on a display means is known.

特開2001−314647号公報JP 2001-314647 A

上記のような画像処理装置では、例えば、暗闇や霧などによって仮想空間における視界が悪いが故に仮想空間内の物やキャラクタをおぼろげにしか認識できない様子を表現したい場合がある。   In the image processing apparatus as described above, for example, there is a case where it is desired to express a state where an object or character in the virtual space can be recognized only in an involuntary manner due to poor visibility in the virtual space due to darkness or fog.

本発明は上記課題に鑑みてなされたものであって、その目的は、例えば、暗闇や霧などによって仮想空間における視界が悪いが故に仮想空間内の物やキャラクタをおぼろげにしか認識できない様子を好適に表現することが可能な画像処理装置、画像処理方法、及びプログラムを提供することにある。   The present invention has been made in view of the above problems, and the purpose thereof is, for example, suitable for a state in which objects and characters in the virtual space can be recognized only in a dull manner due to poor visibility in the virtual space due to darkness, fog, etc. The present invention provides an image processing apparatus, an image processing method, and a program that can be expressed as follows.

上記課題を解決するために、本発明に係る画像処理装置は、仮想空間の様子を表す画像を表示手段に表示させる画像処理装置において、前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成手段と、前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得手段と、前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に関する情報に基づいて増減する輝度変更手段と、前記輝度変更手段によって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行手段と、前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成手段と、前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御手段と、を含むことを特徴とする。   In order to solve the above problems, an image processing apparatus according to the present invention removes a predetermined object from objects arranged in the virtual space in the image processing apparatus that displays an image representing a state of the virtual space on a display unit. The first image generating means for generating a first image representing the appearance of the virtual space as viewed from the viewpoint as a grayscale image, and information regarding the distance from the viewpoint for each pixel of the first image is acquired. Distance information obtaining means for performing, and a luminance changing means for increasing or decreasing the luminance of the pixel of the first image based on information on a difference in luminance between the pixel and a peripheral pixel of the pixel or / and information on the difference in distance. A blurring process / pixel shifting process execution unit that applies at least one of a blurring process and a pixel shifting process to the first image whose pixel brightness has been increased or decreased by the brightness changing unit. And, when the predetermined object is included in the target area of the virtual space, a second image generating means for generating a second image representing the state of the predetermined object when the virtual space is viewed from the viewpoint, Display control means for causing the display means to display an image formed by combining the first image and the second image so as to distort the predetermined object represented in the second image. And

また、本発明に係る画像処理方法は、仮想空間の様子を表す画像を表示手段に表示させる画像処理方法において、前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成ステップと、前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得ステップと、前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に基づいて増減する輝度変更ステップと、前記輝度変更ステップによって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行ステップと、前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成ステップと、前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御ステップと、を含むことを特徴とする。   The image processing method according to the present invention is the image processing method in which an image representing the state of the virtual space is displayed on the display unit, wherein the predetermined space is removed from the objects arranged in the virtual space. A first image generation step of generating a first image representing a state of viewing from a viewpoint as a grayscale image, and a distance information acquisition step of acquiring information on the distance from the viewpoint for each pixel of the first image; A luminance changing step for increasing / decreasing the luminance of a pixel of the first image based on a difference in luminance between the pixel and a peripheral pixel of the pixel or / and a difference in the distance; and A blurring process / pixel shifting process executing step of performing at least one of a blurring process and a pixel shifting process on the first image whose luminance has been increased or decreased; A second image generating step for generating a second image representing a state of the predetermined object when the virtual space is viewed from the viewpoint when the predetermined object is included in a target area of the space; A display control step of causing the display means to display an image obtained by combining the second image with the predetermined object represented by the second image so as to be distorted.

また、本発明に係るプログラムは、仮想空間の様子を表す画像を表示手段に表示させる画像処理装置としてコンピュータを機能させるためのプログラムであって、前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成手段、前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得手段、前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に基づいて増減する輝度変更手段、前記輝度変更手段によって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行手段、前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成手段、及び、前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御手段、として前記コンピュータを機能させるためのプログラムである。   The program according to the present invention is a program for causing a computer to function as an image processing apparatus for displaying an image representing a state of a virtual space on a display unit, and is a predetermined object among objects arranged in the virtual space. The first image generation means for generating a first image representing the state of the virtual space as viewed from the viewpoint as a grayscale image, and information on the distance from the viewpoint for each pixel of the first image. Distance information acquisition means for acquiring, luminance change means for increasing / decreasing the luminance of a pixel of the first image based on a difference in luminance between the pixel and a peripheral pixel of the pixel and / or a difference in the distance, the luminance Blur process / pixel shift process for applying at least one of a blur process and a pixel shift process to the first image whose pixel brightness has been increased or decreased by the changing means A second image generation unit configured to generate a second image representing a state of the predetermined object when the virtual space is viewed from the viewpoint when the predetermined object is included in a target area of the virtual space; The computer is used as display control means for causing the display means to display an image formed by combining the first image and the second image so as to distort the predetermined object represented in the second image. It is a program to make it function.

また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。   An information storage medium according to the present invention is a computer-readable information storage medium recording the above program.

本発明によれば、例えば、暗闇や霧などによって仮想空間における視界が悪いが故に仮想空間内の物やキャラクタをおぼろげにしか認識できない様子を好適に表現することが可能になる。   According to the present invention, for example, it is possible to suitably express a state in which an object or character in the virtual space can be recognized only in a dull manner because the visibility in the virtual space is poor due to darkness, fog, or the like.

また本発明の一態様では、前記表示制御手段は、前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを前記対象領域の基準点から離れるにつれて歪みの程度が大きくなるように歪ませて合成してなる前記画像を前記表示手段に表示させるようにしてもよい。   Also, in one aspect of the present invention, the display control unit causes the first image and the second image to have a degree of distortion as the predetermined object represented in the second image moves away from the reference point of the target region. The display unit may display the image obtained by distorting and synthesizing so as to increase.

また本発明の一態様では、前記第2画像生成手段は、前記仮想空間内の音源位置を取得する手段と、前記音源位置に基づいて前記対象領域を設定する手段と、前記対象領域の大きさを時間経過に伴って増やす手段と、を含むようにしてもよい。   In the aspect of the invention, the second image generation unit includes a unit that acquires a sound source position in the virtual space, a unit that sets the target region based on the sound source position, and a size of the target region. And a means for increasing the value with time.

本発明の実施形態に係るゲーム装置(画像処理装置)のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the game device (image processing apparatus) which concerns on embodiment of this invention. 仮想空間の一例を示す図である。It is a figure which shows an example of virtual space. 表示部に表示される画面の一例を示す模式図である。It is a schematic diagram which shows an example of the screen displayed on a display part. ユーザキャラクタによるロッカーの認識について説明するための図である。It is a figure for demonstrating recognition of the locker by a user character. 表示部に表示される画面の他の一例を示す模式図である。It is a schematic diagram which shows another example of the screen displayed on a display part. 本発明の実施形態に係るゲーム装置(画像処理装置)の機能ブロック図である。It is a functional block diagram of the game device (image processing device) according to the embodiment of the present invention. ゲーム装置で実行される処理の一例を示すフロー図である。It is a flowchart which shows an example of the process performed with a game device. 処理の過程で生成される画像の一例を示す模式図である。It is a schematic diagram which shows an example of the image produced | generated in the process of a process. 画像ずらし処理の一例について説明するための図である。It is a figure for demonstrating an example of an image shift process.

以下、本発明の実施形態の例について図面に基づき詳細に説明する。ここでは、画像処理装置の一態様であるゲーム装置に本発明を適用した場合について説明する。本発明の実施形態に係るゲーム装置は、例えば家庭用ゲーム機(据置型ゲーム機)、携帯ゲーム機、携帯電話機、携帯情報端末(PDA)、又はパーソナルコンピュータなどによって実現される。ここでは、本発明の実施形態に係るゲーム装置を家庭用ゲーム機によって実現する場合について説明する。   Hereinafter, examples of embodiments of the present invention will be described in detail with reference to the drawings. Here, a case where the present invention is applied to a game device which is an aspect of an image processing device will be described. The game device according to the embodiment of the present invention is realized by, for example, a home game machine (stationary game machine), a portable game machine, a mobile phone, a personal digital assistant (PDA), or a personal computer. Here, a case where the game device according to the embodiment of the present invention is realized by a consumer game machine will be described.

図1は、本発明の実施形態に係るゲーム装置(画像処理装置)のハードウェア構成を示す。図1に示すゲーム装置10は、家庭用ゲーム機11、表示部32、音声出力部34、及び光ディスク36(情報記憶媒体)を含む。表示部32及び音声出力部34は家庭用ゲーム機11に接続される。表示部32としては例えば家庭用テレビ受像機又は液晶ディスプレイなどが用いられ、音声出力部34としては例えば家庭用テレビ受像機に内蔵されたスピーカ又はヘッドホンなどが用いられる。   FIG. 1 shows a hardware configuration of a game device (image processing device) according to an embodiment of the present invention. A game apparatus 10 shown in FIG. 1 includes a consumer game machine 11, a display unit 32, an audio output unit 34, and an optical disc 36 (information storage medium). The display unit 32 and the audio output unit 34 are connected to the consumer game machine 11. As the display unit 32, for example, a home television receiver or a liquid crystal display is used, and as the audio output unit 34, for example, a speaker or headphones incorporated in the home television receiver is used.

家庭用ゲーム機11は公知のコンピュータシステムである。家庭用ゲーム機11は、バス12、制御部14、主記憶16、画像処理部18、入出力処理部20、音声処理部22、光ディスクドライブ24、ハードディスク26、通信インタフェース28、及びコントローラ30を含む。   The home game machine 11 is a known computer system. The home game machine 11 includes a bus 12, a control unit 14, a main memory 16, an image processing unit 18, an input / output processing unit 20, an audio processing unit 22, an optical disk drive 24, a hard disk 26, a communication interface 28, and a controller 30. .

制御部14は一又は複数のマイクロプロセッサを含む。制御部14は、光ディスク36から読み出されるプログラムに基づいて、各部の制御処理や情報処理を実行する。主記憶16は例えばRAMを含み、光ディスク36から読み出されたプログラム及びデータが主記憶16に書き込まれる。主記憶16は制御部14の作業用メモリとしても用いられる。バス12はアドレス及びデータを家庭用ゲーム機11の各部でやり取りするためのものである。   The control unit 14 includes one or a plurality of microprocessors. The control unit 14 executes control processing and information processing of each unit based on a program read from the optical disc 36. The main memory 16 includes, for example, a RAM, and a program and data read from the optical disk 36 are written into the main memory 16. The main memory 16 is also used as a working memory for the control unit 14. The bus 12 is for exchanging addresses and data among the units of the consumer game machine 11.

画像処理部18はVRAMを含み、制御部14から供給される画像データに基づいてVRAM上に画面を描画する。VRAM上に描画された画面はビデオ信号に変換されて所定のタイミングで表示部32に出力される。   The image processing unit 18 includes a VRAM, and draws a screen on the VRAM based on the image data supplied from the control unit 14. The screen drawn on the VRAM is converted into a video signal and output to the display unit 32 at a predetermined timing.

入出力処理部20は、制御部14が音声処理部22、光ディスクドライブ24、ハードディスク26、通信インタフェース28、及びコントローラ30にアクセスするためのインタフェースである。音声処理部22はサウンドバッファを含み、光ディスク36からサウンドバッファに読み出された音声データを音声出力部34から出力する。通信インタフェース28は、インターネットなどの通信ネットワークに家庭用ゲーム機11を有線又は無線接続するためのインタフェースである。   The input / output processing unit 20 is an interface for the control unit 14 to access the audio processing unit 22, the optical disk drive 24, the hard disk 26, the communication interface 28, and the controller 30. The sound processing unit 22 includes a sound buffer, and outputs sound data read from the optical disc 36 to the sound buffer from the sound output unit 34. The communication interface 28 is an interface for connecting the consumer game machine 11 to a communication network such as the Internet by wire or wireless.

光ディスクドライブ24は光ディスク36に記録されたプログラムやデータを読み取る。家庭用ゲーム機11では各種ゲームが光ディスク36に記録されたプログラムに基づいて実行される。ここでは、プログラムやデータを家庭用ゲーム機11に供給するために光ディスク36を用いるが、メモリカード等、他の情報記憶媒体を用いるようにしてもよい。また、例えば通信ネットワークを介して遠隔地からプログラムやデータを家庭用ゲーム機11に供給するようにしてもよい。ハードディスク26は一般的なハードディスク装置(補助記憶装置)である。光ディスク36に記憶されることとして説明するプログラムやデータはハードディスク26に記憶されていてもよい。   The optical disk drive 24 reads programs and data recorded on the optical disk 36. In the consumer game machine 11, various games are executed based on a program recorded on the optical disc 36. Here, the optical disc 36 is used to supply the program and data to the consumer game machine 11, but other information storage media such as a memory card may be used. Further, for example, a program or data may be supplied to the consumer game machine 11 from a remote place via a communication network. The hard disk 26 is a general hard disk device (auxiliary storage device). Programs and data described as being stored in the optical disk 36 may be stored in the hard disk 26.

コントローラ30はユーザが操作を行うための操作部である。入出力処理部20は一定周期毎(例えば1/60秒ごと)にコントローラ30の各操作部材の状態をスキャンし、そのスキャン結果を表す操作信号をバス12を介して制御部14に供給する。制御部14は操作信号に基づいてユーザの操作を判定する。   The controller 30 is an operation unit for a user to perform an operation. The input / output processing unit 20 scans the state of each operation member of the controller 30 at regular intervals (for example, every 1/60 seconds) and supplies an operation signal representing the scan result to the control unit 14 via the bus 12. The control unit 14 determines a user operation based on the operation signal.

以下では、暗闇や霧などによって仮想空間(ゲーム空間)における視界が悪いが故に仮想空間内の物やキャラクタをおぼろげにしか認識できない様子を好適に表現するための技術について説明する。なお、ここでは、聴力に優れているゲームキャラクタが暗闇の中に置かれた物の存在を音を頼りに認識しながら暗闇の中を移動していくゲームがゲーム装置10で実行される例について説明する。   In the following, a technique for suitably expressing a state in which objects and characters in the virtual space can be recognized only in an involuntary manner due to poor visibility in the virtual space (game space) due to darkness, fog, or the like will be described. Here, an example in which a game in which a game character that excels in hearing is moving in the dark while recognizing the presence of an object placed in the dark using sound is executed on the game device 10. explain.

図2は仮想空間の一例を示す。図2に示す仮想空間40は、互いに直交する三つの座標軸(Xw軸、Yw軸、及びZw軸)が設定された仮想的な3次元空間になっている。仮想空間40に配置されるオブジェクトの位置などはこれら三つの座標軸の座標値によって特定される。   FIG. 2 shows an example of a virtual space. The virtual space 40 shown in FIG. 2 is a virtual three-dimensional space in which three coordinate axes (Xw axis, Yw axis, and Zw axis) orthogonal to each other are set. The position of the object arranged in the virtual space 40 is specified by the coordinate values of these three coordinate axes.

図2に示す仮想空間40には、床を表すオブジェクトである床42が配置されている。また、床42上には、壁を表すオブジェクトである壁44と、ロッカー(戸棚)を表すオブジェクトであるロッカー46a,46bとが配置されている。床42、壁44及びロッカー46a,46bは配置位置が変化しない静的オブジェクトである。なお、以下では、ロッカー46a,46bのことを総称して「ロッカー46」と記載する場合がある。   In the virtual space 40 shown in FIG. 2, a floor 42 that is an object representing the floor is arranged. On the floor 42, a wall 44, which is an object representing a wall, and lockers 46a, 46b, which are objects representing lockers (cupboards), are arranged. The floor 42, the wall 44, and the lockers 46a and 46b are static objects whose arrangement positions do not change. Hereinafter, the lockers 46a and 46b may be collectively referred to as “locker 46”.

さらに、床42上には、ユーザによって操作されるキャラクタオブジェクトであるユーザキャラクタ48と、敵キャラクタを表すオブジェクトである敵キャラクタ50と、が配置されている。ユーザキャラクタ48はユーザの操作に従って仮想空間40内を移動する。一方、敵キャラクタ50は所定のアルゴリズムに従って自律的に仮想空間40内を移動する。ユーザキャラクタ48及び敵キャラクタ50は配置位置や姿勢が変化する動的オブジェクトである。   Furthermore, a user character 48 that is a character object operated by the user and an enemy character 50 that is an object representing an enemy character are arranged on the floor 42. The user character 48 moves in the virtual space 40 according to the user's operation. On the other hand, the enemy character 50 autonomously moves in the virtual space 40 according to a predetermined algorithm. The user character 48 and the enemy character 50 are dynamic objects whose arrangement positions and postures change.

ユーザキャラクタ48が敵キャラクタ50から攻撃を受けると、ユーザキャラクタ48の体力パラメータが減少する。このため、ユーザはユーザキャラクタ48が敵キャラクタ50からの攻撃を受けないように留意しながらユーザキャラクタ48を移動させる。   When the user character 48 is attacked by the enemy character 50, the physical strength parameter of the user character 48 decreases. For this reason, the user moves the user character 48 while paying attention so that the user character 48 is not attacked by the enemy character 50.

仮想空間40には仮想カメラ52(視点)が設定される。図2に示す例では、仮想カメラ52がユーザキャラクタ48の後方かつ上方に設定されている。仮想カメラ52はユーザキャラクタ48の移動に従って移動する。   A virtual camera 52 (viewpoint) is set in the virtual space 40. In the example shown in FIG. 2, the virtual camera 52 is set behind and above the user character 48. The virtual camera 52 moves according to the movement of the user character 48.

仮想カメラ52から見た仮想空間40を表す画面が表示部32に表示される。図3は表示部32に表示される画面の一例を示す。図3に示す画面には床42、壁44、ユーザキャラクタ48、及び敵キャラクタ50が表示されている。なお、図3において画面の大部分に付された斜線は、仮想空間40が暗いことを表している。また、図3では床42、壁44、及び敵キャラクタ50が点線で表されている。これは、画面に床42、壁44、及び敵キャラクタ50がおぼろげに表示されることを示している。暗い仮想空間40内における床42、壁44、及び敵キャラクタ50をおぼろげに表示するための技術については後述する(図7のステップS102〜S108参照)。   A screen representing the virtual space 40 viewed from the virtual camera 52 is displayed on the display unit 32. FIG. 3 shows an example of a screen displayed on the display unit 32. The floor 42, the wall 44, the user character 48, and the enemy character 50 are displayed on the screen shown in FIG. In FIG. 3, hatched lines on most of the screen indicate that the virtual space 40 is dark. In FIG. 3, the floor 42, the wall 44, and the enemy character 50 are represented by dotted lines. This indicates that the floor 42, the wall 44, and the enemy character 50 are displayed on the screen in a dull manner. A technique for displaying the floor 42, the wall 44, and the enemy character 50 in the dark virtual space 40 in a dull manner will be described later (see steps S102 to S108 in FIG. 7).

図3に示す画面にはロッカー46a,46bが表示されていない。図3に示す画面は、ユーザキャラクタ48がロッカー46a,46bの存在(輪郭や形状)を認識できていない状態を表している。このゲームでは、例えば、床42又は壁44を叩いた場合などに発生する音によってユーザキャラクタ48がロッカー46の存在を認識するようになっている。   The lockers 46a and 46b are not displayed on the screen shown in FIG. The screen shown in FIG. 3 represents a state in which the user character 48 cannot recognize the presence (contour or shape) of the lockers 46a and 46b. In this game, for example, the user character 48 recognizes the presence of the locker 46 by a sound generated when the floor 42 or the wall 44 is hit.

図4はユーザキャラクタ48によるロッカー46の存在の認識について説明するための図である。図4に示すように、音が発生した場合には音源位置54が設定される。例えば、ユーザキャラクタ48が壁44を叩いたことによって音が発生した場合には、ユーザキャラクタ48が叩いた位置が音源位置54に設定される。   FIG. 4 is a diagram for explaining the recognition of the presence of the locker 46 by the user character 48. As shown in FIG. 4, when a sound is generated, a sound source position 54 is set. For example, when a sound is generated by the user character 48 hitting the wall 44, the position where the user character 48 hits is set as the sound source position 54.

音源位置54が設定されると、音源位置54に基づいて音領域56が設定される。例えば、音領域56は音源位置54を中心とする球状領域である。音領域56は音の伝搬を表しており、音領域56は時間経過に伴って大きくなっていく。つまり、音領域56の半径(r)は時間経過に伴って所定の初期値(例えば0)から所定の最大値(R)まで徐々に大きくなっていく。そして、音領域56の半径(r)が最大値(R)になると、音領域56は消滅する。なお、ここでは音領域56が球状領域であることとして説明するが、音領域56は球状領域以外の領域であってもよい。   When the sound source position 54 is set, a sound area 56 is set based on the sound source position 54. For example, the sound region 56 is a spherical region centered on the sound source position 54. The sound region 56 represents sound propagation, and the sound region 56 becomes larger as time passes. That is, the radius (r) of the sound region 56 gradually increases from a predetermined initial value (for example, 0) to a predetermined maximum value (R) with time. When the radius (r) of the sound area 56 reaches the maximum value (R), the sound area 56 disappears. Although the sound region 56 is described as a spherical region here, the sound region 56 may be a region other than the spherical region.

音領域56の表面がロッカー46と接触した場合(言い換えれば、音領域56内にロッカー46に含まれる場合)、そのロッカー46の存在がユーザキャラクタ48によって認識されたことになり、そのロッカー46は画面に表示される。例えば、図4に示す例では、ロッカー46aが音領域56と接触しているため、ロッカー46aが画面に表示される。図5は、この場合に表示部32に表示される画面の一例を示す。図5に示す画面には、ユーザキャラクタ48が認識したロッカー46aが表示されている。なお、ロッカー46aはおぼろげに表示されるようになっている。ユーザキャラクタ48が認識したロッカー46aをおぼろげに表示するための技術については後述する(図7のステップS111,S112参照)。   When the surface of the sound area 56 comes into contact with the rocker 46 (in other words, when the sound area 56 is included in the rocker 46), the presence of the rocker 46 is recognized by the user character 48. Displayed on the screen. For example, in the example shown in FIG. 4, since the locker 46a is in contact with the sound area 56, the locker 46a is displayed on the screen. FIG. 5 shows an example of a screen displayed on the display unit 32 in this case. The locker 46a recognized by the user character 48 is displayed on the screen shown in FIG. Note that the locker 46a is displayed in a casual manner. A technique for displaying the locker 46a recognized by the user character 48 in a casual manner will be described later (see steps S111 and S112 in FIG. 7).

以下、以上に説明したような画面を表示するための構成について説明する。図6は、ゲーム装置10で実現される機能ブロックのうち、本発明に関連する機能ブロックを主として示す機能ブロック図である。図6に示すように、ゲーム装置10は、データ記憶部60、第1画像生成部62、距離情報取得部64、輝度変更部66、ぼかし処理/画像ずらし処理実行部68、第2画像生成部70、及び表示制御部72を含む。   Hereinafter, a configuration for displaying the screen as described above will be described. FIG. 6 is a functional block diagram mainly showing functional blocks related to the present invention among the functional blocks realized by the game apparatus 10. As illustrated in FIG. 6, the game apparatus 10 includes a data storage unit 60, a first image generation unit 62, a distance information acquisition unit 64, a luminance change unit 66, a blurring / image shift processing execution unit 68, and a second image generation unit. 70 and a display control unit 72.

データ記憶部60は例えば主記憶16及び光ディスク36によって実現される。データ記憶部60は各種データを記憶する。例えば、仮想空間40に配置される各オブジェクトの形状データがデータ記憶部60に記憶される。また、静的オブジェクト(例えば、床42、壁44、及びロッカー46)の位置データがデータ記憶部60に記憶される。   The data storage unit 60 is realized by the main memory 16 and the optical disc 36, for example. The data storage unit 60 stores various data. For example, the shape data of each object arranged in the virtual space 40 is stored in the data storage unit 60. In addition, position data of static objects (for example, the floor 42, the wall 44, and the locker 46) is stored in the data storage unit 60.

さらに、ゲームの状況を示すゲーム状況データがデータ記憶部60に記憶される。例えば、下記に示すようなデータがゲーム状況データに含まれる。
[1]ユーザキャラクタ48及び敵キャラクタ50の状態データ(例えば位置、姿勢、移動方向、及び移動速度など)
[2]ユーザキャラクタ48のパラメータデータ(例えば体力パラメータ)
[3]仮想カメラ52の状態データ(例えば位置、視線方向、及び画角)
[4]音領域フラグ、音源位置54、及び音領域56の半径(r)
Further, game situation data indicating the game situation is stored in the data storage unit 60. For example, the following data is included in the game situation data.
[1] State data of the user character 48 and the enemy character 50 (for example, position, posture, moving direction, moving speed, etc.)
[2] Parameter data of the user character 48 (for example, physical fitness parameter)
[3] State data of the virtual camera 52 (for example, position, line-of-sight direction, and angle of view)
[4] Radius (r) of sound area flag, sound source position 54, and sound area 56

なお、音領域フラグは、音領域56が発生中であるか否かを示す情報、言い換えれば、音源位置54で発生した音が伝搬中である否かを示す情報である。音領域フラグは「0」又は「1」の値をとる。値「0」は音領域56が発生中でないことを示し、値「1」は音領域56が発生中であることを示す。また、音領域56が発生中である場合には、音領域56の基準位置である音源位置54と、音領域56の現在の半径(r)と、がゲーム状況データの一部として記憶される。   The sound region flag is information indicating whether the sound region 56 is being generated, in other words, information indicating whether the sound generated at the sound source position 54 is being propagated. The sound region flag takes a value of “0” or “1”. A value “0” indicates that the sound region 56 is not occurring, and a value “1” indicates that the sound region 56 is occurring. When the sound area 56 is being generated, the sound source position 54 that is the reference position of the sound area 56 and the current radius (r) of the sound area 56 are stored as part of the game situation data. .

データ記憶部60以外の機能ブロックは、制御部14が光ディスク36に記憶されたプログラムに従って処理を実行することによって実現される。図7は、制御部14が所定時間(例えば1/60秒)ごとに実行する処理のうち、本発明に関連する処理の一例を主に示すフロー図である。以下、図7に示す処理を説明しながら、データ記憶部60以外の機能ブロックの動作について説明する。   Functional blocks other than the data storage unit 60 are realized by the control unit 14 executing processing according to a program stored in the optical disc 36. FIG. 7 is a flowchart mainly showing an example of processing related to the present invention among processing executed by the control unit 14 every predetermined time (for example, 1/60 seconds). Hereinafter, the operation of the functional blocks other than the data storage unit 60 will be described while explaining the processing shown in FIG.

図7に示すように、まず制御部14はゲーム状況データを更新する(S101)。例えば、制御部14はユーザキャラクタ48の状態データをユーザの操作に基づいて更新し、敵キャラクタ50の状態データを所定のアルゴリズムに基づいて更新する。また、制御部14は仮想カメラ52の状態データも更新する。   As shown in FIG. 7, first, the control unit 14 updates the game situation data (S101). For example, the control unit 14 updates the state data of the user character 48 based on a user operation, and updates the state data of the enemy character 50 based on a predetermined algorithm. The control unit 14 also updates the state data of the virtual camera 52.

また例えば、制御部14は、ユーザキャラクタ48が敵キャラクタ50から攻撃を受けたか否かを判定する。そして、ユーザキャラクタ48が敵キャラクタ50から攻撃を受けた場合、制御部14はユーザキャラクタ48のパラメータデータ(例えば体力パラメータ)を更新する。   For example, the control unit 14 determines whether or not the user character 48 has been attacked by the enemy character 50. When the user character 48 is attacked by the enemy character 50, the control unit 14 updates the parameter data (for example, physical strength parameter) of the user character 48.

また例えば、制御部14は音発生条件が満足されたか否かを判定する。「音発生条件」は、例えば、ユーザキャラクタ48が壁44などを叩いたか否かの条件である。音発生条件が満足された場合、制御部14は音源位置54をゲーム状況データの一部として記憶させるとともに、音領域フラグを「0」から「1」に更新する。また、音領域フラグが「1」である場合、制御部14は、ゲーム状況データの一部として記憶される音領域56の半径(r)を更新する。上述したように、制御部14は、音領域56の半径(r)を時間経過に伴って徐々に増加することによって、音領域56の大きさを時間経過に伴って徐々に増やす。なお、音領域56の半径(r)が最大値(R)になると、音領域フラグは「1」から「0」に更新される。   For example, the control unit 14 determines whether or not the sound generation condition is satisfied. The “sound generation condition” is, for example, a condition whether or not the user character 48 hits the wall 44 or the like. When the sound generation condition is satisfied, the control unit 14 stores the sound source position 54 as a part of the game situation data and updates the sound region flag from “0” to “1”. When the sound region flag is “1”, the control unit 14 updates the radius (r) of the sound region 56 stored as part of the game situation data. As described above, the control unit 14 gradually increases the size of the sound region 56 over time by gradually increasing the radius (r) of the sound region 56 over time. When the radius (r) of the sound region 56 reaches the maximum value (R), the sound region flag is updated from “1” to “0”.

ステップS101の処理が実行された後、制御部14(第1画像生成部62)は、仮想カメラ52から見た仮想空間40の様子を表す背景画像(第1画像)をVRAM上に生成する(S102)。このとき、仮想空間40に配置されるオブジェクトのうち、所定オブジェクトが取り除かれている。また、背景画像はグレースケールの画像として生成される。   After the processing of step S101 is executed, the control unit 14 (first image generation unit 62) generates a background image (first image) representing the state of the virtual space 40 viewed from the virtual camera 52 on the VRAM ( S102). At this time, a predetermined object is removed from the objects arranged in the virtual space 40. The background image is generated as a grayscale image.

本実施形態の場合、ロッカー46(所定オブジェクト)が仮想空間40から取り除かれる。また、ユーザキャラクタ48及び敵キャラクタ50も仮想空間40から取り除かれる。そして、それらのオブジェクトが取り除かれてなる仮想空間40を仮想カメラ52から見た様子を表す画像が背景画像として生成される。   In the case of this embodiment, the locker 46 (predetermined object) is removed from the virtual space 40. Further, the user character 48 and the enemy character 50 are also removed from the virtual space 40. Then, an image representing a state in which the virtual space 40 formed by removing these objects is viewed from the virtual camera 52 is generated as a background image.

この場合、仮想空間40から取り除かれないオブジェクト(例えば床42や壁44など)にマッピングされるテクスチャ画像は、そのテクスチャ画像の各画素の輝度に基づいてグレースケールの画像に変換される。そして、グレースケールに変換されたテクスチャ画像に基づいて背景画像が生成される。その結果、背景画像はグレースケールの画像になる。図8(A)は、ステップS102で生成される背景画像の一例を示す模式図である。   In this case, a texture image mapped to an object that is not removed from the virtual space 40 (for example, the floor 42 or the wall 44) is converted into a grayscale image based on the luminance of each pixel of the texture image. Then, a background image is generated based on the texture image converted to grayscale. As a result, the background image becomes a grayscale image. FIG. 8A is a schematic diagram illustrating an example of the background image generated in step S102.

ステップS102の処理が実行された後、制御部14(距離情報取得部64)は、ステップS102で生成された背景画像(第1画像)の距離情報(深度情報)を取得する(S103)。制御部14は、背景画像の各画素について、仮想カメラ52からの距離に関する距離情報を取得する。この距離情報は、画素に表示される仮想空間40内の位置と、仮想カメラ52の位置と、の間の距離に関する情報である。例えば、壁44上の一点が表示される画素の場合、壁44上の該点と仮想カメラ52の位置との間の距離に関する情報が取得される。なお、上記距離は仮想カメラ52から視線方向への奥行き(深さ)に相当するため、以下では上記距離のことを「深度」と記載する。例えば、深度は0〜255の数値で表される。   After the process of step S102 is executed, the control unit 14 (distance information acquisition unit 64) acquires the distance information (depth information) of the background image (first image) generated in step S102 (S103). The control unit 14 acquires distance information regarding the distance from the virtual camera 52 for each pixel of the background image. This distance information is information related to the distance between the position in the virtual space 40 displayed on the pixel and the position of the virtual camera 52. For example, in the case of a pixel on which one point on the wall 44 is displayed, information regarding the distance between the point on the wall 44 and the position of the virtual camera 52 is acquired. Since the distance corresponds to the depth (depth) from the virtual camera 52 in the line-of-sight direction, the distance is hereinafter referred to as “depth”. For example, the depth is represented by a numerical value of 0 to 255.

ステップS103の処理が実行された後、制御部14(輝度変更部66)は、ステップS102で生成された背景画像(第1画像)の画素の輝度を変更する(S104)。制御部14は、背景画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度差又は/及び深度差に関する情報に基づいて増減する。   After the process of step S103 is executed, the control unit 14 (luminance changing unit 66) changes the luminance of the pixel of the background image (first image) generated in step S102 (S104). The control unit 14 increases or decreases the luminance of the pixel of the background image based on information on the luminance difference or / and the depth difference between the pixel and the peripheral pixels of the pixel.

ステップS104では、例えば、周辺画素との間の輝度差が大きい画素の輝度が元々の輝度よりも高くなるように(言い換えれば、より白くなるように)変更される。この場合、画素(対象画素)とその周辺画素との間の輝度差が大きいか否かは下記に説明するようにして判定される。まず、制御部14は対象画素の周辺画素の輝度の平均を算出する。「対象画素の周辺画素」は、例えば、「対象画素を中心とする縦:m(例えば3)画素×横:n(例えば3)画素の領域」に含まれるm×n個の画素のうちの対象画素以外の画素である。そして、制御部14は、対象画素の輝度と、周辺画素の輝度の平均と、の間の差が第1基準値よりも大きいか否かを判定する。上記差が第1基準値よりも大きい場合、制御部14は対象画素とその周辺画素との間の輝度差が大きいと判定し、対象画素の輝度を元々の輝度よりも高くなるように変更する。   In step S104, for example, the luminance of the pixel having a large luminance difference with the surrounding pixels is changed so as to be higher than the original luminance (in other words, whiter). In this case, whether or not the luminance difference between the pixel (target pixel) and its surrounding pixels is large is determined as described below. First, the control unit 14 calculates the average luminance of the peripheral pixels of the target pixel. The “peripheral pixel of the target pixel” is, for example, among m × n pixels included in “a region of vertical: m (for example, 3) pixels × horizontal: n (for example, 3) pixels centered on the target pixel” It is a pixel other than the target pixel. And the control part 14 determines whether the difference between the brightness | luminance of a target pixel and the average of the brightness | luminance of a surrounding pixel is larger than a 1st reference value. When the difference is larger than the first reference value, the control unit 14 determines that the luminance difference between the target pixel and the surrounding pixels is large, and changes the luminance of the target pixel to be higher than the original luminance. .

またステップS104では、例えば、周辺画素との間の輝度差が小さい画素の輝度が元々の輝度よりも低くなるように(言い換えれば、より黒くなるように)変更される。この場合、画素(対象画素)とその周辺画素との間の輝度差が小さいか否かは下記に説明するようにして判定される。まず、制御部14は対象画素の周辺画素の輝度の平均を算出する。その後、制御部14は、対象画素の輝度と、周辺画素の輝度の平均と、の間の差が第2基準値よりも小さいか否かを判定する。そして、上記差が第2基準値よりも小さい場合、制御部14は対象画素と周辺画素との間の輝度差が小さいと判定し、対象画素の輝度を元々の輝度よりも低くなるように変更する。   Further, in step S104, for example, the brightness of a pixel having a small brightness difference with the surrounding pixels is changed to be lower than the original brightness (in other words, to be blacker). In this case, whether or not the luminance difference between the pixel (target pixel) and its surrounding pixels is small is determined as described below. First, the control unit 14 calculates the average luminance of the peripheral pixels of the target pixel. Thereafter, the control unit 14 determines whether or not the difference between the luminance of the target pixel and the average luminance of the peripheral pixels is smaller than the second reference value. If the difference is smaller than the second reference value, the control unit 14 determines that the luminance difference between the target pixel and the surrounding pixels is small, and changes the luminance of the target pixel to be lower than the original luminance. To do.

またステップS104では、例えば、周辺画素との間の深度差が大きい画素の輝度が元々の輝度よりも高くなるように(言い換えれば、より白くなるように)変更される。この場合、画素(対象画素)とその周辺画素との間の深度差が大きいか否かは下記に説明するようにして判定される。まず、制御部14は対象画素の周辺画素の深度の平均を算出する。その後、制御部14は、対象画素の深度と、周辺画素の深度の平均と、の間の差が第3基準値よりも大きいか否かを判定する。そして、上記差が第3基準値よりも大きい場合、制御部14は対象画素と周辺画素との間の深度差が大きいと判定し、対象画素の輝度を元々の輝度よりも高くなるように変更する。   In step S104, for example, the luminance of a pixel having a large depth difference from surrounding pixels is changed so as to be higher than the original luminance (in other words, whiter). In this case, whether or not the depth difference between the pixel (target pixel) and its surrounding pixels is large is determined as described below. First, the control unit 14 calculates the average depth of the surrounding pixels of the target pixel. Thereafter, the control unit 14 determines whether or not the difference between the depth of the target pixel and the average depth of surrounding pixels is greater than the third reference value. If the difference is larger than the third reference value, the control unit 14 determines that the depth difference between the target pixel and the surrounding pixels is large, and changes the luminance of the target pixel to be higher than the original luminance. To do.

またステップS104では、例えば、周辺画素との間の深度差が小さい画素の輝度が元々の輝度よりも低くなるように(言い換えれば、より黒くなるように)変更される。この場合、画素(対象画素)とその周辺画素との間の深度差が小さいか否かは下記に説明するようにして判定される。まず、制御部14は対象画素の周辺画素の深度の平均を算出する。その後、制御部14は、対象画素の深度と、周辺画素の深度の平均と、の間の差が第4基準値よりも小さいか否かを判定する。そして、上記差が第4基準値よりも小さい場合、制御部14は対象画素と周辺画素との間の深度差が小さいと判定し、対象画素の輝度を元々の輝度よりも低くなるように変更する。   In step S104, for example, the luminance of the pixel having a small depth difference from the surrounding pixels is changed to be lower than the original luminance (in other words, to be blacker). In this case, whether or not the depth difference between the pixel (target pixel) and its surrounding pixels is small is determined as described below. First, the control unit 14 calculates the average depth of the surrounding pixels of the target pixel. Thereafter, the control unit 14 determines whether or not the difference between the depth of the target pixel and the average depth of surrounding pixels is smaller than the fourth reference value. If the difference is smaller than the fourth reference value, the control unit 14 determines that the depth difference between the target pixel and the surrounding pixels is small, and changes the luminance of the target pixel to be lower than the original luminance. To do.

ステップS104の処理が実行される結果として、背景画像において、輝度や深度が大きく変化する部分、つまり各オブジェクトの境界(輪郭)部分が強調され、それ以外の部分はぼかされる。   As a result of the execution of the process of step S104, a portion where the brightness and depth greatly change in the background image, that is, a boundary (contour) portion of each object is emphasized, and the other portions are blurred.

ステップS104の処理が実行された後、制御部14(ぼかし処理/画像ずらし処理実行部68)は、ステップS104で画素の輝度が変更された背景画像(第1画像)にぼかし処理を施す(S105)。ここでは一般的なぼかし処理が用いられる。さらに、制御部14(ぼかし処理/画像ずらし処理実行部68)は、ステップS105でぼかし処理が施された背景画像(第1画像)に画素ずらし処理を施す(S106)。   After the process of step S104 is executed, the control unit 14 (blurring process / image shifting process executing unit 68) performs a blurring process on the background image (first image) in which the luminance of the pixel is changed in step S104 (S105). ). Here, a general blurring process is used. Further, the control unit 14 (blurring process / image shifting process execution unit 68) performs a pixel shifting process on the background image (first image) subjected to the blurring process in step S105 (S106).

図9は画素ずらし処理の一例について説明するための図である。本実施形態の場合、制御部14は、背景画像80の画素82を正弦波に基づいて所定方向にずらす。具体的には、各画素82に正弦波の振幅値が関連づけられる。図9に示す例では、各画素列84ごとに正弦波の振幅値が関連づけられている。そして、制御部14は、画素82を、その画素82に関連づけられた振幅値に対応する画素数だけ上方向又は下方向にずらす。振幅値が正の値である場合に画素82は上方向にずらされ、振幅値が負の値である場合に画素82は下方向にずらされる。なお、各画素行86ごとに正弦波の振幅値が関連づけるようにしてもよい。また制御部14は、画素82を、その画素82に関連づけられた振幅値に対応する画素数だけ右方向又は左方向にずらすようにしてもよい。   FIG. 9 is a diagram for explaining an example of the pixel shifting process. In the present embodiment, the control unit 14 shifts the pixel 82 of the background image 80 in a predetermined direction based on the sine wave. Specifically, a sine wave amplitude value is associated with each pixel 82. In the example shown in FIG. 9, the amplitude value of the sine wave is associated with each pixel column 84. Then, the control unit 14 shifts the pixel 82 upward or downward by the number of pixels corresponding to the amplitude value associated with the pixel 82. When the amplitude value is a positive value, the pixel 82 is shifted upward, and when the amplitude value is a negative value, the pixel 82 is shifted downward. Note that the amplitude value of the sine wave may be associated with each pixel row 86. The control unit 14 may shift the pixel 82 rightward or leftward by the number of pixels corresponding to the amplitude value associated with the pixel 82.

さらに、本実施形態の場合、ステップS106で画素ずらし処理が施された背景画像に対して、前フレームにおいて生成された背景画像(ぼかし処理及び画素ずらし処理が施された背景画像)が半透明合成される。   Further, in the case of the present embodiment, the background image generated in the previous frame (background image subjected to the blurring process and the pixel shifting process) is translucently combined with the background image subjected to the pixel shifting process in step S106. Is done.

ステップS106の処理が実行された後、制御部14は敵キャラクタ画像をVRAM上に生成する(S107)。ステップS107では、例えば、敵キャラクタ50が床42や壁44とともに配置された仮想空間40を仮想カメラ52から見た様子を表す画像が敵キャラクタ画像として生成される。この敵キャラクタ画像では、敵キャラクタ50が描画された部分以外の部分が透明に設定される。図8(B)は、ステップS107で生成される敵キャラクタ画像の一例を示す模式図である。   After the process of step S106 is executed, the control unit 14 generates an enemy character image on the VRAM (S107). In step S107, for example, an image representing a state in which the virtual space 40 in which the enemy character 50 is arranged with the floor 42 and the wall 44 is viewed from the virtual camera 52 is generated as the enemy character image. In this enemy character image, a portion other than the portion on which the enemy character 50 is drawn is set to be transparent. FIG. 8B is a schematic diagram illustrating an example of an enemy character image generated in step S107.

なお、ステップS107では、仮想カメラ52の位置、視線方向、及び画角が、ステップS102における仮想カメラ52の位置、視線方向、及び画角と同じに設定される。また、ステップS107では、ライティングが、敵キャラクタ50のうちの、光源からの光が当たっている部分が青白くなり、かつ、敵キャラクタ50のうちの、光源からの光が当たっていない部分が黒くなるように設定される。さらに、敵キャラクタ画像は、ステップS102で生成される背景画像よりも低い解像度の画像として生成される。例えば、ステップS102で生成される背景画像の解像度は「1024×600」に設定され、敵キャラクタ画像の解像度は「128×90」に設定される。   In step S107, the position, line-of-sight direction, and angle of view of the virtual camera 52 are set to be the same as the position, line-of-sight direction, and angle of view of the virtual camera 52 in step S102. In step S107, the portion of the enemy character 50 that is exposed to light from the light source turns pale and the portion of the enemy character 50 that is not exposed to light from the light source is black. Is set as follows. Further, the enemy character image is generated as an image having a lower resolution than the background image generated in step S102. For example, the resolution of the background image generated in step S102 is set to “1024 × 600”, and the resolution of the enemy character image is set to “128 × 90”.

ステップS107の処理が実行された後、制御部14は、ステップS106で画素ずらし処理が施された背景画像に対して、ステップS107で生成された敵キャラクタ画像を半透明合成する(S108)。この場合、敵キャラクタ画像はぼかし処理が施され、かつ、背景画像と同じ大きさまで伸張された状態で背景画像に半透明合成される。ステップS107,S108の処理が実行される結果として、敵キャラクタ50のうちの、光源からの光が当たっている部分のみが青白く表示されるようになり、敵キャラクタ50が画面におぼろげに表示されることになる。   After the process of step S107 is executed, the control unit 14 semi-transparently combines the enemy character image generated in step S107 with the background image subjected to the pixel shifting process in step S106 (S108). In this case, the enemy character image is subjected to a blurring process and is translucently combined with the background image in a state where the enemy character image is expanded to the same size as the background image. As a result of executing the processing of steps S107 and S108, only the portion of the enemy character 50 that is exposed to light from the light source is displayed in pale blue, and the enemy character 50 is displayed loosely on the screen. It will be.

ステップS108の処理が実行された後、制御部14はユーザキャラクタ画像を生成する(S109)。ステップS109では、ユーザキャラクタ48が床42、壁44、及び敵キャラクタ50とともに配置された仮想空間40を仮想カメラ52から見た様子を表す画像がユーザキャラクタ画像として生成される。なお、この場合、仮想カメラ52の位置、視線方向、及び画角は、ステップS102における仮想カメラ52の位置、視線方向、及び画角と同じに設定される。また、このユーザキャラクタ画像では、ユーザキャラクタ48が描画された部分以外の部分が透明に設定される。図8(C)は、ステップS109で生成されるユーザキャラクタ画像の一例を示す模式図である。   After the process of step S108 is executed, the control unit 14 generates a user character image (S109). In step S109, an image representing a state in which the virtual space 40 in which the user character 48 is arranged with the floor 42, the wall 44, and the enemy character 50 is viewed from the virtual camera 52 is generated as a user character image. In this case, the position, line-of-sight direction, and angle of view of the virtual camera 52 are set to be the same as the position, line-of-sight direction, and angle of view of the virtual camera 52 in step S102. In this user character image, a portion other than the portion where the user character 48 is drawn is set to be transparent. FIG. 8C is a schematic diagram illustrating an example of the user character image generated in step S109.

ステップS109の処理が実行された後、制御部14は音領域フラグが「1」であるか否かを判定する(S110)。音領域フラグが「1」である場合、すなわち、音領域56が発生中である場合、制御部14(第2画像生成部70)はロッカー画像(第2画像)を生成する(S111)。すなわち、制御部14は、音領域56(対象領域)内に含まれるロッカー46(所定オブジェクト)の画像を生成する。   After the process of step S109 is executed, the control unit 14 determines whether or not the sound region flag is “1” (S110). When the sound region flag is “1”, that is, when the sound region 56 is being generated, the control unit 14 (second image generation unit 70) generates a rocker image (second image) (S111). That is, the control unit 14 generates an image of the rocker 46 (predetermined object) included in the sound area 56 (target area).

ステップS111では、まず、音領域56がゲーム状況データに基づいて特定される。さらに、音領域56内に含まれるロッカー46が検出される。例えば、ロッカー46の全体又は一部が音領域56内に含まれる場合、そのロッカー46は音領域56内に含まれると判断される。そして、音領域56内に含まれるロッカー46が床42、壁44、ユーザキャラクタ48、及び敵キャラクタ50とともに配置された仮想空間40を仮想カメラ52から見た様子を表す画像がロッカー画像として生成される。   In step S111, first, the sound area 56 is specified based on the game situation data. Further, the rocker 46 included in the sound area 56 is detected. For example, when the whole or part of the rocker 46 is included in the sound region 56, it is determined that the rocker 46 is included in the sound region 56. Then, an image representing a state in which the virtual space 40 in which the locker 46 included in the sound region 56 is arranged with the floor 42, the wall 44, the user character 48, and the enemy character 50 is viewed from the virtual camera 52 is generated as a locker image. The

なお、この場合、仮想カメラ52の位置、視線方向、及び画角は、ステップS102における仮想カメラ52の位置、視線方向、及び画角と同じに設定される。また、この場合、ロッカー46には、歪んだ空間内に配置されたロッカーを表現するべく予め作成されたテクスチャ画像がマッピングされる。また、ここで生成されるロッカー画像では、ロッカー46が描画された部分以外の部分が透明に設定される。図8(D)は、ステップS111で生成されるロッカー画像の一例を示す模式図である。   In this case, the position, line-of-sight direction, and angle of view of the virtual camera 52 are set to be the same as the position, line-of-sight direction, and angle of view of the virtual camera 52 in step S102. In this case, the locker 46 is mapped with a texture image created in advance to express the locker arranged in the distorted space. Further, in the locker image generated here, a portion other than the portion where the locker 46 is drawn is set to be transparent. FIG. 8D is a schematic diagram illustrating an example of a rocker image generated in step S111.

ステップS111の処理が実行された後、制御部14(表示制御部72)は表示部32に表示する画像を生成する(S112)。制御部14は、ステップS108で敵キャラクタ画像が半透明合成された背景画像(第1画像)と、ステップS111で生成されたロッカー画像(第2画像)とを合成してなる画像を生成する。なお、「ステップS108で敵キャラクタ画像が半透明合成された背景画像」は、「背景画像と敵キャラクタ画像とを半透明合成してなる画像」と言い換えることができる。   After the process of step S111 is performed, the control part 14 (display control part 72) produces | generates the image displayed on the display part 32 (S112). The control unit 14 generates an image formed by combining the background image (first image) obtained by translucently combining the enemy character image in step S108 and the rocker image (second image) generated in step S111. The “background image in which the enemy character image is translucently synthesized in step S108” can be rephrased as “an image obtained by translucently synthesizing the background image and the enemy character image”.

背景画像とロッカー画像とを半透明合成する場合、制御部14は、背景画像とロッカー画像とを、ロッカー画像に表されるロッカー46を歪ませるようにして半透明合成する。すなわち、制御部14はロッカー画像を歪ませ、歪んだロッカー画像を背景画像と半透明合成する。また、ロッカー画像を歪ませる場合、制御部14は、音源位置54(音領域56の基準位置)から離れるにつれて歪みの程度が大きくなるようにして、ロッカー画像を歪ませる。   When the background image and the locker image are translucently combined, the control unit 14 performs the translucent combination of the background image and the locker image so as to distort the rocker 46 represented in the locker image. That is, the control unit 14 distorts the rocker image, and translucently combines the distorted rocker image with the background image. When the rocker image is distorted, the control unit 14 distorts the rocker image so that the degree of distortion increases as the distance from the sound source position 54 (the reference position of the sound region 56) increases.

なお、ロッカー画像に表されるロッカー46を歪ませるための処理としては様々な処理を用いることができる。例えば、制御部14は画素ずらし処理をロッカー画像に施すことによって、ロッカー画像に表されるロッカー46を歪ませる。またこの場合、制御部14は、音源位置54から離れるにつれてずらしの程度が大きくなるようにして、画素ずらし処理をロッカー画像に施す。さらにこの場合、画素をずらす方向は一定方向としてもよいし、ステップS106と同様に、正弦波に基づいて、画素をずらす方向が決定されるようにしてもよい。   Various processes can be used as a process for distorting the rocker 46 represented in the rocker image. For example, the control unit 14 distorts the rocker 46 represented in the rocker image by performing pixel shift processing on the rocker image. In this case, the control unit 14 applies a pixel shifting process to the rocker image so that the degree of shifting increases as the distance from the sound source position 54 increases. Further, in this case, the direction in which the pixels are shifted may be a fixed direction, or the direction in which the pixels are shifted may be determined based on the sine wave as in step S106.

さらに、ステップS112において、制御部14は、背景画像とロッカー画像とを半透明合成してなる画像に対して、ステップS109で生成されたユーザキャラクタ画像を合成する。そして、このようにして生成された画像が表示部32に表示される。   Further, in step S112, the control unit 14 synthesizes the user character image generated in step S109 with an image obtained by semi-transparent synthesis of the background image and the rocker image. Then, the image generated in this way is displayed on the display unit 32.

一方、音領域フラグが「1」でない場合、ステップS111の処理を実行せずに、制御部14(表示制御部72)は表示部32に表示する画像を生成する(S112)。この場合のステップS112では、ステップS108で敵キャラクタ画像が半透明合成された背景画像に対して、ステップS109で生成されたユーザキャラクタ画像が合成される。そして、こうして生成された画像が表示部32に表示される。   On the other hand, when the sound region flag is not “1”, the control unit 14 (display control unit 72) generates an image to be displayed on the display unit 32 without executing the process of step S111 (S112). In step S112 in this case, the user character image generated in step S109 is combined with the background image in which the enemy character image is translucently combined in step S108. Then, the image generated in this way is displayed on the display unit 32.

以上に説明したゲーム装置10(画像処理装置)では、図7のステップS102〜S108の処理が実行されることによって、暗い仮想空間40内における床42、壁44、及び敵キャラクタ50をおぼろげに画面に表示される。また、図7のステップS111,S112の処理が実行されることによって、ユーザキャラクタ48が音を頼りに認識したロッカー46がおぼろげに画面に表示される。ゲーム装置10によれば、暗闇内で音を頼りに物(ロッカー46)の存在を認識するが故に物の存在をおぼろげにしか認識できないことを好適に表現できるようになる。   In the game apparatus 10 (image processing apparatus) described above, the screen of the floor 42, the wall 44, and the enemy character 50 in the dark virtual space 40 is loosened by executing the processes of steps S <b> 102 to S <b> 108 in FIG. 7. Is displayed. 7 is executed, the locker 46 recognized by the user character 48 with sound is displayed on the screen. According to the game apparatus 10, it is possible to appropriately express that the presence of an object (the locker 46) can be recognized only in a dark manner because the presence of the object (rocker 46) is recognized in the dark.

なお、本発明は以上に説明した実施の形態に限定されるものではない。   The present invention is not limited to the embodiment described above.

(1)例えば、図7のステップS105,S106の一方を省略するようにしてもよい。例えば、図7のステップS105は省略するようにしてもよい。   (1) For example, one of steps S105 and S106 in FIG. 7 may be omitted. For example, step S105 in FIG. 7 may be omitted.

(2)また例えば、ユーザキャラクタ48が過去に認識したロッカー46(すなわち、過去に音領域56内に含まれたことがあるロッカー46)は、音領域56に含まれていない場合であっても、画面に表示されるようにしてもよい。   (2) For example, even if the rocker 46 recognized by the user character 48 in the past (that is, the rocker 46 that has been included in the sound region 56 in the past) is not included in the sound region 56. It may be displayed on the screen.

この場合、図7のステップS101では、ユーザキャラクタ48が過去に認識したことがないロッカー46(すなわち、過去に音領域56に含まれたことがないロッカー46)が仮想空間40から取り除かれる。また、ユーザキャラクタ48及び敵キャラクタ50も仮想空間40から取り除かれる。そして、それらのオブジェクトが取り除かれてなる仮想空間40を仮想カメラ52から見た様子を表す画像が背景画像として生成される。また、図7のステップS111では、音領域56(対象領域)内に含まれるロッカー46であって、それまでユーザキャラクタ48が認識していなかったロッカー46(つまり、それまで音領域56内に含まれたことがなかったロッカー46)の画像が生成される。   In this case, in step S101 in FIG. 7, the rocker 46 that the user character 48 has not recognized in the past (that is, the rocker 46 that has not been included in the sound region 56 in the past) is removed from the virtual space 40. Further, the user character 48 and the enemy character 50 are also removed from the virtual space 40. Then, an image representing a state in which the virtual space 40 formed by removing these objects is viewed from the virtual camera 52 is generated as a background image. Further, in step S111 of FIG. 7, the rocker 46 included in the sound area 56 (target area) and not previously recognized by the user character 48 (that is, included in the sound area 56 until then). An image of the locker 46) that has never been generated is generated.

(3)また例えば、仮想空間40には、ロッカー46以外の物を表すオブジェクトが配置されるようにしてもよい。例えば、他の家具(ベッド、テーブル、又はいすなど)を表すオブジェクトが配置されるようにしてもよい。また例えば、家具以外の物を表すオブジェクトが配置されるようにしてもよい。これらのオブジェクトに関してはロッカー46と同様に処理を実行するようにすればよい。   (3) Further, for example, an object representing an object other than the locker 46 may be arranged in the virtual space 40. For example, an object representing other furniture (such as a bed, a table, or a chair) may be arranged. Further, for example, an object representing an object other than furniture may be arranged. These objects may be executed in the same manner as the locker 46.

(4)以上では、ユーザキャラクタ48が暗闇の中で音を頼りに物(ロッカー46)の存在を認識するゲームに本発明を適用した例について説明したが、例えば、ユーザキャラクタ48が暗闇の中でペンライトなどの弱い光を頼りに物の存在を認識するゲームにも本発明を適用することができる。   (4) In the above, an example in which the present invention is applied to a game in which the user character 48 recognizes the presence of an object (the locker 46) by relying on sound in the dark has been described. For example, the user character 48 is in the dark. Therefore, the present invention can be applied to a game that recognizes the presence of an object by relying on a weak light such as a penlight.

この場合、音領域56の代わりに、ペンライトの光が届く領域を示す光領域を設定するようにすればよい。この場合、光領域の基準位置は光源位置(ペンライト又はユーザキャラクタの位置)となり、光領域は光源位置に基づいて設定される。例えば、光源位置を中心とする所定半径の球状領域が光領域として設定される。   In this case, instead of the sound region 56, a light region indicating a region where penlight light can reach may be set. In this case, the reference position of the light area is the light source position (the position of the penlight or user character), and the light area is set based on the light source position. For example, a spherical area having a predetermined radius centered on the light source position is set as the light area.

このようにすれば、暗闇内で弱い光を頼りに物の存在を認識するが故に物の存在をおぼろげにしか認識できないことを好適に表現できるようになる。   In this way, it is possible to suitably express that the existence of an object can be recognized only in a dull manner because it recognizes the existence of the object by relying on weak light in the dark.

(5)以上では、ユーザキャラクタ48が暗闇の中を移動するゲームに本発明を適用した例について説明したが、例えば、ゲームキャラクタが深い霧の中を移動するゲームにも本発明は適用することができる。本発明は、視界の悪い仮想空間(見通しの悪い仮想空間)内をゲームキャラクタが移動するゲームに適用することができる。   (5) In the above description, the example in which the present invention is applied to a game in which the user character 48 moves in the dark has been described. However, for example, the present invention is also applied to a game in which the game character moves in a deep fog. Can do. The present invention can be applied to a game in which a game character moves in a virtual space with poor visibility (a virtual space with poor visibility).

なお、例えば、ゲームキャラクタが深い霧の中を移動するゲームの場合、そのような状況に応じたオブジェクトが仮想空間40に配置される。例えば、床42の代わりに、地面を表すオブジェクトが配置される。また例えば、ロッカー46の代わりに、例えば、宝箱を表すオブジェクトが配置される。   For example, in the case of a game in which a game character moves in a deep fog, objects corresponding to such a situation are arranged in the virtual space 40. For example, instead of the floor 42, an object representing the ground is arranged. Further, for example, instead of the locker 46, for example, an object representing a treasure box is arranged.

(6)また例えば、仮想カメラ52(視点)はユーザキャラクタ48の目の位置に設定されるようにしてもよい。   (6) Further, for example, the virtual camera 52 (viewpoint) may be set at the eye position of the user character 48.

(7)また例えば、本発明はゲーム装置10以外の画像処理装置に適用することができる。本発明は、仮想空間の様子を表す画像を生成する画像処理装置に適用することができる。   (7) Further, for example, the present invention can be applied to an image processing apparatus other than the game apparatus 10. The present invention can be applied to an image processing apparatus that generates an image representing a state of a virtual space.

10 ゲーム装置、11 家庭用ゲーム機、12 バス、14 制御部、16 主記憶、18 画像処理部、20 入出力処理部、22 音声処理部、24 光ディスクドライブ、26 ハードディスク、28 通信インタフェース、30 コントローラ、32 表示部、34 音声出力部、36 光ディスク、40 仮想空間、42 床、44 壁、46a,46b ロッカー、48 ユーザキャラクタ、50 敵キャラクタ、52 仮想カメラ、54 音源位置、56 音領域、60 データ記憶部、62 第1画像生成部、64 距離情報取得部、66 輝度変更部、68 ぼかし処理/画素ずらし処理実行部、70 第2画像生成部、72 表示制御部、80 背景画像、82 画素、84 画素列、86 画素行。   DESCRIPTION OF SYMBOLS 10 Game device, 11 Home-use game machine, 12 Bus, 14 Control part, 16 Main memory, 18 Image processing part, 20 Input / output processing part, 22 Sound processing part, 24 Optical disk drive, 26 Hard disk, 28 Communication interface, 30 Controller , 32 Display unit, 34 Audio output unit, 36 Optical disk, 40 Virtual space, 42 Floor, 44 Wall, 46a, 46b Locker, 48 User character, 50 Enemy character, 52 Virtual camera, 54 Sound source position, 56 Sound area, 60 data Storage unit, 62 First image generation unit, 64 Distance information acquisition unit, 66 Brightness change unit, 68 Blur process / Pixel shift process execution unit, 70 Second image generation unit, 72 Display control unit, 80 Background image, 82 pixels, 84 pixel columns, 86 pixel rows.

Claims (5)

仮想空間の様子を表す画像を表示手段に表示させる画像処理装置において、
前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成手段と、
前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得手段と、
前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に関する情報に基づいて増減する輝度変更手段と、
前記輝度変更手段によって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行手段と、
前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成手段と、
前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御手段と、
を含むことを特徴とする画像処理装置。
In an image processing apparatus that displays an image representing a state of a virtual space on a display unit,
First image generation means for generating, as a grayscale image, a first image representing a state in which the virtual space obtained by removing a predetermined object from the objects arranged in the virtual space is viewed from a viewpoint;
Distance information acquisition means for acquiring information about the distance from the viewpoint for each pixel of the first image;
Brightness changing means for increasing or decreasing the brightness of the pixel of the first image based on information on a difference in brightness between the pixel and a peripheral pixel of the pixel or / and information on the difference in the distance;
A blurring process / pixel shifting process executing means for performing at least one of a blurring process and a pixel shifting process on the first image whose pixel brightness has been increased or decreased by the brightness changing unit;
A second image generating unit configured to generate a second image representing a state of the predetermined object when the virtual space is viewed from the viewpoint when the predetermined object is included in a target area of the virtual space;
Display control means for causing the display means to display an image obtained by combining the first image and the second image so as to distort the predetermined object represented in the second image;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記表示制御手段は、前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを前記対象領域の基準点から離れるにつれて歪みの程度が大きくなるように歪ませて合成してなる前記画像を前記表示手段に表示させることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The display control means distorts the first image and the second image so that the degree of distortion increases as the predetermined object represented in the second image moves away from the reference point of the target area. An image processing apparatus, wherein the combined image is displayed on the display means.
請求項1又は2に記載の画像処理装置において、
前記第2画像生成手段は、
前記仮想空間内の音源位置を取得する手段と、
前記音源位置に基づいて前記対象領域を設定する手段と、
前記対象領域の大きさを時間経過に伴って増やす手段と、を含む、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The second image generation means includes
Means for obtaining a sound source position in the virtual space;
Means for setting the target region based on the sound source position;
Means for increasing the size of the target area with time,
An image processing apparatus.
仮想空間の様子を表す画像を表示手段に表示させる画像処理方法において、
前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成ステップと、
前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得ステップと、
前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に基づいて増減する輝度変更ステップと、
前記輝度変更ステップによって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行ステップと、
前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成ステップと、
前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御ステップと、
を含むことを特徴とする画像処理方法。
In an image processing method for displaying an image representing a state of a virtual space on a display means,
A first image generation step of generating a first image representing a state in which the virtual space obtained by removing a predetermined object from the objects arranged in the virtual space is viewed from a viewpoint as a grayscale image;
A distance information acquisition step for acquiring information regarding the distance from the viewpoint for each pixel of the first image;
A luminance changing step for increasing or decreasing the luminance of the pixel of the first image based on a luminance difference between the pixel and a peripheral pixel of the pixel or / and a difference in the distance;
A blurring process / pixel shifting process performing step of performing at least one of a blurring process and a pixel shifting process on the first image in which the brightness of the pixels has been increased or decreased by the brightness changing step;
A second image generation step of generating a second image representing a state of the predetermined object when the virtual space is viewed from the viewpoint when the predetermined object is included in the target area of the virtual space;
A display control step for causing the display means to display an image formed by combining the first image and the second image so as to distort the predetermined object represented in the second image;
An image processing method comprising:
仮想空間の様子を表す画像を表示手段に表示させる画像処理装置としてコンピュータを機能させるためのプログラムであって、
前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成手段、
前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得手段、
前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に基づいて増減する輝度変更手段、
前記輝度変更手段によって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行手段、
前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成手段、及び、
前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御手段、
として前記コンピュータを機能させるためのプログラム。
A program for causing a computer to function as an image processing device that displays an image representing a state of a virtual space on a display means,
First image generation means for generating, as a grayscale image, a first image representing a state in which the virtual space obtained by removing a predetermined object from the objects arranged in the virtual space is viewed from a viewpoint;
Distance information acquisition means for acquiring information related to the distance from the viewpoint for each pixel of the first image;
A luminance changing means for increasing or decreasing the luminance of the pixel of the first image based on a difference in luminance between the pixel and a peripheral pixel of the pixel or / and a difference in the distance;
Blur processing / pixel shift processing execution means for performing at least one of blur processing and pixel shift processing on the first image in which the brightness of the pixels is increased or decreased by the brightness change means;
A second image generating unit configured to generate a second image representing a state of the predetermined object when the virtual space is viewed from the viewpoint when the predetermined object is included in a target area of the virtual space; and
Display control means for causing the display means to display an image formed by combining the first image and the second image so as to distort the predetermined object represented in the second image;
A program for causing the computer to function as
JP2010154372A 2010-07-06 2010-07-06 Image processing apparatus, image processing method, and program Active JP4929380B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010154372A JP4929380B2 (en) 2010-07-06 2010-07-06 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010154372A JP4929380B2 (en) 2010-07-06 2010-07-06 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2012018491A JP2012018491A (en) 2012-01-26
JP4929380B2 true JP4929380B2 (en) 2012-05-09

Family

ID=45603708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010154372A Active JP4929380B2 (en) 2010-07-06 2010-07-06 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4929380B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6403650B2 (en) * 2015-09-18 2018-10-10 日本電信電話株式会社 Aerial image rendering device, control method thereof, and program
CN113965664B (en) * 2020-07-20 2024-02-09 武汉Tcl集团工业研究院有限公司 Image blurring method, storage medium and terminal equipment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4409719B2 (en) * 2000-05-09 2010-02-03 株式会社バンダイナムコゲームス GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP3456648B2 (en) * 2001-09-27 2003-10-14 株式会社ナムコ PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
WO2005110567A2 (en) * 2004-05-10 2005-11-24 Nintendo Co., Ltd. Video game including effects for providing different first person experiences of the same video game world and a storage medium storing software for the video game
JP2005319189A (en) * 2004-05-11 2005-11-17 Namco Ltd Program, information storage medium and image generation system
JP4015644B2 (en) * 2004-05-31 2007-11-28 株式会社ソニー・コンピュータエンタテインメント Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2012018491A (en) 2012-01-26

Similar Documents

Publication Publication Date Title
CN106383587B (en) Augmented reality scene generation method, device and equipment
US9652063B2 (en) Input direction determination system, terminal, server, network system, information storage medium, and input direction determination method
US8520901B2 (en) Image generation system, image generation method, and information storage medium
JP5026692B2 (en) Image processing apparatus, image processing method, and program
JP3442270B2 (en) Image generating apparatus and information storage medium
JP2009237680A (en) Program, information storage medium, and image generation system
WO2004045734A1 (en) Game image display control program, game device, and recording medium
KR20010042671A (en) Image displaying device, image processing device, image displaying system
JP2013097473A (en) Game processing system, game processing method, game processing device, and game processing program
JP5913709B1 (en) Image generation apparatus, image generation method, and image generation program
JP2018147002A (en) Image processing program, image processing system, image processing apparatus and image processing method
JP5236674B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
US20120306869A1 (en) Game device, image display device, stereoscopic image display method and computer-readable non-volatile information recording medium storing program
JP2011186834A (en) Game program, recording medium, and computer device
JP7116410B2 (en) Program and image generation system
JP2008077372A (en) Image processor, control method for image processor and program
JP4929380B2 (en) Image processing apparatus, image processing method, and program
JP5256153B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP3639286B2 (en) GAME PROGRAM AND GAME DEVICE
JP4847594B2 (en) Image generating apparatus, image generating method, and program
JP2003203250A (en) Shooting game device and information storage medium
JP4847572B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP3646988B2 (en) GAME DEVICE, GAME SCREEN DISPLAY METHOD, AND PROGRAM
JP6960968B2 (en) Programs and servers
JP2005050070A (en) Image processing device, method, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120213

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4929380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250