JP4847572B2 - Image processing apparatus, image processing apparatus control method, and program - Google Patents

Image processing apparatus, image processing apparatus control method, and program Download PDF

Info

Publication number
JP4847572B2
JP4847572B2 JP2009259729A JP2009259729A JP4847572B2 JP 4847572 B2 JP4847572 B2 JP 4847572B2 JP 2009259729 A JP2009259729 A JP 2009259729A JP 2009259729 A JP2009259729 A JP 2009259729A JP 4847572 B2 JP4847572 B2 JP 4847572B2
Authority
JP
Japan
Prior art keywords
image
virtual
dimensional space
viewpoint
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009259729A
Other languages
Japanese (ja)
Other versions
JP2011107816A (en
Inventor
雅史 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2009259729A priority Critical patent/JP4847572B2/en
Publication of JP2011107816A publication Critical patent/JP2011107816A/en
Application granted granted Critical
Publication of JP4847572B2 publication Critical patent/JP4847572B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、画像処理装置、画像処理装置の制御方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, a control method for the image processing apparatus, and a program.

ゲームキャラクタ等の各種オブジェクトが配置された仮想3次元空間を、所与の視点から見た様子を表示する画像処理装置が知られている。特許文献1には、雪や雨が降っている様子等を画面に表示させる際の処理負荷を軽減するための技術が記載されている。   There is known an image processing apparatus that displays a virtual three-dimensional space in which various objects such as game characters are arranged as viewed from a given viewpoint. Patent Document 1 describes a technique for reducing the processing load when displaying on the screen the appearance of snow or rain.

特開2007−082859号公報JP 2007-082859 A

上記のような画像処理装置においては、視点に近いオブジェクトを鮮明に表示させ、視点から遠いオブジェクトをぼかして表示させると、画面に遠近感が表現される。遠近感を表現する方法として、例えば、オブジェクトをぼかさない画像と、オブジェクトをぼかした画像と、を各画素の奥行き情報に応じた割合で合成する手法が考えられる。この場合、奥行きがある画素ほど、オブジェクトをぼかした画像の割合が多くなるようにする。即ち、視点から離れたオブジェクトほど、画面には、ぼかされて表示される。   In the image processing apparatus as described above, when an object close to the viewpoint is clearly displayed and an object far from the viewpoint is blurred and displayed, a sense of perspective is expressed on the screen. As a method of expressing perspective, for example, a method of combining an image that does not blur the object and an image that is blurred of the object at a ratio according to the depth information of each pixel is conceivable. In this case, the ratio of the image in which the object is blurred increases as the pixel has a depth. That is, the object that is farther from the viewpoint is blurred and displayed on the screen.

しかしながら、例えば、多数の精密なオブジェクトが仮想3次元空間に配置されると、仮想3次元空間に含まれるポリゴン数の増加に起因して、奥行き情報の作成処理は複雑になる。つまり、遠近感を表現した画面を表示する際に、画像処理装置の処理負荷が増大する可能性がある。   However, for example, when a large number of precise objects are arranged in the virtual three-dimensional space, the depth information creation process becomes complicated due to an increase in the number of polygons included in the virtual three-dimensional space. That is, there is a possibility that the processing load of the image processing apparatus increases when displaying a screen expressing a sense of perspective.

本発明は、上記課題に鑑みてなされたものであって、その目的とするところは、処理負荷を軽減しつつ、遠近感を表現した画面を表示させることが可能な画像処理装置、画像処理装置の制御方法、及びプログラムを提供することである。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus and an image processing apparatus capable of displaying a screen expressing a sense of perspective while reducing a processing load. It is providing the control method and program of this.

上記課題を解決するために、本発明に係る画像処理装置は、複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置であって、前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成手段と、前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成手段と、前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得手段と、前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御手段と、を含むことを特徴とする。   In order to solve the above problems, an image processing apparatus according to the present invention is an image processing apparatus that displays a screen representing a state in which a first virtual three-dimensional space in which a plurality of objects are arranged is viewed from a given viewpoint. A first image creating means for creating a first image representing a state of viewing the first virtual three-dimensional space from the viewpoint; and a state of viewing the first virtual three-dimensional space from the viewpoint. A second image creating means for creating a second image subjected to the blurring process, and a second virtual three-dimensional space in which the number of polygons is reduced as compared with the first virtual three-dimensional space from the viewpoint. Depth information acquisition means for acquiring depth information regarding the distance from the viewpoint for each pixel of the image representing the appearance, and a ratio of synthesis of each pixel of the first image and the second image based on the depth information. The first image and the second image Display control means for displaying the synthesized screen, characterized in that it comprises a.

また、本発明に係る画像処理装置の制御方法は、複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置の制御方法であって、前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成ステップと、前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成ステップと、前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得ステップと、前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御ステップと、を含むことを特徴とする。   The image processing apparatus control method according to the present invention is a control method for an image processing apparatus that displays a screen representing a state in which a first virtual three-dimensional space in which a plurality of objects are arranged is viewed from a given viewpoint. A first image creating step of creating a first image representing a state of viewing the first virtual three-dimensional space from the viewpoint; and a state of viewing the first virtual three-dimensional space from the viewpoint. A second image creation step for creating a second image subjected to the blurring process, and a second virtual three-dimensional space in which the number of polygons is reduced as compared with the first virtual three-dimensional space. A depth information acquisition step for acquiring depth information regarding the distance from the viewpoint for each pixel of the image representing the appearance, and a ratio of synthesis of each pixel of the first image and the second image based on the depth information. The first picture When the second image is characterized by comprising a display control step of displaying the screen which is synthesized, a.

また、本発明に係るプログラムは、複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置としてコンピュータを機能させるためのプログラムであって、前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成手段、前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成手段、前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得手段、前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御手段、として前記コンピュータを機能させることを特徴とする。   The program according to the present invention is a program for causing a computer to function as an image processing apparatus that displays a screen representing a state in which a first virtual three-dimensional space in which a plurality of objects are arranged is viewed from a given viewpoint. A first image creating means for creating a first image representing a state of viewing the first virtual three-dimensional space from the viewpoint; a state of viewing the first virtual three-dimensional space from the viewpoint; Second image creation means for creating a second image that has been subjected to the blurring process, and a second virtual three-dimensional space in which the number of polygons is reduced as compared to the first virtual three-dimensional space as seen from the viewpoint Depth information acquisition means for acquiring depth information regarding the distance from the viewpoint for each pixel of the image that represents the ratio of the synthesis of the pixels of the first image and the second image based on the depth information. The above And second images are characterized by causing the computer to function as a display control unit, to display a screen that has been synthesized.

本発明によれば、処理負荷を軽減しつつ、遠近感を表現した画面を表示させることが可能になる。   According to the present invention, it is possible to display a screen expressing perspective while reducing the processing load.

また、本発明の一態様では、前記奥行き情報取得手段は、前記複数のオブジェクトのうち所定のオブジェクトが取り除かれた前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする。   Moreover, in one aspect of the present invention, the depth information acquisition unit includes each pixel of an image representing a state in which the second virtual three-dimensional space from which a predetermined object is removed from the plurality of objects is viewed from the viewpoint. It is characterized in that depth information regarding the distance from the viewpoint is acquired every time.

また、本発明の一態様では、前記第2の仮想3次元空間は、前記複数のオブジェクトのうち前記視点との距離が所定値以上の前記所定のオブジェクトが取り除かれたものであることを特徴とする。   In the aspect of the present invention, the second virtual three-dimensional space is obtained by removing the predetermined object whose distance from the viewpoint is a predetermined value or more from the plurality of objects. To do.

また、本発明の一態様では、前記奥行き情報取得手段は、前記複数のオブジェクトのうち所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられた前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする。   In the aspect of the invention, the depth information acquisition unit may include the second virtual three-dimensional space in which the predetermined object among the plurality of objects is replaced with an object having a smaller number of polygons than the object. Depth information regarding the distance from the viewpoint is acquired for each pixel of an image representing a state viewed from the viewpoint.

また、本発明の一態様では、前記第2の仮想3次元空間は、前記複数のオブジェクトのうち前記視点との奥行きが所定値以上の前記所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられたものであることを特徴とする。   In the aspect of the present invention, the second virtual three-dimensional space may include an object in which the predetermined object having a depth with respect to the viewpoint of the plurality of objects is less than a predetermined number of polygons than the object. It is characterized by being replaced by.

また、本発明の一態様では、前記第2画像作成手段は、前記第1の仮想3次元空間を前記視点から見た様子を表す画像の注目画素と、当該注目画素に隣接する複数の周囲画素の何れかと、の当該視点に対応する奥行きの差が基準値以上である場合、当該周囲画素の色に基づいて前記注目画素に基づく所定領域の色を変更した画像を取得する取得手段を含み、当該画像にぼかし処理を施すことによって前記第2画像を作成することを特徴とする。   In one aspect of the present invention, the second image creating means includes a target pixel of an image representing a state in which the first virtual three-dimensional space is viewed from the viewpoint, and a plurality of surrounding pixels adjacent to the target pixel. If the difference in depth corresponding to the viewpoint with any of the above is equal to or greater than a reference value, an acquisition unit that acquires an image in which the color of the predetermined region based on the target pixel is changed based on the color of the surrounding pixel, The second image is created by performing a blurring process on the image.

また、本発明の一態様では、前記第1の仮想3次元空間は、少なくともキャラクタオブジェクトと、スポーツの会場を表すオブジェクトが配置されたスポーツゲームの空間であって、前記奥行き情報取得手段は、前記第1の仮想3次元空間に比べて少なくとも前記キャラクタオブジェクトに対応するポリゴンの数が削減された前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする。   In the aspect of the invention, the first virtual three-dimensional space is a sports game space in which at least a character object and an object representing a sports venue are arranged, and the depth information acquisition unit includes the depth information acquisition unit, For each pixel of the image representing the state in which the second virtual three-dimensional space in which at least the number of polygons corresponding to the character object is reduced compared to the first virtual three-dimensional space is viewed from the viewpoint, the viewpoint It is characterized by acquiring depth information related to the distance from.

本発明の実施形態に係るゲーム装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the game device which concerns on embodiment of this invention. 第1の仮想3次元空間の一例を示す図である。It is a figure which shows an example of 1st virtual three-dimensional space. 実施形態1に係るゲーム装置に実現される機能群を示す機能ブロック図である。3 is a functional block diagram illustrating a functional group realized in the game device according to the first embodiment. FIG. 第1画像の一例を示す図である。It is a figure which shows an example of a 1st image. 第2画像の一例を示す図である。It is a figure which shows an example of a 2nd image. 表示制御部が表示させる画像の一例を示す図である。It is a figure which shows an example of the image which a display control part displays. 第2の仮想3次元空間の一例を示す図である。It is a figure which shows an example of 2nd virtual three-dimensional space. 奥行き情報の一例を示す図である。It is a figure which shows an example of depth information. ゲーム装置において所定時間毎に実行される処理の一例を示すフロー図である。It is a flowchart which shows an example of the process performed at predetermined time in a game device. 奥行き情報の一例である。It is an example of depth information. 奥行き情報の一例である。It is an example of depth information. 実施形態2における第1の仮想3次元空間の一例を示す。An example of the 1st virtual three-dimensional space in Embodiment 2 is shown. 実施形態2における第2の仮想3次元空間の一例を示す図である。It is a figure which shows an example of the 2nd virtual three-dimensional space in Embodiment 2. FIG. 実施形態2における奥行き情報の一例を示す図である。It is a figure which shows an example of the depth information in Embodiment 2. ゲーム装置において所定時間毎に実行される処理の一例を示すフロー図である。It is a flowchart which shows an example of the process performed at predetermined time in a game device. 第1画像の一例を示す図である。It is a figure which shows an example of a 1st image. 第2画像作成部の取得部が取得する画像の一例を示す図である。It is a figure which shows an example of the image which the acquisition part of a 2nd image creation part acquires. ゲーム装置において所定時間毎に実行される処理の一例を示すフロー図である。It is a flowchart which shows an example of the process performed at predetermined time in a game device. 注目画素と周囲画素との関係を説明するための図である。It is a figure for demonstrating the relationship between an attention pixel and surrounding pixels. 変形例における第2の仮想3次元空間を説明するための図である。It is a figure for demonstrating the 2nd virtual three-dimensional space in a modification.

[1.実施形態1]
以下、本発明の実施形態の一例について図面に基づき詳細に説明する。ここでは、画像処理装置の一態様であるゲーム装置に本発明を適用した場合について説明する。本発明の実施形態に係るゲーム装置は、例えば、家庭用ゲーム機(据置型ゲーム機)、携帯ゲーム機、携帯電話機、携帯情報端末(PDA)又はパーソナルコンピュータ等によって実現される。ここでは、実施形態1に係るゲーム装置を家庭用ゲーム機によって実現する場合について説明する。
[1. Embodiment 1]
Hereinafter, an example of an embodiment of the present invention will be described in detail based on the drawings. Here, a case where the present invention is applied to a game device which is an aspect of an image processing device will be described. The game device according to the embodiment of the present invention is realized by, for example, a home game machine (stationary game machine), a portable game machine, a mobile phone, a personal digital assistant (PDA), a personal computer, or the like. Here, a case where the game device according to the first embodiment is realized by a consumer game machine will be described.

[1−1.ゲーム装置のハードウェア構成]
図1は、本発明の実施形態に係るゲーム装置のハードウェア構成を示す図である。図1に示すように、ゲーム装置10においては、家庭用ゲーム機11に情報記憶媒体である光ディスク25及びメモリカード28が装着される。また、ゲーム装置10には、表示部18及び音声出力部22が接続される。例えば、表示部18には家庭用テレビ受像機が用いられ、音声出力部22にはその内蔵スピーカが用いられる。
[1-1. Hardware configuration of game device]
FIG. 1 is a diagram illustrating a hardware configuration of a game device according to an embodiment of the present invention. As shown in FIG. 1, in the game apparatus 10, an optical disk 25 and a memory card 28 that are information storage media are mounted on a consumer game machine 11. Further, the display unit 18 and the audio output unit 22 are connected to the game apparatus 10. For example, a home television receiver is used for the display unit 18, and its built-in speaker is used for the audio output unit 22.

家庭用ゲーム機11は、バス12、マイクロプロセッサ14、画像処理部16、音声処理部20、光ディスク再生部24、主記憶26、入出力処理部30及びコントローラ32を含んで構成される公知のコンピュータゲームシステムである。コントローラ32以外の構成要素は筐体内に収容される。   The home game machine 11 is a known computer including a bus 12, a microprocessor 14, an image processing unit 16, an audio processing unit 20, an optical disc playback unit 24, a main memory 26, an input / output processing unit 30, and a controller 32. It is a game system. Components other than the controller 32 are accommodated in a housing.

バス12は、アドレス及びデータを家庭用ゲーム機11の各部でやり取りするためのものである。マイクロプロセッサ14、画像処理部16、主記憶26及び入出力処理部30は、バス12によって相互データ通信可能に接続される。   The bus 12 is for exchanging addresses and data among the units of the consumer game machine 11. The microprocessor 14, the image processing unit 16, the main memory 26, and the input / output processing unit 30 are connected by the bus 12 so that mutual data communication is possible.

マイクロプロセッサ14は、図示しないROMに格納されるオペレーティングシステム、光ディスク25から読み出されるプログラムや、メモリカード28から読み出されるデータに基づいて、家庭用ゲーム機11の各部を制御する。   The microprocessor 14 controls each unit of the consumer game machine 11 based on an operating system stored in a ROM (not shown), a program read from the optical disc 25, and data read from the memory card 28.

主記憶26は、例えばRAMを含んで構成されるものであり、光ディスク25から読み出されたプログラムやメモリカード28から読み出されたデータが必要に応じて書き込まれる。主記憶26は、マイクロプロセッサ14の作業用メモリとしても用いられる。   The main memory 26 is configured to include, for example, a RAM, and a program read from the optical disc 25 and data read from the memory card 28 are written as necessary. The main memory 26 is also used as a working memory for the microprocessor 14.

画像処理部16は、VRAMを含んで構成される。画像処理部16は、マイクロプロセッサ14から送られる画像データに基づいてVRAM上にゲーム画面を描画する。画像処理部16は、この内容をビデオ信号に変換して所定のタイミングで表示部18に出力する。   The image processing unit 16 includes a VRAM. The image processing unit 16 draws a game screen on the VRAM based on the image data sent from the microprocessor 14. The image processing unit 16 converts this content into a video signal and outputs it to the display unit 18 at a predetermined timing.

入出力処理部30は、マイクロプロセッサ14が音声処理部20、光ディスク再生部24、メモリカード28及びコントローラ32にアクセスするためのインタフェースである。入出力処理部30には、音声処理部20、光ディスク再生部24、メモリカード28及びコントローラ32が接続される。   The input / output processing unit 30 is an interface for the microprocessor 14 to access the audio processing unit 20, the optical disc playback unit 24, the memory card 28, and the controller 32. The audio processing unit 20, the optical disc playback unit 24, the memory card 28 and the controller 32 are connected to the input / output processing unit 30.

音声処理部20はサウンドバッファを含んで構成される。音声処理部20は、光ディスク25から読み出されてサウンドバッファに記憶されたゲーム音楽、ゲーム効果音、メッセージ等の各種音声データを音声出力部22から出力する。   The sound processing unit 20 includes a sound buffer. The audio processing unit 20 outputs various audio data such as game music, game sound effects, and messages read from the optical disc 25 and stored in the sound buffer from the audio output unit 22.

光ディスク再生部24は、マイクロプロセッサ14からの指示に従って光ディスク25に記録されたプログラムを読み取る。なお、ここではプログラムを家庭用ゲーム機11に供給するために光ディスク25を用いることとするが、CD−ROMやROMカード等、他のあらゆる情報記憶媒体を用いるようにしてもよい。また、インターネット等のデータ通信網を介して遠隔地からプログラムを家庭用ゲーム機11に供給するようにしてもよい。   The optical disk reproducing unit 24 reads a program recorded on the optical disk 25 in accordance with an instruction from the microprocessor 14. Here, the optical disc 25 is used to supply the program to the consumer game machine 11, but any other information storage medium such as a CD-ROM or a ROM card may be used. Further, the program may be supplied to the consumer game machine 11 from a remote place via a data communication network such as the Internet.

メモリカード28は、不揮発性メモリ(例えばEEPROM等)を含んで構成される。家庭用ゲーム機11は、メモリカード28を装着するための複数のメモリカードスロットを備えており、複数のメモリカード28を同時に装着可能となっている。メモリカード28は、このメモリカードスロットに対して脱着可能に構成され、例えば、セーブデータなどの各種ゲームデータを記憶させるために用いられる。   The memory card 28 includes a nonvolatile memory (for example, EEPROM). The home-use game machine 11 includes a plurality of memory card slots for mounting the memory card 28, and the plurality of memory cards 28 can be mounted simultaneously. The memory card 28 is configured to be detachable from the memory card slot, and is used for storing various game data such as saved data.

コントローラ32は、プレイヤが各種ゲーム操作の入力をするためのものである。入出力処理部30は、一定周期毎(例えば1/60秒毎)にコントローラ32の各部の状態をスキャンする。このスキャン結果を表す操作信号は、バス12を介してマイクロプロセッサ14に入力される。   The controller 32 is for the player to input various game operations. The input / output processing unit 30 scans the state of each unit of the controller 32 at regular intervals (for example, every 1/60 seconds). An operation signal representing the scan result is input to the microprocessor 14 via the bus 12.

マイクロプロセッサ14は、コントローラ32からの操作信号に基づいてプレイヤのゲーム操作を判定する。家庭用ゲーム機11は、複数のコントローラ32を接続可能に構成されている。つまり、家庭用ゲーム機11は、各コントローラ32から入力される操作信号に基づいて、マイクロプロセッサ14がゲーム制御を行うようになっている。   The microprocessor 14 determines the game operation of the player based on the operation signal from the controller 32. The consumer game machine 11 is configured so that a plurality of controllers 32 can be connected. That is, in the consumer game machine 11, the microprocessor 14 performs game control based on the operation signal input from each controller 32.

[1−2.第1の仮想3次元空間]
ゲーム装置10では、例えば、プレイヤが操作する選手がサッカーの試合を行うサッカーゲームが実行される。このサッカーゲームは、マイクロプロセッサ14が、光ディスク25から読み出したプログラムを実行することによって実現される。
[1-2. First virtual three-dimensional space]
In the game apparatus 10, for example, a soccer game is executed in which a player operated by a player plays a soccer game. This soccer game is realized by the microprocessor 14 executing a program read from the optical disc 25.

ゲーム装置10において、サッカーゲームが実行されると、主記憶26には、このゲームに対応する仮想3次元空間が構築される。以降では、この仮想3次元空間を第1の仮想3次元空間40という。   When a soccer game is executed in the game apparatus 10, a virtual three-dimensional space corresponding to the game is constructed in the main memory 26. Hereinafter, this virtual three-dimensional space is referred to as a first virtual three-dimensional space 40.

図2は、第1の仮想3次元空間40の一例を示す図である。図2に示すように、第1の仮想3次元空間40には、互いに直交するXw軸、Yw軸、及びZw軸が設定される。第1の仮想3次元空間40に配置される各オブジェクトの位置は、これらの座標軸のワールド座標値(ワールド座標系の座標値)により特定される。   FIG. 2 is a diagram illustrating an example of the first virtual three-dimensional space 40. As shown in FIG. 2, an Xw axis, a Yw axis, and a Zw axis that are orthogonal to each other are set in the first virtual three-dimensional space 40. The position of each object arranged in the first virtual three-dimensional space 40 is specified by the world coordinate values (coordinate values of the world coordinate system) of these coordinate axes.

第1の仮想3次元空間40に配置される各オブジェクトの形状は、ポリゴンによって表現される。例えば、第1の仮想3次元空間40のオブジェクトの表面が、微小な三角形のポリゴンに分割される。オブジェクトが多数化又は精密化するほど、ポリゴンの数は増加するため、ゲーム画面を表示する際のゲーム装置10の処理負荷は増大する。   The shape of each object arranged in the first virtual three-dimensional space 40 is represented by a polygon. For example, the surface of the object in the first virtual three-dimensional space 40 is divided into minute triangular polygons. As the number of objects increases or the number of objects increases, the number of polygons increases. Therefore, the processing load on the game apparatus 10 when displaying the game screen increases.

表示部18にゲーム画面が表示される際には、後述する仮想カメラ52の視野に含まれるポリゴンの頂点を示す3次元座標に基づいて画像が作成される。例えば、ポリゴンの頂点を示す3次元座標は、後述するゲームデータ記憶部60に記憶されていてもよいし、所定の計算式に基づいて算出されてもよい。   When the game screen is displayed on the display unit 18, an image is created based on three-dimensional coordinates indicating the vertices of polygons included in the visual field of the virtual camera 52 described later. For example, the three-dimensional coordinates indicating the vertices of the polygon may be stored in the game data storage unit 60 described later, or may be calculated based on a predetermined calculation formula.

また、例えば、ゲームデータ記憶部60に記憶されたオブジェクトの色情報に基づいて、ゲーム画面の各画素に表示すべき色が特定される。例えば、選手のユニフォームの色等が特定される。なお、ゲーム画面の表示方法はこれに限られず、例えば、上記の色情報を図示しないROMにデータベース化し、これを読み出すことにより表示させるようにしてもよい。   Further, for example, the color to be displayed on each pixel of the game screen is specified based on the color information of the object stored in the game data storage unit 60. For example, the color of the player's uniform is specified. Note that the display method of the game screen is not limited to this. For example, the above color information may be displayed as a database in a ROM (not shown) and read out.

図2に示すように、第1の仮想3次元空間40には、サッカーが行われるグラウンドを表すフィールドオブジェクト42が配置される。フィールドオブジェクト42は、例えば、Xw−Zw平面に平行に配置される。   As shown in FIG. 2, a field object 42 representing a ground where soccer is played is arranged in the first virtual three-dimensional space 40. For example, the field object 42 is arranged in parallel to the Xw-Zw plane.

フィールドオブジェクト42の四方を囲むように、スタジアムオブジェクト44a,44b,44c,44d(以降、これらを総じて、単にスタジアムオブジェクト44という)が配置される。スタジアムオブジェクト44には、例えば、観客や看板を表すオブジェクト等が含まれていてもよい。   Stadium objects 44a, 44b, 44c, and 44d (hereinafter collectively referred to simply as the stadium object 44) are arranged so as to surround the four sides of the field object 42. The stadium object 44 may include, for example, an object representing a spectator or a signboard.

フィールドオブジェクト42上には、サッカーゴールを表すゴールオブジェクト46、選手を表すキャラクタオブジェクト48、サッカーボールを表すボールオブジェクト50等が配置される。つまり、第1の仮想3次元空間40には、サッカーの試合会場が形成される。   On the field object 42, a goal object 46 representing a soccer goal, a character object 48 representing a player, a ball object 50 representing a soccer ball, and the like are arranged. That is, a soccer game venue is formed in the first virtual three-dimensional space 40.

なお、フィールドオブジェクト42上のピッチ外の領域に、看板を表すオブジェクト等が配置されるようにしてもよい。ピッチとは、フィールドオブジェクト42の領域のうち、ゴールラインとタッチラインとに囲まれる領域のことである。   Note that an object representing a signboard or the like may be arranged in an area outside the pitch on the field object 42. The pitch is an area surrounded by the goal line and the touch line in the area of the field object 42.

第1の仮想3次元空間40には、複数のキャラクタオブジェクト48が配置される。即ち、一方のチームに所属する11体のキャラクタオブジェクト48と、他方のチームに所属する11体のキャラクタオブジェクト48とが配置される。   A plurality of character objects 48 are arranged in the first virtual three-dimensional space 40. That is, eleven character objects 48 belonging to one team and eleven character objects 48 belonging to the other team are arranged.

プレイヤが一方のチームを操作する場合、このチームに所属するキャラクタオブジェクト48の何れか一つが、コントローラ32からの入力により、プレイヤの操作に供される。キャラクタオブジェクト48やボールオブジェクト50は、ゲーム状況に応じて第1の仮想3次元空間40内を移動する。   When the player operates one team, any one of the character objects 48 belonging to the team is used for the player's operation by an input from the controller 32. The character object 48 and the ball object 50 move in the first virtual three-dimensional space 40 according to the game situation.

また、第1の仮想3次元空間40には、仮想カメラ52(視点)が設定される。ゲーム装置10は、仮想カメラ52から第1の仮想3次元空間40を見た様子を表すゲーム画面を表示部18に表示する。つまり、仮想カメラ52に対応する視野に含まれる各オブジェクトが、ゲーム画面として表示部18に表示される。   A virtual camera 52 (viewpoint) is set in the first virtual three-dimensional space 40. The game apparatus 10 displays a game screen representing a state in which the first virtual three-dimensional space 40 is viewed from the virtual camera 52 on the display unit 18. That is, each object included in the visual field corresponding to the virtual camera 52 is displayed on the display unit 18 as a game screen.

仮想カメラ52の視野は、例えば、仮想カメラ52の位置座標、仮想カメラ52の視線方向を示す視線ベクトル、仮想カメラ52の視野角、及びゲーム画面のアスペクト比等によって決定される。これらの値は、主記憶26に記憶され、ゲームの状況に応じて適宜変更される。   The field of view of the virtual camera 52 is determined by, for example, the position coordinates of the virtual camera 52, the line-of-sight vector indicating the line-of-sight direction of the virtual camera 52, the field angle of the virtual camera 52, the aspect ratio of the game screen, and the like. These values are stored in the main memory 26 and appropriately changed according to the game situation.

表示部18に表示されるゲーム画面は、例えば、後述するゲームデータ記憶部60に基づいて作成される。具体的には、仮想カメラ52の視野内に配置された各オブジェクトの位置座標(ワールド座標)が、所定の行列計算に基づいてゲーム画面に対応する2次元座標(スクリーン座標)に変換される。即ち、各ポリゴンの頂点を示す座標が、2次元座標に変換される。この2次元座標は、オブジェクトを表示すべきゲーム画面上の位置を特定するための情報である。   The game screen displayed on the display unit 18 is created based on, for example, a game data storage unit 60 described later. Specifically, the position coordinates (world coordinates) of each object arranged in the visual field of the virtual camera 52 are converted into two-dimensional coordinates (screen coordinates) corresponding to the game screen based on a predetermined matrix calculation. That is, the coordinates indicating the vertex of each polygon are converted into two-dimensional coordinates. The two-dimensional coordinates are information for specifying the position on the game screen where the object is to be displayed.

表示部18に表示されるゲーム画面は、所定時間毎(例えば1/60秒毎)に表示が更新される。ゲーム画面には、互いに直行するXs軸、Ys軸が設定される。例えば、ゲーム画面の左上を原点O(0,0)とし、各画素に対応する座標が割り当てられる。即ち、仮想カメラ52の視野内に配置されたオブジェクトに対応する2次元座標は、ゲーム画面に対応する領域内の座標となる。   The display of the game screen displayed on the display unit 18 is updated every predetermined time (for example, every 1/60 seconds). An Xs axis and a Ys axis that are orthogonal to each other are set on the game screen. For example, the upper left corner of the game screen is the origin O (0, 0), and coordinates corresponding to each pixel are assigned. That is, the two-dimensional coordinates corresponding to the object arranged in the field of view of the virtual camera 52 become the coordinates in the area corresponding to the game screen.

[1−3.ゲーム装置で実現される機能]
図3は、ゲーム装置10において実現される機能群を示す機能ブロック図である。図3に示すように、ゲーム装置10では、ゲームデータ記憶部60、第1画像作成部62、第2画像作成部64、奥行き情報取得部66、及び表示制御部68が実現される。これらの機能は、マイクロプロセッサ14が光ディスク25から読み出されたプログラムに従って動作することにより、実現される。
[1-3. Functions realized with game devices]
FIG. 3 is a functional block diagram showing a functional group realized in the game apparatus 10. As shown in FIG. 3, in the game apparatus 10, a game data storage unit 60, a first image creation unit 62, a second image creation unit 64, a depth information acquisition unit 66, and a display control unit 68 are realized. These functions are realized by the microprocessor 14 operating in accordance with a program read from the optical disc 25.

[1−3−1.ゲームデータ記憶部]
ゲームデータ記憶部60は、主記憶26及び光ディスク25を主として実現される。ゲームデータ記憶部60は、ゲームに必要な各種データを記憶する。本実施形態の場合、ゲームデータ記憶部60は、第1の仮想3次元空間40の現在の状況を示すゲーム状況データ等を記憶する。
[1-3-1. Game data storage unit]
The game data storage unit 60 is realized mainly with the main memory 26 and the optical disc 25. The game data storage unit 60 stores various data necessary for the game. In the case of the present embodiment, the game data storage unit 60 stores game situation data indicating the current situation of the first virtual three-dimensional space 40 and the like.

図2に示す第1の仮想3次元空間40は、ゲーム状況データに基づいて主記憶26に構築される。ゲーム状況データには、例えば、各オブジェクトを配置すべき3次元座標、このオブジェクトに対応するポリゴンの頂点を示す情報、仮想カメラ52の3次元座標、オブジェクトの色等のゲーム画面の色彩に関する色情報が格納される。   The first virtual three-dimensional space 40 shown in FIG. 2 is constructed in the main memory 26 based on the game situation data. The game situation data includes, for example, three-dimensional coordinates where each object is to be arranged, information indicating the vertex of a polygon corresponding to the object, three-dimensional coordinates of the virtual camera 52, color information regarding the color of the game screen, such as the color of the object. Is stored.

また、ゲーム状況データには、仮想カメラ52の視野に関する各種情報が格納される。即ち、ゲーム状況データには、仮想カメラ52の視線ベクトル、視野角、ゲーム画面のアスペクト比等が格納される。ゲーム状況データに格納される値は、ゲームの状況に応じて適宜更新される。   In the game situation data, various types of information related to the visual field of the virtual camera 52 are stored. That is, the game situation data stores the line-of-sight vector of the virtual camera 52, the viewing angle, the aspect ratio of the game screen, and the like. The value stored in the game situation data is updated as appropriate according to the game situation.

[1−3−2.第1画像作成部]
第1画像作成部62は、マイクロプロセッサ14を主として実現される。第1画像作成部62は、第1の仮想3次元空間40を仮想カメラ52(視点)から見た様子を表す第1画像を作成する。第1画像は、例えば、ゲームデータ記憶部60が参照されることにより作成される。つまり、第1画像は、仮想カメラ52の視野に含まれる各オブジェクトがぼかされずに、オブジェクトに対応する色が付された画像である。
[1-3-2. First image creation unit]
The first image creation unit 62 is realized mainly by the microprocessor 14. The first image creation unit 62 creates a first image representing a state in which the first virtual three-dimensional space 40 is viewed from the virtual camera 52 (viewpoint). The first image is created by referring to the game data storage unit 60, for example. In other words, the first image is an image in which each object included in the visual field of the virtual camera 52 is not blurred and is given a color corresponding to the object.

図4Aは、第1画像の一例を示す図である。第1画像は、第1の仮想3次元空間40を仮想カメラ52から見た様子が表され、図4Aに示すように、仮想カメラ52の視野に含まれる各オブジェクトに所定の色がそのまま付された状態の画像が作成される。   FIG. 4A is a diagram illustrating an example of the first image. The first image shows a state in which the first virtual three-dimensional space 40 is viewed from the virtual camera 52. As shown in FIG. 4A, each object included in the visual field of the virtual camera 52 is given a predetermined color as it is. An image in the state is created.

[1−3−3.第2画像作成部]
第2画像作成部64は、マイクロプロセッサ14を主として実現される。第2画像作成部64は、第1の仮想3次元空間40を仮想カメラ52(視点)から見た様子を表し、ぼかし処理が施された第2画像を作成する。ぼかし処理とは、第1の仮想3次元空間40に配置された各オブジェクトの色をぼかすための処理である。ぼかし処理としては、一般的なぼかし処理を用いることができる。
[1-3-3. Second image creation unit]
The second image creation unit 64 is realized mainly by the microprocessor 14. The second image creation unit 64 represents a state in which the first virtual three-dimensional space 40 is viewed from the virtual camera 52 (viewpoint), and creates a second image subjected to the blurring process. The blurring process is a process for blurring the color of each object arranged in the first virtual three-dimensional space 40. As the blurring process, a general blurring process can be used.

図4Bは、第2画像の一例を示す図である。図4Bでは、ぼかし処理が施されたオブジェクトを、模式的に点線で示している。即ち、第2画像は、図4Aに示す第1画像に比べて、各オブジェクトの輪郭や内部の領域の色がぼかされたものになる。   FIG. 4B is a diagram illustrating an example of the second image. In FIG. 4B, the object subjected to the blurring process is schematically shown by a dotted line. That is, in the second image, the outline of each object and the color of the internal area are blurred compared to the first image shown in FIG. 4A.

第2画像は、例えば、第1画像と同様に、ゲームデータ記憶部60が参照されることにより作成される。ゲームデータ記憶部60に記憶された各オブジェクトの色にぼかし処理が施される点で、第2画像は第1画像と異なる。   For example, the second image is created by referring to the game data storage unit 60 as in the case of the first image. The second image is different from the first image in that the color of each object stored in the game data storage unit 60 is blurred.

第2画像は、任意の方法に基づいて、仮想カメラ52の視野に含まれるオブジェクトに対応するぼかし処理が施されて作成されればよい。例えば、第2画像は、第1画像に基づいて生成される。   The second image may be created by performing a blurring process corresponding to an object included in the field of view of the virtual camera 52 based on an arbitrary method. For example, the second image is generated based on the first image.

より具体的には、まず、第1画像が複製されて主記憶26に記憶される。この複製された第1画像に対応する1つの画素の画素値を、この画素を囲む周囲の8つの画素値の平均値に変更することにより、ぼかし処理を行って、第2画像とするようにしてもよい。他にも、複製された第1画像に対応する1つの画素の画素値を、この画素の上下左右の4つの画素の色を混合した値とするようにしてもよい。   More specifically, first, the first image is duplicated and stored in the main memory 26. By changing the pixel value of one pixel corresponding to the copied first image to the average value of the surrounding eight pixel values surrounding the pixel, blurring processing is performed to obtain a second image. May be. In addition, the pixel value of one pixel corresponding to the copied first image may be a value obtained by mixing the colors of four pixels above, below, left, and right of this pixel.

[1−3−4.奥行き情報取得部]
奥行き情報取得部66は、第1の仮想3次元空間40に比べてポリゴンの数が削減された第2の仮想3次元空間40’を仮想カメラ52’(視点)から見た様子を表す画像の各画素毎に、当該仮想カメラ52(視点)からの距離に関する奥行き情報(距離情報)を取得する。第2の仮想3次元空間40’については後述する。以下、奥行き情報取得部66が取得する奥行き情報を、第2の仮想3次元空間40’に対応する奥行き情報という。
[1-3-4. Depth information acquisition unit]
The depth information acquisition unit 66 is an image representing a state in which the second virtual three-dimensional space 40 ′ in which the number of polygons is reduced compared to the first virtual three-dimensional space 40 is viewed from the virtual camera 52 ′ (viewpoint). For each pixel, depth information (distance information) related to the distance from the virtual camera 52 (viewpoint) is acquired. The second virtual three-dimensional space 40 ′ will be described later. Hereinafter, the depth information acquired by the depth information acquisition unit 66 is referred to as depth information corresponding to the second virtual three-dimensional space 40 ′.

奥行き情報とは、各画素に表されたオブジェクトの部分と、仮想カメラ52’との間の奥行き(距離)を示す情報である。奥行きとは、視点とオブジェクトの部分とを結ぶ直線の距離、即ち視点方向の距離のことをいう。奥行き情報は、図示しないROM等に記憶されたプログラマブルシェーダ等によって作成されて、主記憶26に記憶される。奥行き情報が作成されるタイミングは任意であってよく、例えば、表示部18に表示されるゲーム画面の更新タイミングで作成される。   The depth information is information indicating the depth (distance) between the object portion represented by each pixel and the virtual camera 52 '. The depth refers to the distance of a straight line connecting the viewpoint and the object portion, that is, the distance in the viewpoint direction. The depth information is created by a programmable shader or the like stored in a ROM or the like (not shown) and stored in the main memory 26. The timing at which the depth information is created may be arbitrary. For example, the depth information is created at the update timing of the game screen displayed on the display unit 18.

奥行き情報は、例えば、8ビットのグレースケールの画像で表現されて主記憶26等に記憶される。本実施形態では、視点に最も近い画素の画素値を255(白を表す)とし、最も遠い画素の画素値を0(黒を表す)とする。即ち、視点からの距離に応じて画素値が0〜255の間で表現される。なお、奥行き情報の作成方法はこれに限られず、公知の種々の方法を適用可能とする。   The depth information is expressed by, for example, an 8-bit gray scale image and stored in the main memory 26 or the like. In this embodiment, the pixel value of the pixel closest to the viewpoint is 255 (represents white), and the pixel value of the farthest pixel is 0 (represents black). That is, the pixel value is expressed between 0 and 255 according to the distance from the viewpoint. The depth information creation method is not limited to this, and various known methods can be applied.

[第2の仮想3次元空間]
上記のように、奥行き情報取得部66は、第1の仮想3次元空間40に比べてポリゴンの数が削減された第2の仮想3次元空間40’に基づいて奥行き情報を取得する。本実施形態においては、ゲーム装置10は、第1の仮想3次元空間40に含まれるオブジェクトのうち、所定のオブジェクトを取り除くことにより、ポリゴンの数を削減する。
[Second virtual three-dimensional space]
As described above, the depth information acquisition unit 66 acquires depth information based on the second virtual three-dimensional space 40 ′ in which the number of polygons is reduced compared to the first virtual three-dimensional space 40. In the present embodiment, the game apparatus 10 reduces the number of polygons by removing predetermined objects from the objects included in the first virtual three-dimensional space 40.

図5は、第2の仮想3次元空間40’を示す図である。図5に示すように、例えば、第1の仮想3次元空間40から、ゴールオブジェクト46、キャラクタオブジェクト48、及びボールオブジェクト50が取り除かれる。つまり、第2の仮想3次元空間40’においては、第1の仮想3次元空間40に比べて、これらの取り除かれたオブジェクトに含まれるポリゴンの数の総和分のポリゴンの数が削減される。取り除かれるオブジェクトは、予め定められていてよい。   FIG. 5 is a diagram illustrating the second virtual three-dimensional space 40 ′. As shown in FIG. 5, for example, the goal object 46, the character object 48, and the ball object 50 are removed from the first virtual three-dimensional space 40. That is, in the second virtual three-dimensional space 40 ′, the number of polygons corresponding to the total number of polygons included in these removed objects is reduced compared to the first virtual three-dimensional space 40. The object to be removed may be predetermined.

なお、図5に示すように、スタジアムオブジェクト44の形状は、簡略化されてもよい。例えば、スタジアムオブジェクト44を構成する面が、Yw軸方向と平行になるように簡略化される。以降では、これをスタジアムオブジェクト44’という。   As shown in FIG. 5, the shape of the stadium object 44 may be simplified. For example, the surfaces constituting the stadium object 44 are simplified so as to be parallel to the Yw axis direction. Hereinafter, this is referred to as a stadium object 44 '.

スタジアムオブジェクト44’に含まれるポリゴンの数は、スタジアムオブジェクト44に比べて少ない。第2の仮想3次元空間40’では、スタジアムオブジェクト44がスタジアムオブジェクト44’に置き換えられている。スタジアムオブジェクト44’は、スタジアムオブジェクト44の位置に対応する位置に配置される。   The number of polygons included in the stadium object 44 ′ is smaller than that of the stadium object 44. In the second virtual three-dimensional space 40 ', the stadium object 44 is replaced with a stadium object 44'. The stadium object 44 ′ is arranged at a position corresponding to the position of the stadium object 44.

第2の仮想3次元空間40’は、フィールドオブジェクト42’の四方を囲むように、スタジアムオブジェクト44a’,44b',44c’,44d’が含まれる。フィールドオブジェクト42’とスタジアムオブジェクト44’により、第2の仮想3次元空間40’は、図5に示すように、ほぼ箱形状となる。   The second virtual three-dimensional space 40 ′ includes stadium objects 44 a ′, 44 b ′, 44 c ′, and 44 d ′ so as to surround the four sides of the field object 42 ′. Due to the field object 42 ′ and the stadium object 44 ′, the second virtual three-dimensional space 40 ′ has a substantially box shape as shown in FIG. 5.

また、第2の仮想3次元空間40’には、仮想カメラ52’(視点)が配置される。本実施形態においては、仮想カメラ52と仮想カメラ52’の3次元座標は、同一であるものとする。奥行き情報取得部66は、以上説明した第2の仮想3次元空間40’に基づいて奥行き情報を取得する。   A virtual camera 52 '(viewpoint) is arranged in the second virtual three-dimensional space 40'. In the present embodiment, it is assumed that the three-dimensional coordinates of the virtual camera 52 and the virtual camera 52 'are the same. The depth information acquisition unit 66 acquires depth information based on the second virtual three-dimensional space 40 ′ described above.

図6は、奥行き情報の一例を示す図である。図6に示す例は、図5に示す第2の仮想3次元空間40’に対応する奥行き情報である。即ち、第1の仮想3次元空間40のうち、フィールドオブジェクト42と簡略化されたスタジアムオブジェクト44のみが考慮されて、奥行き情報が作成される。図6の例では、仮想的に、奥行き情報を4段階(図6の領域E1〜領域E4)とする。   FIG. 6 is a diagram illustrating an example of depth information. The example shown in FIG. 6 is depth information corresponding to the second virtual three-dimensional space 40 ′ shown in FIG. 5. That is, only the field object 42 and the simplified stadium object 44 in the first virtual three-dimensional space 40 are considered, and the depth information is created. In the example of FIG. 6, the depth information is virtually divided into four levels (region E1 to region E4 in FIG. 6).

図6に示すように、仮想カメラ52’との距離が近い画素の領域E1は白く(網かけがない領域)、仮想カメラ52’との距離が遠い画素の領域E4は黒く(網かけがある領域)表現される。領域E1と領域E4の間にある領域E2と領域E3は、それぞれ仮想カメラ52’からの距離に応じて濃淡が決定される。つまり、仮想カメラ52’からの距離が画素値によって表現される。   As shown in FIG. 6, the pixel area E1 that is close to the virtual camera 52 'is white (area without shading), and the pixel area E4 that is far from the virtual camera 52' is black (has shading). Area) is expressed. The density of the areas E2 and E3 between the areas E1 and E4 is determined according to the distance from the virtual camera 52 '. That is, the distance from the virtual camera 52 'is expressed by the pixel value.

なお、奥行き情報は、第2の仮想3次元空間40’に対応する奥行きが表現されればよく、奥行き情報のデータ構成の例は、これに限られない。例えば、図6のようなグレースケールの画像ではなく、RGBカラーモデルによって表現される画像であってもよいし、各画素の座標と距離を示す値とがデータテーブルに対応付けられて主記憶26に記憶されるようにしてもよい。   The depth information only needs to represent the depth corresponding to the second virtual three-dimensional space 40 ′, and the data configuration example of the depth information is not limited to this. For example, the image may be an image expressed by an RGB color model instead of the gray scale image as shown in FIG. 6, and the coordinates of each pixel and the value indicating the distance are associated with the data table in the main memory 26. May be stored.

[1−3−5.表示制御部]
表示制御部68は、マイクロプロセッサ14及び画像処理部16を主として実現される。表示制御部68は、第1画像と第2画像の各画素の合成の割合を奥行き情報に基づいて決定し、第1画像と第2画像が合成された画面を表示部18に表示させる。
[1-3-5. Display control unit]
The display control unit 68 is realized mainly by the microprocessor 14 and the image processing unit 16. The display control unit 68 determines the ratio of combining each pixel of the first image and the second image based on the depth information, and causes the display unit 18 to display a screen on which the first image and the second image are combined.

図4Cは、表示制御部68が表示させる画像の一例を示す図である。図4Cの例では、図4Bと同様に、ぼかし処理が施されたオブジェクトを模式的に点線で示している。また、点線が細かいほど、オブジェクトの色がぼかされていることを示している。   FIG. 4C is a diagram illustrating an example of an image displayed by the display control unit 68. In the example of FIG. 4C, similarly to FIG. 4B, the object subjected to the blurring process is schematically indicated by a dotted line. In addition, the finer the dotted line, the more blurred the color of the object.

表示制御部68が、第1画像と第2画像が合成された画像を表示させることにより、視点から近いオブジェクトを鮮明に表示させ、視点から遠いオブジェクトをぼかして表示させることができる。   The display control unit 68 can display an image obtained by combining the first image and the second image, thereby clearly displaying an object close to the viewpoint and blurring and displaying an object far from the viewpoint.

表示制御部68が第1画像と第2画像を合成させる方法は、例えば、いわゆるアルファ値(半透明合成率,透過度)を使用した半透明合成を用いる。アルファ値を0〜1の実数とすると、ゲーム画面のある画素(座標を(Xs,Ys)とする)の画素値は、「(1−アルファ値)×第1画像の座標(Xs,Ys)の画素値+アルファ値×第2画像の座標(Xs,Ys)の画素値」等のように算出される。   As a method for the display control unit 68 to synthesize the first image and the second image, for example, translucent synthesis using a so-called alpha value (semi-transparent synthesis rate, transparency) is used. If the alpha value is a real number between 0 and 1, the pixel value of a pixel on the game screen (coordinate is (Xs, Ys)) is "(1-alpha value) x first image coordinate (Xs, Ys)" Pixel value + alpha value × pixel value of second image coordinates (Xs, Ys) ”.

なお、本実施形態では、奥行き情報取得部66によって取得された奥行き情報(図6参照)における画素(Xs,Ys)の奥行き情報の値を、第1画素及び第2画像の画素(Xs、Ys)の奥行き情報の値とみなし、第1画像及び第2画像の画素(Xs,Ys)のアルファ値が算出される。   In this embodiment, the depth information value of the pixel (Xs, Ys) in the depth information (see FIG. 6) acquired by the depth information acquisition unit 66 is used as the first pixel and the second image pixel (Xs, Ys). ), The alpha values of the pixels (Xs, Ys) of the first image and the second image are calculated.

つまり、アルファ値は、奥行き情報に基づいて決定される。本実施形態においては、奥行きが大きい画素ほど、アルファ値が大きくなる。つまり、視点との距離が離れるほど、ぼかしの程度が大きくなる。一方、奥行きが小さい画素ほど、アルファ値が小さくなる。つまり、視点との距離が近いほど、ぼかしの程度が小さくなる。   That is, the alpha value is determined based on the depth information. In the present embodiment, the alpha value increases as the depth of the pixel increases. That is, the greater the distance from the viewpoint, the greater the degree of blurring. On the other hand, the smaller the depth, the smaller the alpha value. That is, the closer to the viewpoint, the smaller the degree of blurring.

なお、第1画像と第2画像の各画素の合成の割合が奥行き情報に基づいて決定されればよく、画像の合成方法は、これに限られない。画像の合成方法は、公知の任意の手法を適用可能とする。   Note that the ratio of combining the pixels of the first image and the second image may be determined based on the depth information, and the image combining method is not limited to this. Any known method can be applied to the image composition method.

[1−4.ゲーム装置にて実行される処理]
図7は、ゲーム装置10において所定時間毎(例えば、1/60秒毎)に実行される処理の一例を示すフロー図である。図7の処理は、マイクロプロセッサ14が、光ディスク25から読み出されたプログラムに従って動作することにより実行される。
[1-4. Processing executed on game device]
FIG. 7 is a flowchart illustrating an example of processing executed at predetermined time intervals (for example, every 1/60 seconds) in the game apparatus 10. The processing of FIG. 7 is executed by the microprocessor 14 operating according to a program read from the optical disc 25.

図7に示すように、まず、マイクロプロセッサ14(第1画像作成部62)は、主記憶26に記憶されたゲームデータ記憶部60を参照し、第1の仮想3次元空間40を仮想カメラ52から見た様子を表す第1画像を作成する(S101)。S101において作成される第1画像(図4A参照)は、仮想カメラ52の視野に含まれる各オブジェクトがぼかされずに、各オブジェクトの色がそのまま表された画像である。   As shown in FIG. 7, first, the microprocessor 14 (first image creation unit 62) refers to the game data storage unit 60 stored in the main memory 26, and uses the first virtual three-dimensional space 40 as the virtual camera 52. A first image representing the state seen from the above is created (S101). The first image created in S101 (see FIG. 4A) is an image in which the color of each object is represented as it is without blurring each object included in the visual field of the virtual camera 52.

マイクロプロセッサ14(第2画像作成部64)は、第1の仮想3次元空間40を仮想カメラ52から見た様子を表し、ぼかし処理が施された第2画像を作成する(S102)。S102において作成される第2画像(図4B参照)は、例えば、第1画像に対して所定のぼかし処理が施された画像である。   The microprocessor 14 (second image creation unit 64) represents a state in which the first virtual three-dimensional space 40 is viewed from the virtual camera 52, and creates a second image subjected to the blurring process (S102). The second image created in S102 (see FIG. 4B) is, for example, an image obtained by performing a predetermined blurring process on the first image.

マイクロプロセッサ14(奥行き情報取得部66)は、第2の仮想3次元空間40’に対応する奥行き情報を取得する(S103)。本実施形態においては、第1の仮想3次元空間40から、ゴールオブジェクト46、キャラクタオブジェクト48、及びボールオブジェクト50を取り除いた第2の仮想3次元空間40’に対応する奥行き情報が取得される。この奥行き情報は、先述のように、例えば、プログラマブルシェーダ等によって、ゲーム画面の表示タイミングが訪れる毎に作成されて主記憶26等に記憶されている。   The microprocessor 14 (depth information acquisition unit 66) acquires depth information corresponding to the second virtual three-dimensional space 40 '(S103). In the present embodiment, depth information corresponding to the second virtual three-dimensional space 40 ′ obtained by removing the goal object 46, the character object 48, and the ball object 50 from the first virtual three-dimensional space 40 is acquired. As described above, the depth information is generated and stored in the main memory 26 or the like by the programmable shader or the like every time the game screen display timing comes.

マイクロプロセッサ14(表示制御部68)は、奥行き情報に基づいて各画素の半透明合成の割合を決定する(S104)。S104において決定された割合は、例えばアルファ値であり、画素の位置座標と対応付けられて主記憶26に記憶される。   The microprocessor 14 (display control unit 68) determines the ratio of semitransparent composition of each pixel based on the depth information (S104). The ratio determined in S104 is, for example, an alpha value, and is stored in the main memory 26 in association with the pixel position coordinates.

S104においては、例えば、奥行き情報に対応する画像(図6)の画素値に基づいて半透明合成の割合が決定される。より具体的には、表示制御部68が、ある画素の画素値を「(1−アルファ値)×第1画像の画素値+アルファ値×第2画像の画素値」として算出することによりゲーム画面を表示させる場合、S304においては、アルファ値=第2画像の最大アルファ値(例えば0.95)*(1−奥行き情報の画素値/255)となるように算出される。   In S104, for example, the ratio of the translucent composition is determined based on the pixel value of the image (FIG. 6) corresponding to the depth information. More specifically, the display controller 68 calculates the pixel value of a certain pixel as “(1−alpha value) × pixel value of the first image + alpha value × pixel value of the second image”, so that the game screen is displayed. In S304, the alpha value = the maximum alpha value of the second image (for example, 0.95) * (1−pixel value of depth information / 255) is calculated in S304.

このように半透明合成の割合を定めることにより、奥行き情報に応じた割合を画素毎に決定することができる。上記の例では、仮想カメラ52に近い画素ほどアルファ値が小さくなるので、第2画像の割合を小さくすることができる。即ち、仮想カメラ52に近い画素ほどオブジェクトのぼかし具合が少なくなる。   By determining the ratio of semitransparent composition in this way, the ratio according to the depth information can be determined for each pixel. In the above example, since the alpha value is smaller as the pixel is closer to the virtual camera 52, the ratio of the second image can be reduced. That is, the degree of blurring of the object decreases as the pixel is closer to the virtual camera 52.

なお、S304においては、奥行き情報に基づいて半透明合成の割合が決定されればよく、半透明合成の割合の決定方法は、これに限られない。例えば、奥行き情報と半透明合成の割合が対応付けられたデータテーブルを用意しておいてもよいし、所定の計算式に奥行き情報を代入して半透明合成の割合が算出されるようにしてもよい。   In S304, the ratio of the semi-transparent composition may be determined based on the depth information, and the method for determining the ratio of the semi-transparent composition is not limited to this. For example, a data table in which the depth information and the ratio of the semi-transparent composition are associated may be prepared, or the ratio of the translucent composition may be calculated by substituting the depth information into a predetermined calculation formula. Also good.

マイクロプロセッサ14は(表示制御部68)、第1画像と第2画像とを合成して表示部18に表示させる(S105)。例えば、S104において決定された半透明合成の割合に基づいて第1画像(図4A)と第2画像(図4B)とが合成された合成画像(図4C)が、表示部18に表示される。即ち、ある画素の画素値が、「(1−アルファ値)×第1画像の画素値+アルファ値×第2画像の画素値」となる合成画像が表示される。   The microprocessor 14 (display control unit 68) combines the first image and the second image and causes the display unit 18 to display them (S105). For example, a composite image (FIG. 4C) in which the first image (FIG. 4A) and the second image (FIG. 4B) are combined based on the translucent combination ratio determined in S <b> 104 is displayed on the display unit 18. . That is, a composite image in which the pixel value of a certain pixel is “(1−alpha value) × pixel value of first image + alpha value × pixel value of second image” is displayed.

[1−5.実施形態1のまとめ]
以上説明した実施形態1に係るゲーム装置10は、第2の仮想3次元空間40’に対応する奥行き情報に基づいて、第1画像と第2画像の半透明合成の割合を決定して、この割合に基づいて第1画像と第2画像を合成して表示部18に表示させる。実施形態1におけるゲーム装置10によれば、仮想カメラ52に近いオブジェクトを鮮明に表示させ、遠いオブジェクトをぼかして表示させることができ、遠近感の表現を実現することができる。
[1-5. Summary of Embodiment 1]
Based on the depth information corresponding to the second virtual three-dimensional space 40 ′, the game device 10 according to the first embodiment described above determines the ratio of the translucent composition of the first image and the second image, and Based on the ratio, the first image and the second image are combined and displayed on the display unit 18. According to the game device 10 in the first embodiment, an object close to the virtual camera 52 can be clearly displayed, and a distant object can be displayed in a blurred manner, thereby realizing a sense of perspective.

また、ゲーム装置10によれば、第1の仮想3次元空間40に比べてポリゴンの数が削減された第2の仮想3次元空間40’に基づいて奥行き情報を取得して、遠近感の表現を実現することができる。ゲーム装置10によれば、例えば、第1の仮想3次元空間40に基づいて奥行き情報を取得する場合に比べて、ゲーム装置10の処理負荷を軽減することができる。   In addition, according to the game apparatus 10, depth information is acquired based on the second virtual three-dimensional space 40 ′ in which the number of polygons is reduced compared to the first virtual three-dimensional space 40, thereby expressing perspective. Can be realized. According to the game device 10, for example, the processing load on the game device 10 can be reduced as compared with the case where depth information is acquired based on the first virtual three-dimensional space 40.

より具体的には、例えば、仮想カメラ52の視野内に多数のオブジェクトが含まれている場合、これらのオブジェクトの全てを考慮して奥行き情報を作成する際に、ポリゴン数の増加に起因してゲーム装置10に処理負荷がかかる。しかし、視野内に多数のオブジェクトが含まれている場合には、ゲーム画面に表示されるオブジェクトは比較的小さいことが多い。   More specifically, for example, when a large number of objects are included in the field of view of the virtual camera 52, when creating depth information in consideration of all of these objects, due to an increase in the number of polygons A processing load is applied to the game apparatus 10. However, when many objects are included in the field of view, the objects displayed on the game screen are often relatively small.

したがって、オブジェクトを取り除いて作成された奥行き情報と、オブジェクトを全て考慮に入れて作成された奥行き情報と、の間には、例えば、オブジェクトがゲーム画面にズームされて表示されている場合等に比べて、データ内容の差異が比較的少ない。即ち、本実施形態のように、第2の仮想3次元空間40’に基づいて取得される奥行き情報に基づいて第1画像と第2画像を合成しても遠近感を表現でき、かつ、処理負荷の軽減を実現することができる。   Therefore, between the depth information created by removing the object and the depth information created by taking all the objects into consideration, for example, compared to when the object is zoomed and displayed on the game screen, etc. Therefore, the difference in data contents is relatively small. That is, as in the present embodiment, the perspective can be expressed even if the first image and the second image are synthesized based on the depth information acquired based on the second virtual three-dimensional space 40 ', and the processing Reduction of load can be realized.

なお、本発明は、以上説明した実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。例えば、本実施形態では家庭用ゲーム機を例に挙げて説明したが、ゲームセンター等に設置されるアーケード型ゲーム機であってもよい。   The present invention is not limited to the embodiment described above, and can be appropriately changed without departing from the spirit of the present invention. For example, although the home game machine has been described as an example in the present embodiment, an arcade game machine installed in a game center or the like may be used.

また、本実施形態においては、第2の仮想3次元空間40’に含まれるオブジェクトを、フィールドオブジェクト42’及びスタジアムオブジェクト44’としたが、第1の仮想3次元空間40に配置されるオブジェクトのうち、予め定められたオブジェクトが含まれるようにすればよい。つまり、第1の仮想3次元空間40から取り除かれるオブジェクトは、本実施形態の例に限られない。   In the present embodiment, the objects included in the second virtual three-dimensional space 40 ′ are the field object 42 ′ and the stadium object 44 ′, but the objects placed in the first virtual three-dimensional space 40 Of these, a predetermined object may be included. That is, the object removed from the first virtual three-dimensional space 40 is not limited to the example of this embodiment.

また、ほぼ箱形状の第2の仮想3次元空間40’(図5)を例に挙げて説明したが、第2の仮想3次元空間40’は、第1の仮想3次元空間40に比べてポリゴン数が削減されたものであればよく、フィールドオブジェクト42’を、傾斜するスタジアムオブジェクト44’で囲むようにしてもよい。即ち、すり鉢状の第2の仮想3次元空間40’となるようにしてもよい。   Further, the second virtual three-dimensional space 40 ′ (FIG. 5) having a substantially box shape has been described as an example. However, the second virtual three-dimensional space 40 ′ is compared with the first virtual three-dimensional space 40. As long as the number of polygons is reduced, the field object 42 ′ may be surrounded by an inclined stadium object 44 ′. That is, it may be a mortar-shaped second virtual three-dimensional space 40 '.

また、図7に示す処理は所定間隔で実行されるように説明したが、図7の処理が実行されるための条件を設けてもよい。例えば、仮想カメラ52との距離が近いオブジェクトはゲーム画面内における上記オブジェクトの占める領域が大きい。このオブジェクトが占める領域は、様々な奥行き情報の値を取る領域をまたがるため、この領域内の奥行き情報の誤差が大きくなる。即ち、オブジェクトが部分的にぼかされて表示される。このような状況では、図7の処理が実行されないようにしてもよい。   Moreover, although the process shown in FIG. 7 was demonstrated so that it might be performed at predetermined intervals, you may provide the conditions for performing the process of FIG. For example, an object that is close to the virtual camera 52 has a large area occupied by the object in the game screen. Since the area occupied by this object spans areas taking various values of depth information, the error of depth information in this area increases. That is, the object is partially blurred and displayed. In such a situation, the process of FIG. 7 may not be executed.

例えば、仮想カメラ52の位置がフィールドオブジェクト42から所定距離以上離れた場合には、フィールドオブジェクト42上に配置された各オブジェクトがゲーム画面内において占める領域が小さくなり、この領域内での奥行き情報の誤差が小さいため、部分的にぼかされて表示されるオブジェクトがない。また例えば、ボールオブジェクト50が所定の高さ以上の位置に配置されたときに、このボールオブジェクト50の動きに仮想カメラ52が従動して、仮想カメラ52の位置がフィールドオブジェクト42から離れることがある。このような場合にも、上記と同様に、部分的にぼかされて表示されるオブジェクトがない。これらの所定の場合にのみ、図7の処理が実行されるようにしてもよい。   For example, when the position of the virtual camera 52 is away from the field object 42 by a predetermined distance or more, the area occupied by each object arranged on the field object 42 in the game screen is reduced, and the depth information in this area is reduced. Since the error is small, there is no object that is partially blurred and displayed. Further, for example, when the ball object 50 is disposed at a position higher than a predetermined height, the virtual camera 52 may follow the movement of the ball object 50 and the position of the virtual camera 52 may be separated from the field object 42. . Even in such a case, as described above, there is no object that is displayed partially blurred. Only in these predetermined cases, the process of FIG. 7 may be executed.

一方、キャラクタオブジェクト48と仮想カメラ52との距離が所定値以内である場合(つまりズームインする場合)には、フィールドオブジェクト42上に配置された各オブジェクトがゲーム画面内において占める領域が大きくなり、この領域内での奥行き情報の誤差が大きくなるため、部分的にぼかされて表示されるオブジェクトがある。このような場合には、図7に示す処理が行われなくてもよい。   On the other hand, when the distance between the character object 48 and the virtual camera 52 is within a predetermined value (that is, when zooming in), the area occupied by each object arranged on the field object 42 in the game screen increases. Since an error in depth information in the area becomes large, there are objects that are partially blurred and displayed. In such a case, the process shown in FIG. 7 may not be performed.

[2.実施形態2]
以下、実施形態2について説明する。実施形態1においては、第1の仮想3次元空間40から所定のオブジェクトが取り除かれた第2の仮想3次元空間40’に対応する奥行き情報が作成されていた。
[2. Embodiment 2]
The second embodiment will be described below. In the first embodiment, depth information corresponding to the second virtual three-dimensional space 40 ′ in which a predetermined object is removed from the first virtual three-dimensional space 40 is created.

しかしながら、第1の仮想3次元空間40から取り除くオブジェクトを予め定めておいた場合には、ゲーム状況に応じた画面表示処理ができない可能性がある。例えば、仮想カメラ52とキャラクタオブジェクト48が接近した場合には、第1画像と第2画像とを合成するための奥行き情報が正確に取得されない可能性がある。   However, if an object to be removed from the first virtual three-dimensional space 40 is determined in advance, there is a possibility that screen display processing according to the game situation cannot be performed. For example, when the virtual camera 52 and the character object 48 approach each other, there is a possibility that the depth information for combining the first image and the second image may not be acquired accurately.

図8Aは、仮想カメラ52とキャラクタオブジェクト48が接近した場合における第1の仮想3次元空間40に基づいて取得される奥行き情報の一例である。図8Aに示す例では、図6と同様に、奥行き情報を仮想的に4段階(領域E1〜領域E4)とする。キャラクタオブジェクト48が表示される画素は、仮想カメラ52に接近しているので、領域E1に含まれる。他の領域E2〜領域E4は、図6と同様であるので説明を省略する。   FIG. 8A is an example of depth information acquired based on the first virtual three-dimensional space 40 when the virtual camera 52 and the character object 48 approach each other. In the example shown in FIG. 8A, the depth information is virtually divided into four stages (region E1 to region E4), as in FIG. Since the pixel on which the character object 48 is displayed is close to the virtual camera 52, it is included in the region E1. The other areas E2 to E4 are the same as in FIG.

図8Bは、仮想カメラ52とキャラクタオブジェクト48が接近した場合において、実施形態1のゲーム装置10で取得される奥行き情報の一例である。図8Bに示す例では、図8Aにおいてキャラクタオブジェクト48が配置されていた領域を点線で示している。   FIG. 8B is an example of depth information acquired by the game apparatus 10 of the first embodiment when the virtual camera 52 and the character object 48 approach each other. In the example shown in FIG. 8B, the area where the character object 48 is arranged in FIG. 8A is indicated by a dotted line.

図8に示すように、キャラクタオブジェクト48が領域E1〜領域E4にまたがって配置されており、本来、領域E1として表現されるべき画素が、領域E2〜領域E4でも表現される。即ち、奥行き情報に誤差が生じる。仮想カメラ52とキャラクタオブジェクト48が接近すればするほど、キャラクタオブジェクト48の領域は大きくなるので、この誤差が生じる画素数が多くなる。この際に実施形態1の処理をそのまま適用した場合、第1画像と第2画像とを合成した際に、キャラクタオブジェクト48の足元が鮮明に表示されているにも関わらず、頭だけぼかされて表示されてしまう。   As shown in FIG. 8, the character object 48 is arranged over the areas E1 to E4, and pixels that should be originally expressed as the area E1 are also expressed in the areas E2 to E4. That is, an error occurs in the depth information. The closer the virtual camera 52 and the character object 48 are, the larger the area of the character object 48 becomes, so the number of pixels in which this error occurs increases. In this case, when the processing of the first embodiment is applied as it is, when the first image and the second image are combined, the head of the character object 48 is clearly displayed even though the feet of the character object 48 are clearly displayed. Will be displayed.

上記のことを防止するために、実施形態2における第2の仮想3次元空間40’は、第1の仮想3次元空間40に配置された複数のオブジェクトにおける所定のオブジェクトのうち、仮想カメラ52(視点)との奥行きが所定値以上の所定のオブジェクトが取り除かれたものである点に特徴がある。   In order to prevent the above, the second virtual three-dimensional space 40 ′ in the second embodiment is the virtual camera 52 (among the predetermined objects among the plurality of objects arranged in the first virtual three-dimensional space 40. It is characterized in that a predetermined object having a depth with respect to the (viewpoint) is removed from a predetermined value.

なお、実施形態2に係るゲーム装置10のハードウェア構成や機能ブロック図は、実施形態1(図1、図3参照)と同様であるため、ここでは説明を省略する。また、実施形態2に係るゲーム装置10においても、図2と同様の第1の仮想3次元空間40が生成されてゲームが実行される。   Note that the hardware configuration and functional block diagram of the game apparatus 10 according to the second embodiment are the same as those in the first embodiment (see FIGS. 1 and 3), and thus the description thereof is omitted here. Also in the game apparatus 10 according to the second embodiment, the first virtual three-dimensional space 40 similar to that in FIG. 2 is generated and the game is executed.

図9は、実施形態2における第1の仮想3次元空間40の一例を示す図である。図9では、フィールドオブジェクト42上に配置されるキャラクタオブジェクト48をキャラクタオブジェクト48a,48b,48cとする。   FIG. 9 is a diagram illustrating an example of the first virtual three-dimensional space 40 in the second embodiment. In FIG. 9, character objects 48 arranged on the field object 42 are character objects 48a, 48b, and 48c.

仮想カメラ52は、キャラクタオブジェクト48aの背後に配置される。図9の例では、仮想カメラ52とキャラクタオブジェクト48aとの距離は所定値未満であり、仮想カメラ52とキャラクタオブジェクト48b及びキャラクタオブジェクト48cとの距離やゴールオブジェクト46等の他のオブジェクトとの距離は、所定値以上である。他のオブジェクトについては、図2と同様であるので、説明を省略する。   The virtual camera 52 is disposed behind the character object 48a. In the example of FIG. 9, the distance between the virtual camera 52 and the character object 48 a is less than a predetermined value, and the distance between the virtual camera 52 and the character object 48 b and the character object 48 c and the distance between other objects such as the goal object 46 are as follows. , Is a predetermined value or more. The other objects are the same as in FIG.

[2−1.第2の仮想3次元空間]
先述のように、実施形態2における第2の仮想3次元空間40’は、第1の仮想3次元空間40に配置された複数のオブジェクトのうち仮想カメラ52(視点)との奥行きが所定値以上の所定のオブジェクトが取り除かれたものである点で実施形態1と異なる。
[2-1. Second virtual three-dimensional space]
As described above, in the second virtual three-dimensional space 40 ′ according to the second embodiment, the depth from the virtual camera 52 (viewpoint) among a plurality of objects arranged in the first virtual three-dimensional space 40 is a predetermined value or more. This is different from the first embodiment in that the predetermined object is removed.

図10は、実施形態2における第2の仮想3次元空間40’を示す図である。図10の例では、図9に示す第1の仮想3次元空間40に、仮想カメラ52との奥行きが所定値未満のキャラクタオブジェクト48aが存在した場合を示す。   FIG. 10 is a diagram illustrating a second virtual three-dimensional space 40 ′ according to the second embodiment. In the example of FIG. 10, the case where the character object 48a whose depth with the virtual camera 52 is less than a predetermined value exists in the first virtual three-dimensional space 40 shown in FIG.

実施形態2の第2の仮想3次元空間40’では、仮想カメラ52との奥行きが所定値以上の所定のオブジェクトが取り除かれるので、図10に示すように、キャラクタオブジェクト48は取り除かれずに配置される。これをキャラクタオブジェクト48a’とする。つまり、第2の仮想3次元空間40’には、フィールドオブジェクト42’、スタジアムオブジェクト44’、及びキャラクタオブジェクト48a’が配置される。   In the second virtual three-dimensional space 40 ′ according to the second embodiment, the predetermined object whose depth from the virtual camera 52 is equal to or larger than the predetermined value is removed, so that the character object 48 is arranged without being removed as shown in FIG. The This is a character object 48a '. That is, the field object 42 ′, the stadium object 44 ′, and the character object 48 a ′ are arranged in the second virtual three-dimensional space 40 ′.

奥行き情報取得部66は、実施形態1と同様に、第2の仮想3次元空間40’を仮想カメラ52’(視点)から見た様子を表す画像の各画素毎に、当該仮想カメラ52(視点)からの距離に関する奥行き情報(距離情報)を取得する。   Similarly to the first embodiment, the depth information acquisition unit 66 performs the virtual camera 52 (viewpoint) for each pixel of the image representing the state in which the second virtual three-dimensional space 40 ′ is viewed from the virtual camera 52 ′ (viewpoint). ) To obtain depth information (distance information) related to the distance from.

奥行き情報とは、実施形態1と同様に、各画素に表されたオブジェクトの部分と、仮想カメラ52’との間の奥行き(距離)を示す情報である。奥行きとは、視点とオブジェクトとを結ぶ直線の距離、即ち視点方向の距離のことをいう。   The depth information is information indicating the depth (distance) between the portion of the object represented by each pixel and the virtual camera 52 ', as in the first embodiment. The depth refers to the distance of a straight line connecting the viewpoint and the object, that is, the distance in the viewpoint direction.

図11は、実施形態2における奥行き情報の一例を示す図である。図11の例は、図10の第2の仮想3次元空間40’に対応する奥行き情報を示す。即ち、フィールドオブジェクト42’、スタジアムオブジェクト44’、及びキャラクタオブジェクト48a’のそれぞれと、仮想カメラ52’と、の奥行きを示す奥行き情報が作成される。この例では、図6と同様に仮想的に奥行き情報を4段階(図11の領域E1〜領域E4)とする。   FIG. 11 is a diagram illustrating an example of depth information according to the second embodiment. The example in FIG. 11 shows depth information corresponding to the second virtual three-dimensional space 40 ′ in FIG. 10. That is, depth information indicating the depth of each of the field object 42 ′, the stadium object 44 ′, the character object 48 a ′, and the virtual camera 52 ′ is created. In this example, depth information is virtually divided into four stages (region E1 to region E4 in FIG. 11) as in FIG.

つまり、実施形態2における奥行き情報は、キャラクタオブジェクト48a’が考慮される点で実施形態1における奥行き情報(図6)とは異なる。図11に示す例では、キャラクタオブジェクト48a’に対応する領域は、仮想カメラ52’との距離が最も近い領域E1となっている。他の領域E2〜領域E4については、実施形態1と同様である。   That is, the depth information in the second embodiment is different from the depth information in the first embodiment (FIG. 6) in that the character object 48a 'is considered. In the example shown in FIG. 11, the area corresponding to the character object 48a 'is an area E1 that is closest to the virtual camera 52'. Other regions E2 to E4 are the same as those in the first embodiment.

[2−2.ゲーム装置にて実行される処理]
図12に示す処理は、実施形態1における図6に示す処理に対応している。つまり、図12に示す処理は、ゲーム装置10において所定時間毎(例えば1/60秒毎)に実行される。
[2-2. Processing executed on game device]
The process shown in FIG. 12 corresponds to the process shown in FIG. 6 in the first embodiment. That is, the process shown in FIG. 12 is executed at predetermined time intervals (for example, every 1/60 seconds) in the game apparatus 10.

図12に示すように、S201,S202は、それぞれS101,S102と同様であるので、説明を省略する。   As shown in FIG. 12, S201 and S202 are the same as S101 and S102, respectively, and thus the description thereof is omitted.

マイクロプロセッサ14は、第1の仮想3次元空間40に、仮想カメラ52との奥行きが所定値未満のオブジェクトが配置されているか否かを判断する(S203)。具体的には、例えば、ゲームデータ記憶部60に記憶された各オブジェクトの位置座標と、仮想カメラ52の位置座標と、の距離が予め定められた所定値以上であるか否かによって判断される。この所定値は、予め光ディスク25等に記憶されている。   The microprocessor 14 determines whether or not an object whose depth from the virtual camera 52 is less than a predetermined value is arranged in the first virtual three-dimensional space 40 (S203). Specifically, for example, the determination is made based on whether or not the distance between the position coordinates of each object stored in the game data storage unit 60 and the position coordinates of the virtual camera 52 is equal to or greater than a predetermined value. . This predetermined value is stored in advance on the optical disc 25 or the like.

なお、S203においては、仮想カメラ52と各オブジェクトとの位置関係に基づいて判断されればよく、S203の判断方法は、これに限られない。他にも、例えば、第1の仮想3次元空間40に配置される各オブジェクトに対応するポリゴンのうち、最も仮想カメラ52から近いポリゴンとの距離が、所定値以上であるか否かによって判断されるようにしてもよい。   Note that in S203, the determination may be made based on the positional relationship between the virtual camera 52 and each object, and the determination method in S203 is not limited to this. In addition, for example, it is determined based on whether or not the distance from the polygon closest to the virtual camera 52 among the polygons corresponding to each object arranged in the first virtual three-dimensional space 40 is a predetermined value or more. You may make it do.

奥行きが所定値未満のオブジェクトが配置されている場合(S203;Y)、マイクロプロセッサ14(奥行き情報取得部66)は、奥行きが所定値以上のオブジェクトを取り除き、奥行きが所定値未満のオブジェクトが含まれる第2の仮想3次元空間40’に対応する奥行き情報を取得する(S204)。   When an object with a depth less than a predetermined value is arranged (S203; Y), the microprocessor 14 (depth information acquisition unit 66) removes an object with a depth greater than or equal to a predetermined value and includes an object with a depth less than a predetermined value. The depth information corresponding to the second virtual three-dimensional space 40 ′ is acquired (S204).

S204においては、S103と同様の処理が行われることにより奥行き情報が取得される。S204において取得される奥行き情報は、奥行きが所定値未満のオブジェクトが含まれた状態の奥行き情報となる。つまり、図11の例のように、キャラクタオブジェクト48a’が含まれた状態の奥行き情報となる。   In S204, depth information is acquired by performing the same processing as in S103. The depth information acquired in S204 is depth information in a state where an object whose depth is less than a predetermined value is included. That is, as in the example of FIG. 11, the depth information includes the character object 48a '.

奥行き情報が所定値未満のオブジェクトが配置されていない場合(S203;N)、マイクロプロセッサ14(奥行き情報取得部66)は、第2の仮想3次元空間40’に対応する奥行き情報を取得する(S205)。S205においては、S103と同様に、図5に示すような第2の仮想3次元空間40’に対応する奥行き情報が取得される。   When the object whose depth information is less than the predetermined value is not arranged (S203; N), the microprocessor 14 (depth information acquisition unit 66) acquires depth information corresponding to the second virtual three-dimensional space 40 ′ ( S205). In S205, as in S103, depth information corresponding to the second virtual three-dimensional space 40 'as shown in FIG. 5 is acquired.

S206,S207は、それぞれS104,S105と同様であるので、説明を省略する。   Since S206 and S207 are the same as S104 and S105, respectively, description thereof will be omitted.

[2−3.実施形態2のまとめ]
以上説明した実施形態2に係るゲーム装置10は、仮想カメラ52との奥行きが所定値以上の所定のオブジェクトが取り除かれた第2の仮想3次元空間40’に対応する奥行き情報を取得する。実施形態2におけるゲーム装置10によれば、仮想カメラ52に接近したオブジェクトがあった場合でも、そのオブジェクトが部分的にぼかされて表示されることを防止しつつ、ゲーム画面に遠近感を表現させることができる。
[2-3. Summary of Embodiment 2]
The game apparatus 10 according to the second embodiment described above acquires depth information corresponding to the second virtual three-dimensional space 40 ′ from which a predetermined object having a depth with the virtual camera 52 of a predetermined value or more is removed. According to the game device 10 in the second embodiment, even when there is an object approaching the virtual camera 52, the perspective is expressed on the game screen while preventing the object from being partially blurred and displayed. Can be made.

即ち、実施形態2に係るゲーム装置によれば、例えば、上記説明したように、奥行き情報に誤差が生じる状況を回避することができるので、所定のオブジェクトと視点が接近した場合であっても、処理負荷を軽減しつつ、ゲーム状況に応じて遠近感を表現させることができる。   That is, according to the game device according to the second embodiment, for example, as described above, it is possible to avoid a situation in which an error occurs in depth information, so even if a predetermined object and a viewpoint approach, Perspective can be expressed according to the game situation while reducing the processing load.

[3.実施形態3]
以下、実施形態3について説明する。実施形態2においては、視点との距離が所定値未満のオブジェクトを考慮して奥行き情報を作成していた。
[3. Embodiment 3]
The third embodiment will be described below. In the second embodiment, depth information is created in consideration of an object whose distance from the viewpoint is less than a predetermined value.

しかしながら、例えば、図11のように奥行き情報を作成した場合、キャラクタオブジェクト48a’の頭部の画素は領域E1であるが、周囲の画素は領域E3又は領域E4であるので、これらの画素の間には、奥行き情報の値に差がある。即ち、表示制御部68が決定する割合に差がでるため、キャラクタオブジェクト48aの頭部は鮮明に表示されるが、この周囲の画素はぼかされて表示される。   However, for example, when the depth information is created as shown in FIG. 11, the head pixel of the character object 48a ′ is the region E1, but the surrounding pixels are the region E3 or the region E4. Have different values of depth information. That is, since the ratio determined by the display control unit 68 is different, the head of the character object 48a is clearly displayed, but the surrounding pixels are blurred and displayed.

第2画像を作成する際には、周囲の画素にぼかし処理が施される。例えば、キャラクタオブジェクト48aの輪郭の周囲の画素(つまり、ぼかし処理が施される画素)は、この周囲の画素の色(フィールドオブジェクト42の芝生の色等)と、キャラクタオブジェクト48aのユニフォームや頭髪の色等と、が混合される。キャラクタオブジェクト48aの色が、選手の輪郭の外にはみ出して滲んで表現されてしまう可能性がある。即ち、キャラクタオブジェクト48a’の輪郭がちらついて見えづらくなってしまう可能性がある。   When creating the second image, a blurring process is performed on surrounding pixels. For example, the surrounding pixels of the outline of the character object 48a (that is, the pixels subjected to the blurring process) are the color of the surrounding pixels (the lawn color of the field object 42, etc.), the uniform of the character object 48a and the hair. Color and the like are mixed. There is a possibility that the color of the character object 48a may be expressed outside the outline of the player. That is, there is a possibility that the outline of the character object 48a 'flickers and becomes difficult to see.

上記のことを防止するために、実施形態3は、上記のような奥行き情報の差を有するオブジェクトに基づく所定領域の周囲の色を変更する点に特徴がある。   In order to prevent the above, the third embodiment is characterized in that the color around the predetermined area based on the object having the difference in depth information as described above is changed.

なお、実施形態3に係るゲーム装置10のハードウェア構成や機能ブロック図は、実施形態1(図1、図3参照)と同様であるため、ここでは説明を省略する。ただし、実施形態3の第2画像作成部64は、第1の仮想3次元空間40を仮想カメラ52(視点)から見た様子を示す画像の注目画素と、当該注目画素に隣接する複数の周囲画素の何れかと、の当該視点に対応する奥行きの差が基準値以上である場合、当該周囲画素の色に基づいて前記注目画素に基づく所定領域の色を変更した画像を取得する取得部を含み、当該画像にぼかし処理が施された第2画像を作成する点で、実施形態1及び実施形態2とは異なる。   Note that the hardware configuration and functional block diagram of the game apparatus 10 according to the third embodiment are the same as those in the first embodiment (see FIGS. 1 and 3), and thus the description thereof is omitted here. However, the second image creation unit 64 according to the third embodiment includes a target pixel of an image showing the first virtual three-dimensional space 40 viewed from the virtual camera 52 (viewpoint) and a plurality of surroundings adjacent to the target pixel. An acquisition unit configured to acquire an image obtained by changing a color of a predetermined region based on the target pixel based on a color of the surrounding pixel when a difference in depth corresponding to the viewpoint with any of the pixels is equal to or larger than a reference value; The second embodiment differs from the first and second embodiments in that a second image in which the image is subjected to the blurring process is created.

また、実施形態3に係るゲーム装置10においても、図2と同様の第1の仮想3次元空間40が生成されてゲームが実行される。実施形態3の第2の仮想3次元空間40’は、実施形態2と同様(図10参照)であるので説明を省略する。   Also in the game apparatus 10 according to the third embodiment, the first virtual three-dimensional space 40 similar to that in FIG. 2 is generated and the game is executed. Since the second virtual three-dimensional space 40 'of the third embodiment is the same as that of the second embodiment (see FIG. 10), description thereof is omitted.

まず、実施形態3のゲーム装置10が作成する画像について説明する。   First, an image created by the game apparatus 10 according to the third embodiment will be described.

図13Aは、第1画像作成部62が作成する第1画像の一例を示す図である。第1画像は、実施形態1と同様に、第1の仮想3次元空間40を仮想カメラ52から見た様子が表される。   FIG. 13A is a diagram illustrating an example of a first image created by the first image creation unit 62. The first image shows a state in which the first virtual three-dimensional space 40 is viewed from the virtual camera 52 as in the first embodiment.

図13Bは、第2画像作成部64の取得部が取得する画像の一例を示す図である。図13Bは、図13Aに示すキャラクタオブジェクト48の頭部を構成する画素が、周囲画素と奥行きの差がある場合の例を示す。   FIG. 13B is a diagram illustrating an example of an image acquired by the acquisition unit of the second image creation unit 64. FIG. 13B shows an example in which the pixels constituting the head of the character object 48 shown in FIG. 13A have a difference in depth from the surrounding pixels.

処理の詳細は後述するが、図13Bに示すように、周囲画素と奥行き情報の差を有する注目画素に基づく所定領域の周囲の色を変更する。例えば、キャラクタオブジェクト48の頭部の所定領域49の色が、周囲画素に対応する色に変更される。図13Bに示す例では、頭部の領域49aは、例えば、周囲画素に対応するスタジアムオブジェクト44の色に変更される。一方、頭部の領域49bは、例えば、周囲画素に対応するフィールドオブジェクト42の色に変更される。   Although details of the processing will be described later, as shown in FIG. 13B, the color around the predetermined area based on the pixel of interest having a difference between the surrounding pixels and the depth information is changed. For example, the color of the predetermined area 49 on the head of the character object 48 is changed to a color corresponding to the surrounding pixels. In the example shown in FIG. 13B, the head region 49a is changed to the color of the stadium object 44 corresponding to surrounding pixels, for example. On the other hand, the head region 49b is changed to the color of the field object 42 corresponding to surrounding pixels, for example.

第2画像作成部64は、図13Bに示す画像にぼかし処理が施された第2画像を作成する点で、実施形態1及び実施形態2と異なる。ぼかし処理については、実施形態1及び実施形態2と同様であるので、第2画像の図示を省略する。   The second image creation unit 64 is different from the first and second embodiments in that the second image creation unit 64 creates a second image obtained by performing blurring processing on the image shown in FIG. 13B. Since the blurring process is the same as in the first and second embodiments, the second image is not shown.

第2画像は、奥行き差があるオブジェクトの周囲の所定領域の色が周囲画素の色によって塗りつぶされた画像がぼかされたものとなる。即ち、キャラクタオブジェクト48の輪郭に近い画素を、周囲画素の色とすることで、ぼかし処理のためにキャラクタオブジェクト48の色が外ににじみ出なくなるので、上記のように画面がちらつくことを防止することができる。   The second image is obtained by blurring an image in which the color of a predetermined area around an object having a depth difference is filled with the color of surrounding pixels. That is, by setting the pixels close to the outline of the character object 48 as the colors of the surrounding pixels, the color of the character object 48 does not bleed out due to the blurring process, thereby preventing the screen from flickering as described above. Can do.

[3−1.ゲーム装置にて実行される処理]
図14に示す処理は、実施形態1における図6及び実施形態2における図12に示す処理に対応している。つまり、図14に示す処理は、ゲーム装置10において所定時間毎(例えば1/60秒毎)に実行される。
[3-1. Processing executed on game device]
The process shown in FIG. 14 corresponds to the process shown in FIG. 6 in the first embodiment and FIG. 12 in the second embodiment. That is, the process shown in FIG. 14 is executed in the game apparatus 10 every predetermined time (for example, every 1/60 seconds).

図14に示すように、S301,S302は、それぞれS101,S203と同様であるので、説明を省略する。   As shown in FIG. 14, S301 and S302 are the same as S101 and S203, respectively, and thus the description thereof is omitted.

奥行きが所定値未満のオブジェクトが配置されている場合(S302;Y)、マイクロプロセッサ14(奥行き情報取得部66)は、奥行きが所定値以上のオブジェクトを取り除き、奥行きが所定値未満のオブジェクトが含まれる第2の仮想3次元空間40’に対応する奥行き情報を取得する(S303)。S303は、S204と同様の処理である。   When an object with a depth less than a predetermined value is arranged (S302; Y), the microprocessor 14 (depth information acquisition unit 66) removes an object with a depth greater than or equal to a predetermined value and includes an object with a depth less than a predetermined value. The depth information corresponding to the second virtual three-dimensional space 40 ′ is acquired (S303). S303 is the same process as S204.

次いで、マイクロプロセッサ14は、第1の仮想3次元空間40を仮想カメラ52から見た様子を表す画像に対応する任意の一画素(注目画素)と、この注目画素に隣接する複数の周囲画素の何れかと、の奥行きの差が基準値以上であるか否かを判定する(S304)。   Next, the microprocessor 14 includes an arbitrary pixel (target pixel) corresponding to an image representing a state in which the first virtual three-dimensional space 40 is viewed from the virtual camera 52, and a plurality of surrounding pixels adjacent to the target pixel. It is determined whether or not the difference in depth is greater than or equal to a reference value (S304).

S304においては、S303で得られた奥行き情報(図11参照)の画素(Xs,Ys)の奥行き情報を、第1の仮想3次元空間40を仮想カメラ52から見た様子を示す画像の同位置の画素(Xs,Ys)の奥行き情報とみなして、S304の処理は実行される。   In S304, the depth information of the pixel (Xs, Ys) of the depth information (see FIG. 11) obtained in S303 is the same position of the image showing the first virtual three-dimensional space 40 as viewed from the virtual camera 52. The processing of S304 is executed by regarding the depth information of the pixel (Xs, Ys).

図15は、注目画素と周囲画素との関係を説明するための図である。図15に示すように、例えば、注目画素A1の2次元座標を(Xs,Ys)とする。注目画素A1の奥行き情報の値を230とする。この注目画素A1の周囲を囲む8つの周囲画素を、周囲画素B1〜周囲画素B8とする。なお、奥行き情報は、S302で取得されている。   FIG. 15 is a diagram for explaining the relationship between a target pixel and surrounding pixels. As shown in FIG. 15, for example, the two-dimensional coordinate of the pixel of interest A1 is (Xs, Ys). The depth information value of the target pixel A1 is set to 230. Eight surrounding pixels surrounding the pixel of interest A1 are referred to as a surrounding pixel B1 to a surrounding pixel B8. Note that the depth information is acquired in S302.

周囲画素B1の2次元座標は、(Xs−1,Ys−1)である。周囲画素B1の奥行き情報の値を230とする。周囲画素B8の2次元座標は、(Xs+1,Ys+1)である。周囲画素B8の奥行き情報の値を46とする。同様に、周囲画素B2〜周囲画素B7の座標と奥行き情報は、図15に示す通りとする。   The two-dimensional coordinates of the surrounding pixel B1 are (Xs-1, Ys-1). The depth information value of the surrounding pixel B1 is set to 230. The two-dimensional coordinates of the surrounding pixel B8 are (Xs + 1, Ys + 1). The value of the depth information of the surrounding pixel B8 is 46. Similarly, the coordinates and depth information of the surrounding pixels B2 to B7 are as shown in FIG.

S304においては、例えば、注目画素A1と、周囲画素B1〜周囲画素B8のそれぞれと、の奥行き情報の値の差が基準値以上であるものがあるか否かが判定される。例えば、基準値を100とすると、図15の例の場合、注目画素A1と奥行きの差が基準値以上である周囲画素は、周囲画素B4,B6,B7,B8の4つがある。即ち、注目画素A1は、周囲画素B1〜B8の何れかと、の奥行きの差が基準値以上であると判定される。   In S304, for example, it is determined whether or not there is a difference in depth information between the target pixel A1 and each of the surrounding pixels B1 to B8 that is greater than or equal to a reference value. For example, if the reference value is 100, in the example of FIG. 15, there are four surrounding pixels B4, B6, B7, and B8 that have a depth difference equal to or greater than the reference value with respect to the target pixel A1. That is, the pixel of interest A1 is determined to have a depth difference equal to or greater than the reference value from any of the surrounding pixels B1 to B8.

注目画素と周囲画素との奥行きの差が基準値以上である場合(S304;Y)、マイクロプロセッサ14(第2画像作成部64、取得部)は、周囲画素の色に基づいて注目画素に基づく所定領域の色を変更した画像を取得する(S305)。   When the difference in depth between the target pixel and the surrounding pixels is greater than or equal to the reference value (S304; Y), the microprocessor 14 (second image creation unit 64, acquisition unit) is based on the target pixel based on the color of the surrounding pixels. An image in which the color of the predetermined area is changed is acquired (S305).

注目画素と周辺画素が図15に示す関係の場合、S305における注目画素に基づく所定領域は、例えば、注目画素を含むオブジェクト内部の領域となる。即ち、注目画素と、注目画素からの距離が基準距離以内である画素群のうちの、注目画素との奥行きの差が基準値未満であるような画素群と、を含むような領域となる。例えば、注目画素A1、周囲画素B2、及び周囲画素B5の3つの画素から構成される。注目画素に基づく所定領域は、注目画素が含まれる領域であればよく、この領域の決定方法は、任意である。例えば、注目画素を中心とする半径が16ピクセルの円内の領域を、この所定領域としてもよい。   When the target pixel and the peripheral pixels have the relationship shown in FIG. 15, the predetermined area based on the target pixel in S305 is, for example, an area inside the object including the target pixel. That is, the region includes the target pixel and a pixel group in which the depth difference from the target pixel is less than the reference value among the pixel group whose distance from the target pixel is within the reference distance. For example, the target pixel A1, the surrounding pixel B2, and the surrounding pixel B5 are configured by three pixels. The predetermined area based on the target pixel may be an area including the target pixel, and a method for determining this area is arbitrary. For example, an area within a circle having a radius of 16 pixels centered on the target pixel may be set as the predetermined area.

注目画素に基づく所定領域の色が、周囲画素の色に基づいて変更される。例えば、注目画素A1、周囲画素B2、及び周囲画素B5の色が、周囲画素B4,B6,B7,B8の色の平均値に変更される。S304とS305の処理は、画像に対応する全ての画素に対して実行される。つまり、周囲画素と奥行きの差が基準値以上である注目画素の全てに対して、S305の色の変更処理が行われる。   The color of the predetermined area based on the target pixel is changed based on the color of the surrounding pixels. For example, the colors of the target pixel A1, the surrounding pixel B2, and the surrounding pixel B5 are changed to the average values of the colors of the surrounding pixels B4, B6, B7, and B8. The processes of S304 and S305 are executed for all the pixels corresponding to the image. That is, the color changing process of S305 is performed on all the target pixels whose difference between the surrounding pixels and the depth is equal to or greater than the reference value.

なお、S305においては、周囲画素の色に基づいて注目画素に基づく所定領域の色が変更されればよく、色の変更方法は、上記の例に限られない。例えば、所定領域の色が、所定の計算式に基づいて算出されるようにしてもよい。   In S305, the color of the predetermined area based on the target pixel may be changed based on the color of the surrounding pixels, and the color changing method is not limited to the above example. For example, the color of the predetermined area may be calculated based on a predetermined calculation formula.

図14に戻り、マイクロプロセッサ14(第2画像作成部64)は、S305において取得された画像にぼかし処理を施して第2画像を作成する(S306)。   Returning to FIG. 14, the microprocessor 14 (second image creation unit 64) performs blurring processing on the image acquired in S <b> 305 to create a second image (S <b> 306).

一方、注目画素と周囲画素との奥行きの差が基準値以上でない場合(S304;N)、マイクロプロセッサ14(第2画像作成部64)は、S102と同様に、第2画像を作成する(S307)。   On the other hand, when the difference in depth between the target pixel and the surrounding pixels is not greater than or equal to the reference value (S304; N), the microprocessor 14 (second image creation unit 64) creates the second image in the same manner as S102 (S307). ).

一方、奥行きが所定値未満のオブジェクトが配置されていない場合(S302;N)、マイクロプロセッサ14(第2画像作成部64)は、S102と同様に第2画像を作成する(S308)。続くS309は、S103と同様であるので説明を省略する。   On the other hand, when an object having a depth less than the predetermined value is not arranged (S302; N), the microprocessor 14 (second image creation unit 64) creates a second image in the same manner as S102 (S308). Subsequent S309 is the same as S103 and will not be described.

S310,S311は、それぞれS104,S105と同様であるので、説明を省略する。   Since S310 and S311 are the same as S104 and S105, respectively, description thereof will be omitted.

[3−2.実施形態3のまとめ]
以上説明した実施形態3に係るゲーム装置10は、注目画素と周囲画素との奥行きの差が基準値以上である場合、この周囲画素の色に基づいて注目画素に基づく所定領域の色を変更した画像を取得する。実施形態3におけるゲーム装置10によれば、周囲と奥行きの差があるオブジェクトの色が変更され、このオブジェクトの色が外ににじみ出ないため、画素間に奥行き差がある場合に発生する画面のちらつきを防止することができる。
[3-2. Summary of Embodiment 3]
In the game device 10 according to the third embodiment described above, when the difference in depth between the target pixel and the surrounding pixels is greater than or equal to the reference value, the color of the predetermined region based on the target pixel is changed based on the color of the surrounding pixels. Get an image. According to the game device 10 in the third embodiment, the color of an object having a difference between the surroundings and the depth is changed, and the color of the object does not bleed out. Therefore, the screen flickering that occurs when there is a depth difference between pixels. Can be prevented.

[変形例]
実施形態1〜実施形態3においては、第1の仮想3次元空間40から所定のオブジェクトを取り除いて第2の仮想3次元空間40’とする例を挙げて説明した。第2の仮想3次元空間40’は、第1の仮想3次元空間40に含まれるポリゴンの数が削減されたものであればよく、第2の仮想3次元空間40’の様子は、図5又は図10を参照して説明した例に限られない。
[Modification]
In the first to third embodiments, an example in which a predetermined object is removed from the first virtual three-dimensional space 40 to form the second virtual three-dimensional space 40 ′ has been described. The second virtual three-dimensional space 40 ′ may be any one in which the number of polygons included in the first virtual three-dimensional space 40 is reduced, and the state of the second virtual three-dimensional space 40 ′ is as shown in FIG. Or it is not restricted to the example demonstrated with reference to FIG.

例えば、実施形態1〜実施形態3の変形例として、所定のオブジェクトの形状が簡略化されることにより、ポリゴンの数が削減されるようにしてもよい。この場合、奥行き情報取得部66は、第1の仮想3次元空間40に配置された複数のオブジェクトのうち所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられた第2の仮想3次元空間40’を仮想カメラ52’(視点)から見た様子を表す画像の各画素毎に、当該視点の視線方向の奥行きを示す奥行き情報を取得する。   For example, as a modification of the first to third embodiments, the number of polygons may be reduced by simplifying the shape of a predetermined object. In this case, the depth information acquisition unit 66 replaces a predetermined object among a plurality of objects arranged in the first virtual three-dimensional space 40 with an object having a smaller number of polygons than the object. For each pixel of the image representing the appearance of the dimensional space 40 ′ viewed from the virtual camera 52 ′ (viewpoint), depth information indicating the depth of the viewpoint in the line-of-sight direction is acquired.

図16は、変形例における第2の仮想3次元空間40’を説明するための図である。図16に示すように、第2の仮想3次元空間40’は、第1の仮想3次元空間40のゴールオブジェクト46、キャラクタオブジェクト48、ボールオブジェクト50が、例えば、ポリゴン数が少ない直方体のオブジェクトに置き換えられた仮想3次元空間となる。これにより、第2の仮想3次元空間40’は、第1の仮想3次元空間40に比べてポリゴンの数が削減された仮想3次元空間になる。なお、この簡略化された形状は、ポリゴンの数が削減されればよく、直方体に限られず任意の形状とする。   FIG. 16 is a diagram for explaining the second virtual three-dimensional space 40 ′ according to the modification. As shown in FIG. 16, in the second virtual three-dimensional space 40 ′, the goal object 46, the character object 48, and the ball object 50 of the first virtual three-dimensional space 40 are, for example, rectangular objects having a small number of polygons. It becomes the replaced virtual three-dimensional space. As a result, the second virtual three-dimensional space 40 ′ becomes a virtual three-dimensional space in which the number of polygons is reduced compared to the first virtual three-dimensional space 40. The simplified shape is not limited to a rectangular parallelepiped as long as the number of polygons is reduced, and is an arbitrary shape.

以上説明した変形例では、ポリゴンの数が削減された第2の仮想3次元空間40’に基づいて奥行き情報が取得される。即ち、より少ない数のポリゴンに基づいて奥行き情報を取得することができる。先述のように、ポリゴンの数が増加すると、奥行き情報の作成処理は複雑になる。変形例の手法によれば、第1の仮想3次元空間40に基づいて奥行き情報を取得する場合に比べてポリゴンの数を削減できるので、処理負荷の軽減を図ることができる。   In the modification described above, the depth information is acquired based on the second virtual three-dimensional space 40 'in which the number of polygons is reduced. That is, depth information can be acquired based on a smaller number of polygons. As described above, when the number of polygons increases, the depth information creation process becomes complicated. According to the method of the modification, the number of polygons can be reduced as compared with the case where depth information is acquired based on the first virtual three-dimensional space 40, so that the processing load can be reduced.

この変形例を実施形態3に適用した場合、第2の仮想3次元空間40’は、第1の仮想3次元空間40に配置された複数のオブジェクトのうち視点との奥行きが所定値以上のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられたものとなる。即ち、視点と近いオブジェクトが、簡略化したオブジェクトに置き換えられる。   When this modification is applied to the third embodiment, the second virtual three-dimensional space 40 ′ is an object whose depth from the viewpoint is a predetermined value or more among a plurality of objects arranged in the first virtual three-dimensional space 40. However, the object is replaced with an object having a smaller number of polygons than the object. That is, an object close to the viewpoint is replaced with a simplified object.

なお、上記変形例では、形状を簡略化するオブジェクトを、ゴールオブジェクト46、キャラクタオブジェクト48、ボールオブジェクト50としたが、所定のオブジェクトの形状が簡略化されればよい。例えば、フィールドオブジェクト42が起伏がある場合に、平坦になるようにフィールドオブジェクト42を簡略化してもよい。他にも、スタジアムオブジェクト44に看板のオブジェクト等が含まれる場合には、この看板のオブジェクトを省略することにより、形状を簡略化してもよい。   In the modification, the objects whose shape is simplified are the goal object 46, the character object 48, and the ball object 50, but it is sufficient that the shape of the predetermined object is simplified. For example, when the field object 42 has undulations, the field object 42 may be simplified so as to be flat. In addition, when the stadium object 44 includes a signboard object or the like, the shape may be simplified by omitting the signboard object.

なお、実施形態1〜実施形態3、及び変形例においては、本発明をゲーム装置に適用した例を挙げて説明したが、本発明に係る画像処理装置は、パーソナルコンピュータ等他の装置であってもよい。   In the first to third embodiments and the modifications, the example in which the present invention is applied to a game device has been described. However, the image processing device according to the present invention is another device such as a personal computer. Also good.

10 ゲーム装置、11 家庭用ゲーム機、12 バス、14 マイクロプロセッサ、16 画像処理部、18 表示部、20 音声処理部、22 音声出力部、24 光ディスク再生部、25 光ディスク、26 主記憶、28 メモリカード、30 入出力処理部、32 コントローラ、40 第1の仮想3次元空間、40’ 第2の仮想3次元空間、42,42’ フィールドオブジェクト、44,44’,44a,44a’,44b,44b’,44c,44c’,44d,44d' スタジアムオブジェクト、46,46’ ゴールオブジェクト、48,48’,48a,48a’,48b,48c キャラクタオブジェクト、49 所定領域、49a,49b 領域、50,50’ ボールオブジェクト、52,52’ 仮想カメラ、60 ゲームデータ記憶部、62 第1画像作成部、64 第2画像作成部、66 奥行き情報取得部、68 表示制御部、E1,E2,E3,E4 領域、A1 注目画素、B1,B2,B3,B4,B5,B6,B7,B8 周囲画素。   DESCRIPTION OF SYMBOLS 10 Game device, 11 Home-use game machine, 12 bus | bath, 14 Microprocessor, 16 Image processing part, 18 Display part, 20 Audio | voice processing part, 22 Audio | voice output part, 24 Optical disk reproduction | regeneration part, 25 Optical disk, 26 Main memory, 28 Memory Card, 30 input / output processing unit, 32 controller, 40 first virtual three-dimensional space, 40 'second virtual three-dimensional space, 42, 42' field object, 44, 44 ', 44a, 44a', 44b, 44b ', 44c, 44c', 44d, 44d 'Stadium object, 46, 46' Goal object, 48, 48 ', 48a, 48a', 48b, 48c Character object, 49 Predetermined area, 49a, 49b area, 50, 50 ' Ball object, 52, 52 'virtual camera, 60 games Data storage unit, 62 first image creation unit, 64 second image creation unit, 66 depth information acquisition unit, 68 display control unit, E1, E2, E3, E4 area, A1 target pixel, B1, B2, B3, B4 , B5, B6, B7, B8 Surrounding pixels.

Claims (8)

複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置であって、
前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成手段と、
前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成手段と、
前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得手段と、
前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御手段と、
を含み、
前記第2画像作成手段は、前記第1の仮想3次元空間を前記視点から見た様子を表す画像の注目画素と、当該注目画素に隣接する複数の周囲画素の何れかと、の当該視点に対応する奥行きの差が基準値以上である場合、当該周囲画素の色に基づいて前記注目画素に基づく所定領域の色を変更した画像を取得する取得手段を含み、当該画像にぼかし処理を施すことによって、前記所定領域の色が前記周辺画素の色に基づいて変更された画像がぼかされた前記第2画像を作成することを特徴とする画像処理装置。
An image processing apparatus that displays a screen representing a state in which a first virtual three-dimensional space in which a plurality of objects are arranged is viewed from a given viewpoint,
First image creating means for creating a first image representing a state of viewing the first virtual three-dimensional space from the viewpoint;
A second image creating means for representing the first virtual three-dimensional space as viewed from the viewpoint, and creating a second image subjected to a blurring process;
Depth information relating to the distance from the viewpoint for each pixel of the image representing a state in which the second virtual three-dimensional space in which the number of polygons is reduced as compared to the first virtual three-dimensional space is viewed from the viewpoint. Depth information acquisition means for acquiring;
Display control means for determining a composition ratio of each pixel of the first image and the second image based on the depth information and displaying a screen on which the first image and the second image are composed;
Including
The second image creation means corresponds to the viewpoint of a target pixel of an image representing a state in which the first virtual three-dimensional space is viewed from the viewpoint, and any of a plurality of surrounding pixels adjacent to the target pixel. Including a obtaining unit that obtains an image in which the color of the predetermined region based on the target pixel is changed based on the color of the surrounding pixel when the difference in depth to be performed is greater than or equal to a reference value, and performing blur processing on the image An image processing apparatus that creates the second image in which an image in which the color of the predetermined area is changed based on the color of the surrounding pixels is blurred .
前記奥行き情報取得手段は、前記複数のオブジェクトのうち所定のオブジェクトが取り除かれた前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする請求項1に記載の画像処理装置。   The depth information acquisition means relates to a distance from the viewpoint for each pixel of an image representing a state in which the second virtual three-dimensional space from which a predetermined object is removed from the viewpoint is viewed from the viewpoint. The image processing apparatus according to claim 1, wherein depth information is acquired. 前記第2の仮想3次元空間は、前記複数のオブジェクトのうち前記視点との距離が所定値以上の前記所定のオブジェクトが取り除かれたものであることを特徴とする請求項2に記載の画像処理装置。   3. The image processing according to claim 2, wherein the second virtual three-dimensional space is obtained by removing the predetermined object whose distance from the viewpoint is a predetermined value or more from the plurality of objects. apparatus. 前記奥行き情報取得手段は、前記複数のオブジェクトのうち所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられた前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。   The depth information acquisition unit is an image representing a state in which the second virtual three-dimensional space in which a predetermined object among the plurality of objects is replaced with an object having a smaller number of polygons than the object is viewed from the viewpoint. The image processing apparatus according to claim 1, wherein depth information related to a distance from the viewpoint is acquired for each pixel. 前記第2の仮想3次元空間は、前記複数のオブジェクトのうち前記視点との奥行きが所定値以上の前記所定のオブジェクトが、当該オブジェクトよりもポリゴン数が少ないオブジェクトに置き換えられたものであることを特徴とする請求項4に記載の画像処理装置。   The second virtual three-dimensional space is obtained by replacing the predetermined object having a depth greater than or equal to a predetermined value among the plurality of objects with an object having a smaller number of polygons than the object. The image processing apparatus according to claim 4. 前記第1の仮想3次元空間は、少なくともキャラクタオブジェクトと、スポーツの会場を表すオブジェクトが配置されたスポーツゲームの空間であって、
前記奥行き情報取得手段は、前記第1の仮想3次元空間に比べて少なくとも前記キャラクタオブジェクトに対応するポリゴンの数が削減された前記第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得することを特徴とする請求項1〜の何れか一項に記載の画像処理装置。
The first virtual three-dimensional space is a sports game space in which at least a character object and an object representing a sports venue are arranged,
The depth information acquisition unit is an image representing a state in which the second virtual three-dimensional space in which at least the number of polygons corresponding to the character object is reduced compared to the first virtual three-dimensional space is viewed from the viewpoint. for each pixel of the image processing apparatus according to any one of claim 1 to 5, characterized in that to obtain the depth information about the distance from the viewpoint.
複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置の制御方法であって、
第1画像作成手段が、前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成ステップと、
第2画像作成手段が、前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成ステップと、
奥行き情報取得手段が、前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得ステップと、
表示制御手段が、前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御ステップと、
を含み、
前記第2画像作成ステップは、取得手段が、前記第1の仮想3次元空間を前記視点から見た様子を表す画像の注目画素と、当該注目画素に隣接する複数の周囲画素の何れかと、の当該視点に対応する奥行きの差が基準値以上である場合、当該周囲画素の色に基づいて前記注目画素に基づく所定領域の色を変更した画像を取得する取得ステップを含み、前記第2画像作成手段が、当該画像にぼかし処理を施すことによって、前記所定領域の色が前記周辺画素の色に基づいて変更された画像がぼかされた前記第2画像を作成することを特徴とする画像処理装置の制御方法。
A control method for an image processing apparatus for displaying a screen representing a state in which a first virtual three-dimensional space in which a plurality of objects are arranged is viewed from a given viewpoint,
A first image creating step for creating a first image representing a state in which the first virtual three-dimensional space is viewed from the viewpoint;
A second image creating step, wherein the second image creating means represents the first virtual three-dimensional space viewed from the viewpoint, and creates a second image subjected to the blurring process;
Depth information acquisition means, for each pixel of the image representing a state of viewing the second virtual three-dimensional space with a reduced number of polygons compared to the first virtual three-dimensional space from the viewpoint, from the viewpoint A depth information acquisition step of acquiring depth information regarding the distance of
Display control means, display control step of the proportion of combination of the pixels of the first image and the second image is determined based on the depth information, and displays the screen on which the first image and the second image are synthesized When,
Only including,
In the second image creation step, the acquisition unit includes a target pixel of an image representing a state in which the first virtual three-dimensional space is viewed from the viewpoint, and any one of a plurality of surrounding pixels adjacent to the target pixel. An acquisition step of acquiring an image in which a color of a predetermined area based on the target pixel is changed based on a color of the surrounding pixel when the difference in depth corresponding to the viewpoint is equal to or greater than a reference value; Means for performing blur processing on the image to create the second image in which an image in which the color of the predetermined area is changed based on the color of the peripheral pixels is blurred Control method of the device.
複数のオブジェクトが配置された第1の仮想3次元空間を所与の視点から見た様子を表す画面を表示させる画像処理装置としてコンピュータを機能させるためのプログラムであって、
前記第1の仮想3次元空間を前記視点から見た様子を表す第1画像を作成する第1画像作成手段、
前記第1の仮想3次元空間を前記視点から見た様子を表し、ぼかし処理が施された第2画像を作成する第2画像作成手段、
前記第1の仮想3次元空間に比べてポリゴンの数が削減された第2の仮想3次元空間を前記視点から見た様子を表す画像の各画素毎に、当該視点からの距離に関する奥行き情報を取得する奥行き情報取得手段、
前記第1画像と前記第2画像の各画素の合成の割合を前記奥行き情報に基づいて決定し、前記第1画像と第2画像が合成された画面を表示させる表示制御手段、
を含み、
前記第2画像作成手段は、前記第1の仮想3次元空間を前記視点から見た様子を表す画像の注目画素と、当該注目画素に隣接する複数の周囲画素の何れかと、の当該視点に対応する奥行きの差が基準値以上である場合、当該周囲画素の色に基づいて前記注目画素に基づく所定領域の色を変更した画像を取得する取得手段を含み、当該画像にぼかし処理を施すことによって、前記所定領域の色が前記周辺画素の色に基づいて変更された画像がぼかされた前記第2画像を作成することを特徴とする画像処理装置として前記コンピュータを機能させるためのプログラム。
A program for causing a computer to function as an image processing apparatus that displays a screen representing a state in which a first virtual three-dimensional space in which a plurality of objects are arranged is viewed from a given viewpoint,
First image creating means for creating a first image representing a state of viewing the first virtual three-dimensional space from the viewpoint;
A second image creating means for creating a second image subjected to a blurring process, representing a state in which the first virtual three-dimensional space is viewed from the viewpoint;
Depth information relating to the distance from the viewpoint for each pixel of the image representing a state in which the second virtual three-dimensional space in which the number of polygons is reduced as compared to the first virtual three-dimensional space is viewed from the viewpoint. Depth information acquisition means to acquire,
Display control means for determining a ratio of synthesis of each pixel of the first image and the second image based on the depth information, and displaying a screen on which the first image and the second image are synthesized;
Including
The second image creation means corresponds to the viewpoint of a target pixel of an image representing a state in which the first virtual three-dimensional space is viewed from the viewpoint, and any of a plurality of surrounding pixels adjacent to the target pixel. Including a obtaining unit that obtains an image in which the color of the predetermined region based on the target pixel is changed based on the color of the surrounding pixel when the difference in depth to be performed is greater than or equal to a reference value, and performing blur processing on the image A program for causing the computer to function as an image processing apparatus that creates the second image in which an image in which the color of the predetermined area is changed based on the color of the peripheral pixels is blurred .
JP2009259729A 2009-11-13 2009-11-13 Image processing apparatus, image processing apparatus control method, and program Active JP4847572B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009259729A JP4847572B2 (en) 2009-11-13 2009-11-13 Image processing apparatus, image processing apparatus control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009259729A JP4847572B2 (en) 2009-11-13 2009-11-13 Image processing apparatus, image processing apparatus control method, and program

Publications (2)

Publication Number Publication Date
JP2011107816A JP2011107816A (en) 2011-06-02
JP4847572B2 true JP4847572B2 (en) 2011-12-28

Family

ID=44231238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009259729A Active JP4847572B2 (en) 2009-11-13 2009-11-13 Image processing apparatus, image processing apparatus control method, and program

Country Status (1)

Country Link
JP (1) JP4847572B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113784811A (en) * 2020-03-26 2021-12-10 国立大学法人东海国立大学机构 Fresnel lens mold manufacturing method, Fresnel lens mold machining device and cutting tool

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU5652700A (en) * 1999-09-24 2001-03-29 Nintendo Co., Ltd. Method and apparatus for providing non-photorealistic cartoon outlining within a 3D vodeographic system
JP3715222B2 (en) * 2000-12-27 2005-11-09 株式会社ソニー・コンピュータエンタテインメント Drawing method, drawing device, drawing processing program, recording medium recording drawing processing program, and drawing processing program execution device
JP3794681B2 (en) * 2001-11-29 2006-07-05 株式会社スクウェア・エニックス VIDEO GAME PROCESSING METHOD, VIDEO GAME PROCESSING DEVICE, VIDEO GAME PROGRAM, AND RECORDING MEDIUM CONTAINING VIDEO GAME PROGRAM
JP2006127369A (en) * 2004-11-01 2006-05-18 Matsushita Electric Ind Co Ltd Drawing device using fuzzy z
JP3881363B1 (en) * 2005-09-22 2007-02-14 株式会社コナミデジタルエンタテインメント GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2008204145A (en) * 2007-02-20 2008-09-04 Sega Corp Image processor, program, and computer-readable medium
JP4793933B2 (en) * 2007-03-12 2011-10-12 任天堂株式会社 Image processing program and image processing apparatus

Also Published As

Publication number Publication date
JP2011107816A (en) 2011-06-02

Similar Documents

Publication Publication Date Title
JP3668019B2 (en) Recording medium, image processing apparatus, and image processing method
US8602888B2 (en) Video game device and image processing program
US8054309B2 (en) Game machine, game machine control method, and information storage medium for shadow rendering
US20090179892A1 (en) Image viewer, image displaying method and information storage medium
JP4982862B2 (en) Program, information storage medium, and image generation system
EP1977801B1 (en) Game machine, game machine control method, and information storage medium
US8698830B2 (en) Image processing apparatus and method for texture-mapping an image onto a computer graphics image
JP4804120B2 (en) Program, information storage medium, and image generation system
EP2065854A1 (en) Image processing device, control method for image processing device and information recording medium
JP3372234B2 (en) Reflected image display method, game apparatus, and recording medium
US8319786B2 (en) Image processing device, control method for image processing device and information recording medium
JP5256153B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP4749198B2 (en) Program, information storage medium, and image generation system
JP3366894B2 (en) 3D image composition apparatus and method, information storage medium, program distribution apparatus and method
JP2005032140A (en) Image generation system, program, and information storage medium
JP2009129167A (en) Program, information storage medium, and image generation system
JP4847572B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2008077405A (en) Image generation system, program, and information storage medium
JP2005275797A (en) Program, information storage medium, image generation system
JP4913399B2 (en) Program, information storage medium, and image generation system
JP4447417B2 (en) GAME DEVICE, PROGRAM, AND COMPUTER CONTROL METHOD
JP4838230B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2005050070A (en) Image processing device, method, and program
JP4838221B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2008310377A (en) Image generation system, program and information storage medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111013

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4847572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250