JP2006346507A - Game apparatus and image processing program - Google Patents

Game apparatus and image processing program Download PDF

Info

Publication number
JP2006346507A
JP2006346507A JP2006273317A JP2006273317A JP2006346507A JP 2006346507 A JP2006346507 A JP 2006346507A JP 2006273317 A JP2006273317 A JP 2006273317A JP 2006273317 A JP2006273317 A JP 2006273317A JP 2006346507 A JP2006346507 A JP 2006346507A
Authority
JP
Japan
Prior art keywords
mask
image
character
game
drawn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006273317A
Other languages
Japanese (ja)
Other versions
JP4343207B2 (en
Inventor
Takashi Kaneko
貴史 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Intelligent Systems Co Ltd
Original Assignee
Nintendo Co Ltd
Intelligent Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd, Intelligent Systems Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2006273317A priority Critical patent/JP4343207B2/en
Publication of JP2006346507A publication Critical patent/JP2006346507A/en
Application granted granted Critical
Publication of JP4343207B2 publication Critical patent/JP4343207B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game apparatus where a specific object such as a player character can be displayed at all times without damaging the atmosphere of a game field as far as possible. <P>SOLUTION: A character object CH1 is projected first on a screen plane, and drawing is carried out with a circular area with the position of the character object CH1 projected on the screen plane as a center as a mask area. Picture data obtained like this is stored in a main memory as mask data, and utilized when drawing each object in a virtual game space. A transmission flag is set previously to respective field objects OB1 to OB3. The field object OB1 whose transmission flag is 1 is drawn using the mask data, and the character object CH1 and the field objects OB2 and OB3 whose transmission flags are 0 are drawn normally. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、ゲーム装置および画像処理プログラムに関し、特に、例えば三次元の仮想ゲーム空間に描画された建物の画像とプレイヤが操作するプレイヤキャラクタの画像とが混在して表示されるとき、プレイヤキャラクタが建物に隠れて見えなくなってしまうような不都合を解消したゲーム装置および画像処理プログラムに関する。   The present invention relates to a game device and an image processing program, and in particular, when a building image drawn in, for example, a three-dimensional virtual game space and a player character image operated by the player are displayed together, the player character The present invention relates to a game apparatus and an image processing program that have solved the inconvenience of being hidden behind a building.

三次元の仮想ゲーム空間において展開されるゲームにおいて、例えば建物の間をプレイヤが操作するプレイヤキャラクタが移動するときに、ゲーム画面においてプレイヤキャラクタが建物に隠れてしまうことがある。このような場合、従来から視点を移動させることによってプレイヤキャラクタを表示させることが一般的であった。しかしながらゲームによっては、視点移動を行わずに常に同じ方向から仮想ゲーム空間を見たようなゲーム画像を表示することが好ましい場合もある。   In a game developed in a three-dimensional virtual game space, for example, when a player character operated by a player moves between buildings, the player character may be hidden in the building on the game screen. In such a case, it has been common to display the player character by moving the viewpoint. However, depending on the game, it may be preferable to always display a game image as if the virtual game space was viewed from the same direction without moving the viewpoint.

特許文献1に記載の技術では、プレイヤキャラクタの表示位置に重なったかその近傍に位置したときにのみ壁や床に対して透過処理を行うことによって、プレイヤキャラクタが表示画面上で常に視認できるようにしている。   In the technique described in Patent Document 1, the player character can always be visually recognized on the display screen by performing the permeation process on the wall and the floor only when the player character is overlapped with or near the display position of the player character. ing.

特許文献2に記載の技術では、障害物が被写体を隠しているかどうかを判定し、障害物が被写体を隠しているときにのみ、この障害物に透過処理を行うことによって、表示画面上でプレイヤキャラクタが常に視認できるようにしている。
特許第2902352号公報 特許第3141737号公報
In the technique described in Patent Document 2, it is determined whether or not an obstacle is hiding the subject, and only when the obstacle is hiding the subject, a transparent process is performed on the obstacle, thereby allowing the player on the display screen. The character is always visible.
Japanese Patent No. 2902352 Japanese Patent No. 3141737

しかしながら、特許文献1に記載の技術では、プレイヤキャラクタが建物の壁の陰に隠れたときに、その壁全体が透過処理されてしまうため、ゲームフィールドの雰囲気が大きく変わってしまう。特許文献2に記載の技術でも、被写体が障害物の陰に隠れたときに、その障害物全体が透過処理され、今まで表示されていた障害物が突然消えてしまうため、ゲームフィールドの雰囲気が大きく変わってしまう。また、いずれの技術においても、壁や障害物などのオブジェクト毎に、プレイヤキャラクタ(または被写体)や視点との位置関係に基づいてプレイヤキャラクタ(または被写体)を隠しているか否かを判定してから各オブジェクトを描画する必要があり、オブジェクトの数の増加に応じて判定のための処理負担が大きくなる。   However, in the technique described in Patent Document 1, when the player character is hidden behind the wall of the building, the entire wall is transparently processed, so that the game field atmosphere is greatly changed. Even in the technique described in Patent Document 2, when an object is hidden behind an obstacle, the entire obstacle is transparently processed, and the obstacle that has been displayed disappears suddenly. It will change a lot. In any technique, for each object such as a wall or an obstacle, it is determined whether or not the player character (or subject) is hidden based on the positional relationship with the player character (or subject) or viewpoint. Each object needs to be drawn, and the processing load for determination increases as the number of objects increases.

それ故に、この発明の主たる目的は、ゲームフィールドの雰囲気をできるだけ損なわずに、プレイヤキャラクタなどの特定のオブジェクトを常に視認できるように表示することのできるゲーム装置および画像処理プログラムを提供することである。   Therefore, a main object of the present invention is to provide a game apparatus and an image processing program capable of displaying a specific object such as a player character so as to be always visible without impairing the atmosphere of the game field as much as possible. .

この発明のその他の目的は、壁や障害物などのオブジェクト毎に、プレイヤキャラクタや視点との位置関係に基づいてプレイヤキャラクタを隠しているか否かを判定することなしに、それらオブジェクトを適切に透過処理して、プレイヤキャラクタなどの特定のオブジェクトを視認できるように表示することができる、新規なゲーム装置および画像処理プログラムを提供することである。   Another object of the present invention is to appropriately transmit objects such as walls and obstacles without determining whether or not the player character is hidden based on the positional relationship with the player character and the viewpoint. It is to provide a novel game device and an image processing program that can be processed and displayed so that a specific object such as a player character can be visually recognized.

上記課題を解決するために、この発明は以下の構成を採用した。なお、括弧内の参照符号、図番号および補足説明は、この発明の理解を助けるために図面との対応関係を示したものであって、この発明の範囲を何ら限定するものではない。   In order to solve the above problems, the present invention employs the following configuration. Note that the reference numerals, figure numbers, and supplementary explanations in parentheses show the correspondence with the drawings in order to help understanding of the present invention, and do not limit the scope of the present invention.

請求項1に記載の発明は、三次元の仮想ゲーム空間における1以上の第1オブジェクトと1以上の第2オブジェクトを仮想ゲーム空間に設定された視点に基づいて透視投影変換を行うことにより、表示画面に表示するためのゲーム画像を描画用バッファ領域に描画する処理をゲーム装置のコンピュータ(24、26)に実行させる画像処理プログラムである。このゲームプログラムは、コンピュータに、配置位置決定ステップ(S10、S14)、算出ステップ(S24)、マスクデータ生成ステップ(S26)、第1オブジェクト描画ステップ(S38)、および第2オブジェクト描画ステップ(S36)を実行させる。
配置位置決定ステップは、三次元の仮想ゲーム空間に第1オブジェクト(CH1、CH2、・・・)を配置するための第1三次元座標と第2オブジェクト(OB1、OB2、・・・)を配置するための第2三次元配置座標を決定する。ここで、算出ステップは、第1三次元配置座標を視点に基づいて透視投影変換することにより、表示画面上の二次元座標を算出する(図11)。マスクデータ生成ステップは、表示画面上の二次元座標に対応する描画用バッファ領域内の位置に所定形状のマスク画像(マスク領域を示す画像)を描画した1画面分のマスクデータ(図12、図14、図19、図34、図38)を生成する。第1オブジェクト描画ステップは、第1三次元座標に配置された第1オブジェクトを透視投影変換して描画用バッファ領域に描画するとき、マスクデータを参照することなく、第1オブジェクトを描画用バッファ領域に描画する。第2オブジェクト描画ステップは、第2三次元座標に配置された第2オブジェクトを透視投影変換して描画用バッファ領域に描画するとき、マスクデータを参照することにより、マスク画像との重なっている部分における第2オブジェクトの透過率をマスク画像と重なっていない部分に比べて変化させて、第2オブジェクトを描画する(図13)。
According to the first aspect of the present invention, one or more first objects and one or more second objects in a three-dimensional virtual game space are displayed by performing perspective projection conversion based on the viewpoint set in the virtual game space. An image processing program for causing a computer (24, 26) of a game device to execute a process of drawing a game image to be displayed on a screen in a drawing buffer area. This game program is stored on the computer in an arrangement position determination step (S10, S14), a calculation step (S24), a mask data generation step (S26), a first object drawing step (S38), and a second object drawing step (S36). Is executed.
The arrangement position determining step arranges the first three-dimensional coordinates and the second objects (OB1, OB2,...) For arranging the first objects (CH1, CH2,...) In the three-dimensional virtual game space. To determine the second three-dimensional arrangement coordinates. Here, the calculation step calculates the two-dimensional coordinates on the display screen by subjecting the first three-dimensional arrangement coordinates to perspective projection conversion based on the viewpoint (FIG. 11). In the mask data generation step, mask data for one screen in which a mask image (an image showing a mask area) having a predetermined shape is drawn at a position in the drawing buffer area corresponding to the two-dimensional coordinates on the display screen (FIG. 12, FIG. 14, 19, 34, and 38). In the first object drawing step, when the first object arranged at the first three-dimensional coordinate is perspective-projected and drawn in the drawing buffer area, the first object is drawn in the drawing buffer area without referring to the mask data. To draw. In the second object drawing step, when the second object arranged at the second three-dimensional coordinate is perspective-projected and drawn in the drawing buffer area, a portion overlapping the mask image is referred to by referring to the mask data The second object is drawn by changing the transmittance of the second object in comparison with the portion not overlapping the mask image (FIG. 13).

請求項2に記載の発明は、請求項1に記載の発明において、マスク画像は中心から周辺に向けて色濃度が薄く又は濃くなる画像である(図14、図38)。そして、第2オブジェクト描画ステップは、マスク画像と第2オブジェクトとが重なる部分においてマスク画像の色濃度に応じて第2オブジェクトの透過率が変化するように第2オブジェクトを描画する(図15、図16)。   The invention according to claim 2 is the image according to claim 1, wherein the mask image is an image whose color density becomes lighter or darker from the center toward the periphery (FIGS. 14 and 38). In the second object drawing step, the second object is drawn so that the transmittance of the second object changes in accordance with the color density of the mask image at the portion where the mask image and the second object overlap (FIG. 15, FIG. 15). 16).

請求項1に記載の発明によれば、第1オブジェクトの第1三次元座標を透視投影変換し、当該変換後の二次元座標に基づいて1画面分に相当するマスクデータを作成し、第2オブジェクトを描画するときにマスクデータを参照し、マスク画像との重なり部分に関しては第2オブジェクトの透過率を変化させている。その結果、第1オブジェクトと第2オブジェクトが重なっているか否かを判定する処理がないので、処理負担を軽減することができる。   According to the first aspect of the present invention, the first three-dimensional coordinates of the first object are perspective-projected, mask data corresponding to one screen is created based on the two-dimensional coordinates after the conversion, and the second The mask data is referred to when the object is drawn, and the transmittance of the second object is changed for the overlapping portion with the mask image. As a result, since there is no process for determining whether or not the first object and the second object overlap, the processing load can be reduced.

請求項2に記載の発明によれば、マスク画像は周囲に向けて色濃度が薄く又は濃くなり、マスク画像が第2オブジェクトと重なっている部分ではマスク画像の色濃度に応じて第2オブジェクトの透過率が徐々に変化する。その結果、第2オブジェクトの一部が透過表示されることによる見た目の不自然さを抑えることが可能になる。   According to the second aspect of the present invention, the mask image has a color density that becomes lighter or darker toward the periphery, and the portion of the second object that corresponds to the color density of the mask image in a portion where the mask image overlaps the second object. The transmittance changes gradually. As a result, it is possible to suppress unnatural appearance due to a part of the second object being transparently displayed.

(第1の実施形態)
以下、図面を参照して、本発明の一実施形態に係るゲームシステムについて説明する。
(First embodiment)
Hereinafter, a game system according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係るゲームシステムの構成を示す外観図である。図1に示すように、ゲームシステム10は、モニタ12、ゲーム機本体14、光ディスク16、メモリカード18およびコントローラ20を備える。光ディスク16および外部メモリカード18は、ゲーム機本体14に着脱自在に装着される。コントローラ20は、通信ケーブルを介して、ゲーム機本体14に設けられた複数(図1では4つ)のコントローラポート用コネクタのいずれかに接続される。モニタ12は、AVケーブル等によってゲーム機本体14と接続される。なお、ゲーム機本体14とコントローラ20との通信は無線通信であってもよい。   FIG. 1 is an external view showing a configuration of a game system according to an embodiment of the present invention. As shown in FIG. 1, the game system 10 includes a monitor 12, a game machine body 14, an optical disk 16, a memory card 18, and a controller 20. The optical disc 16 and the external memory card 18 are detachably attached to the game machine body 14. The controller 20 is connected to one of a plurality (four in FIG. 1) of controller port connectors provided on the game machine body 14 via a communication cable. The monitor 12 is connected to the game machine main body 14 by an AV cable or the like. The communication between the game machine body 14 and the controller 20 may be wireless communication.

コントローラ20は、プレイヤがゲームに関する入力操作を行うための入力装置であり、複数の操作スイッチを有する。コントローラ20は、操作スイッチの状態を示す操作データをゲーム機本体14に出力する。プレイヤは、コントローラ20を操作することによって、ゲームに登場するプレイヤキャラクタを動作させたり移動させたりすることができる。   The controller 20 is an input device for a player to perform an input operation related to a game, and has a plurality of operation switches. The controller 20 outputs operation data indicating the state of the operation switch to the game machine body 14. The player can operate or move the player character appearing in the game by operating the controller 20.

光ディスク16は、ゲームプログラムやゲームデータを固定的に記憶している。プレイヤがゲームをプレイするとき、光ディスク16はゲーム機本体14に装着される。なお、ゲームプログラム等を記憶する手段として、光ディスク16の代わりに、例えばDVD−ROM、CD−ROM、MO、メモリカード、ROMカートリッジなど、任意の外部記憶媒体を用いることができる。   The optical disk 16 stores game programs and game data in a fixed manner. When the player plays the game, the optical disc 16 is mounted on the game machine body 14. As a means for storing the game program or the like, any external storage medium such as a DVD-ROM, a CD-ROM, an MO, a memory card, and a ROM cartridge can be used instead of the optical disc 16.

ゲーム機本体14は、光ディスク16に記録されているゲームプログラムを読み出し、読み出したゲームプログラムに応じた処理を行う。   The game machine body 14 reads a game program recorded on the optical disc 16 and performs processing according to the read game program.

モニタ12は、ゲーム機本体14から出力される映像信号に基づいてゲーム画像を画面に表示する。また、モニタ12にはスピーカ22が設けられており、スピーカ22は、ゲーム機本体14から出力される音声信号に基づいてゲームサウンドを出力する。   The monitor 12 displays a game image on the screen based on the video signal output from the game machine body 14. The monitor 12 is provided with a speaker 22, and the speaker 22 outputs a game sound based on an audio signal output from the game machine body 14.

メモリカード18は、例えばフラッシュメモリ等の書き換え可能な記憶媒体をバックアップメモリとして備えており、このバックアップメモリにはゲームのセーブデータ等が記録される。   The memory card 18 includes a rewritable storage medium such as a flash memory as a backup memory, and game save data and the like are recorded in the backup memory.

図2は、ゲーム機本体14の内部構成を示すブロックである。以下、図2を参照しながら、ゲーム機本体14の各部についてより詳細に説明する。   FIG. 2 is a block diagram showing an internal configuration of the game machine main body 14. Hereinafter, each part of the game machine body 14 will be described in more detail with reference to FIG.

ゲーム機本体14には、CPU24およびそれに接続されるメモリコントローラ34が設けられる。メモリコントローラ34は、GPU(グラフィックスプロセッシングユニット)26、メインメモリ28、DSP(Digital Signal Processor)30、および各種インターフェースに接続される。メモリコントローラ34は、これら各構成要素間のデータ転送を制御するものである。   The game machine body 14 is provided with a CPU 24 and a memory controller 34 connected thereto. The memory controller 34 is connected to a GPU (graphics processing unit) 26, a main memory 28, a DSP (Digital Signal Processor) 30, and various interfaces. The memory controller 34 controls data transfer between these components.

ゲーム開始の際、まず、ディスクドライブ46が、ゲーム機本体14に装着された光ディスク16を駆動する。光ディスク16に記憶されているゲームプログラムは、ディスクI/F(インターフェース)44およびメモリコントローラ34を介して、メインメモリ28に読み込まれる。このメインメモリ28にロードされたゲームプログラムをCPU24が実行することによってゲームが開始される。ゲーム開始後、プレイヤがコントローラ20を用いて入力操作を行うと、コントローラ20からゲーム機本体14に操作データが出力される。コントローラ20から出力される操作データは、コントローラI/F36およびメモリコントローラ34を介してCPU24に入力される。CPU24は、入力された操作データに基づいてゲーム処理を行う。ゲーム画像の生成は主にGPU26によって行われ、ゲームサウンドの生成には主にDSP30が用いられる。ARAM(Audio RAM)32は、オーディオ信号を記憶するために用いられる。   At the start of the game, first, the disk drive 46 drives the optical disk 16 mounted on the game machine body 14. The game program stored in the optical disc 16 is read into the main memory 28 via the disc I / F (interface) 44 and the memory controller 34. The game is started when the CPU 24 executes the game program loaded in the main memory 28. When the player performs an input operation using the controller 20 after the game is started, operation data is output from the controller 20 to the game machine body 14. Operation data output from the controller 20 is input to the CPU 24 via the controller I / F 36 and the memory controller 34. The CPU 24 performs a game process based on the input operation data. Game images are generated mainly by the GPU 26, and a DSP 30 is mainly used for generating game sounds. An ARAM (Audio RAM) 32 is used for storing an audio signal.

GPU26は、三次元の仮想ゲーム空間に配置されたオブジェクトの座標に関する演算(例えば、オブジェクトの回転・拡大縮小・変形や、ワールド座標系からカメラ座標系またはスクリーン座標系への座標変換)を行い、さらに、スクリーン平面に投影されたオブジェクトをテクスチャデータ等に基づいて描画(オブジェクトに対応する画素の色を決定してカラーバッファに書込む)してゲーム画像を生成する。カラーバッファは、モニタ12に表示すべきゲーム画像データ(RGBデータ)を保持するために確保されたメモリ領域である。GPU26は、カラーバッファ以外にも必要に応じて、視点からカラーバッファに描画したオブジェクトまでの距離を保持しておくためのZバッファや、シャドウボリューム技法のためのステンシルバッファを利用してゲーム画像を生成する。   The GPU 26 performs calculations related to the coordinates of an object placed in the three-dimensional virtual game space (for example, rotation, enlargement / reduction, transformation of the object, coordinate conversion from the world coordinate system to the camera coordinate system or the screen coordinate system), Further, a game image is generated by drawing an object projected on the screen plane based on texture data or the like (determining the color of a pixel corresponding to the object and writing it in a color buffer). The color buffer is a memory area reserved for holding game image data (RGB data) to be displayed on the monitor 12. In addition to the color buffer, the GPU 26 uses a Z buffer for holding the distance from the viewpoint to the object drawn in the color buffer, or a stencil buffer for the shadow volume technique, if necessary. Generate.

図3および図4に、メインメモリ28のメモリマップを示す。特に、図3はプログラムに関するメモリマップであり、図4はデータに関するメモリマップである。   3 and 4 show a memory map of the main memory 28. FIG. In particular, FIG. 3 is a memory map related to a program, and FIG. 4 is a memory map related to data.

図3において、メインメモリ28には、ゲームメインプログラム48や、オブジェクト移動制御プログラム50や、画像処理プログラム52が、光ディスク16からロードされる。   In FIG. 3, a main game 28 is loaded with a game main program 48, an object movement control program 50, and an image processing program 52 from the optical disc 16.

オブジェクト移動制御プログラム50は、三次元の仮想ゲーム空間に存在するオブジェクトを所定のアルゴリズムまたはユーザの指示に従って移動させるためのプログラムである。画像処理プログラム52には、マスク生成プログラム54、投影プログラム56、描画プログラム58および表示制御プログラム60が含まれている。マスク生成プログラムは、CPU24やGPU26に、後述するマスクデータを生成させるためのプログラムである。投影プログラム56は、CPU24やGPU26に、仮想ゲーム空間に存在するオブジェクトを所定のスクリーン平面に投影させるためのプログラムである。投影の手法としては、透視投影や平行投影などがある。描画プログラム58は、CPU24またはGPU26に、仮想ゲーム空間に存在するオブジェクトを描画させる(すなわちカラーバッファにオブジェクトの色を書込ませる)ためのプログラムである。表示制御プログラム60は、CPU24またはGPU26に、カラーバッファに格納された画像データに基づいて一定周期でモニタ12に映像信号を出力させるためのプログラムである。   The object movement control program 50 is a program for moving an object existing in the three-dimensional virtual game space according to a predetermined algorithm or a user instruction. The image processing program 52 includes a mask generation program 54, a projection program 56, a drawing program 58, and a display control program 60. The mask generation program is a program for causing the CPU 24 and the GPU 26 to generate mask data to be described later. The projection program 56 is a program for causing the CPU 24 and the GPU 26 to project an object existing in the virtual game space onto a predetermined screen plane. Projection methods include perspective projection and parallel projection. The drawing program 58 is a program for causing the CPU 24 or the GPU 26 to draw an object existing in the virtual game space (that is, to write the color of the object in the color buffer). The display control program 60 is a program for causing the CPU 24 or the GPU 26 to output a video signal to the monitor 12 at a constant period based on the image data stored in the color buffer.

図4において、メインメモリ28には、操作データバッファ62として利用される領域と、カラーバッファ64として利用される領域と、キャラクタオブジェクトに関するデータを記憶するための領域と、フィールドオブジェクトに関するデータを記憶するための領域と、後述するマスクデータ86を記憶するための領域と、その他のデータを記憶するための領域を含んでいる。   In FIG. 4, the main memory 28 stores an area used as the operation data buffer 62, an area used as the color buffer 64, an area for storing data related to the character object, and data related to the field object. An area for storing mask data 86 to be described later, and an area for storing other data.

操作データバッファ62は、コントローラ20から出力される操作データを一時的に記憶するための記憶領域である。カラーバッファ64は、モニタ12に表示されるゲーム画像の色データを一時的に記憶するための記憶領域である。   The operation data buffer 62 is a storage area for temporarily storing operation data output from the controller 20. The color buffer 64 is a storage area for temporarily storing color data of the game image displayed on the monitor 12.

キャラクタオブジェクトとは、仮想ゲーム空間に存在するキャラクタを表すオブジェクトで、プレイヤが操作するプレイヤキャラクタや、プレイヤは操作できないが、プレイヤキャラクタの動きに応じて、コンピュータ側で動きを制御する、ノンプレイヤキャラクタとして設定される。本実施形態では、仮想ゲーム空間に複数のキャラクタオブジェクト(CH1、CH2、CH3、・・・)が存在するものとする。メインメモリ28には、キャラクタオブジェクト毎に、仮想ゲーム空間におけるキャラクタオブジェクトの位置(三次元座標)を示す位置データ66、キャラクタオブジェクトの形状を規定するポリゴンデータ68、およびキャラクタオブジェクトの表面の模様を規定するテクスチャデータ70が保持される。   A character object is an object that represents a character that exists in the virtual game space. A player character that is operated by a player, or a non-player character that cannot be operated by the player but controls movement on the computer side in accordance with the movement of the player character. Set as In the present embodiment, it is assumed that there are a plurality of character objects (CH1, CH2, CH3,...) In the virtual game space. In the main memory 28, for each character object, position data 66 indicating the position (three-dimensional coordinates) of the character object in the virtual game space, polygon data 68 defining the shape of the character object, and a pattern of the surface of the character object are defined. Texture data 70 to be stored is held.

フィールドオブジェクトとは、仮想ゲーム空間のフィールドを構成するオブジェクトであって、具体的には、仮想ゲーム空間に存在する建物、壁、地面、道などである。本実施形態では、仮想ゲーム空間に複数のフィールドオブジェクト(OB1、OB2、OB3、・・・)が存在するものとする。メインメモリ28には、フィールドオブジェクト毎に、仮想ゲーム空間におけるフィールドオブジェクトの位置(三次元座標)を示す位置データ78、フィールドオブジェクトの形状を規定するポリゴンデータ80、フィールドオブジェクトの表面の模様を規定するテクスチャデータ82、および後述する透過フラグ84が保持される。   The field object is an object that constitutes a field of the virtual game space, and specifically, a building, a wall, a ground, a road, etc. existing in the virtual game space. In the present embodiment, it is assumed that a plurality of field objects (OB1, OB2, OB3,...) Exist in the virtual game space. The main memory 28 defines, for each field object, position data 78 indicating the position (three-dimensional coordinates) of the field object in the virtual game space, polygon data 80 defining the shape of the field object, and the surface pattern of the field object. Texture data 82 and a transparency flag 84 described later are held.

図5および図6は、本発明の第1の実施形態におけるゲーム画面例である。図5では、仮想ゲーム空間に配置されたキャラクタオブジェクトCH1とフィールドオブジェクトOB1〜OB3が表示されている。キャラクタオブジェクトCH1が図5の位置から矢印の方向へ移動すると、図6のように、フィールドオブジェクトOB1のうち、キャラクタオブジェクトCH1を中心とした所定の領域だけが透明になり、その結果、キャラクタオブジェクトCH1がフィールドオブジェクトOB1の陰に移動したときでもユーザはキャラクタオブジェクトCH1を視認することができる。   5 and 6 are game screen examples according to the first embodiment of the present invention. In FIG. 5, a character object CH1 and field objects OB1 to OB3 arranged in the virtual game space are displayed. When the character object CH1 moves from the position in FIG. 5 in the direction of the arrow, as shown in FIG. 6, only a predetermined area centering on the character object CH1 becomes transparent in the field object OB1, and as a result, the character object CH1 Even when the user moves behind the field object OB1, the user can visually recognize the character object CH1.

以下、図3に示した各種プログラムに基づいて実行されるCPU24またはGPU26の処理の流れを、図7〜図9のフローチャートを参照して説明する。   Hereinafter, the flow of processing of the CPU 24 or the GPU 26 executed based on the various programs shown in FIG. 3 will be described with reference to the flowcharts of FIGS.

図7において、メイン処理が開始されると、まずステップS10で、初期設定が行われる。ここでは、例えば視点やオブジェクトや光源が仮想ゲーム空間内の初期位置に配置される。ステップS12では、コントローラ20から出力される操作データが操作データバッファ62に格納される。ステップS14では、図3のオブジェクト移動制御プログラム50に基づいて、仮想ゲーム空間内の各オブジェクトの位置が更新される。特にキャラクタオブジェクトCH1が、プレイヤのコントローラ20の操作に基づいて動作するプレイヤキャラクタとして設定されていれば、その位置は、ステップS12で操作データバッファ62に格納された操作データに基づいて更新される。勿論キャラクタオブジェクトCH1は、例えばプレイヤキャラクタを攻撃するようなノンプレイヤキャラクタとして設定されても良い。このとき、プレイヤキャラクタの位置に応じて、あらかじめ記憶されたプログラムに基づいて、キャラクタオブジェクトCH1の位置が更新される。   In FIG. 7, when the main process is started, initial setting is first performed in step S10. Here, for example, a viewpoint, an object, and a light source are arranged at an initial position in the virtual game space. In step S 12, the operation data output from the controller 20 is stored in the operation data buffer 62. In step S14, the position of each object in the virtual game space is updated based on the object movement control program 50 of FIG. In particular, if the character object CH1 is set as a player character that moves based on the operation of the player's controller 20, the position is updated based on the operation data stored in the operation data buffer 62 in step S12. Of course, the character object CH1 may be set as a non-player character that attacks the player character, for example. At this time, the position of the character object CH1 is updated based on the program stored in advance according to the position of the player character.

ステップS16では、図3のマスク生成プログラムに基づいてマスク生成処理が行われる。このマスク生成処理の詳細については後述する。ステップS18では、図3の描画プログラム58に基づいて描画処理が行われ、その結果、モニタ12に表示すべきゲーム画像がカラーバッファ64に格納される。この描画処理の詳細についても後述する。ステップS20では、図3の表示制御プログラム60に基づいて、カラーバッファ64に格納されているゲーム画像に基づく映像信号がモニタ12に出力され、その結果、モニタ12の画面にゲーム画像として画像が表示される。ステップS22では、ゲーム終了かどうかが判定され、ゲームが続行している場合にはステップS12に戻る。ゲームが続行する間は、ステップS12〜ステップS18の処理が例えば30分の1秒の周期で繰り返される。   In step S16, a mask generation process is performed based on the mask generation program of FIG. Details of this mask generation processing will be described later. In step S18, drawing processing is performed based on the drawing program 58 of FIG. 3, and as a result, the game image to be displayed on the monitor 12 is stored in the color buffer 64. Details of this drawing processing will also be described later. In step S20, a video signal based on the game image stored in the color buffer 64 is output to the monitor 12 based on the display control program 60 of FIG. 3, and as a result, an image is displayed on the screen of the monitor 12 as a game image. Is done. In step S22, it is determined whether or not the game is over. If the game is continuing, the process returns to step S12. While the game continues, the processing from step S12 to step S18 is repeated at a period of 1/30 second, for example.

次に、マスク生成処理の詳細を図8のフローチャートを参照して説明する。ここでは、仮想ゲーム空間に図10に示すように視点および各オブジェクト(キャラクタオブジェクトCH1およびフィールドオブジェクトOB1〜OB3)が配置されているものとして説明する。図10は、視線方向に対して垂直方向から仮想ゲーム空間を見た様子を示している。図10において、ニアークリップ面とファークリップ面との間の空間(視体積)に含まれるオブジェクトが描画対象となる。なお、図10の例では透視投影によってオブジェクトを描画する例を示しているが、本発明はこれに限らず、平行投影によってオブジェクトを描画してもよい。なお、図6に示すように、フィールドオブジェクトOB1の透過フラグ84は1であり、フィールドオブジェクトOB2とフィールドオブジェクトOB3の透過フラグ84は0に設定されているものとする。   Next, details of the mask generation processing will be described with reference to the flowchart of FIG. Here, description will be made assuming that the viewpoint and each object (character object CH1 and field objects OB1 to OB3) are arranged in the virtual game space as shown in FIG. FIG. 10 shows a state in which the virtual game space is viewed from the direction perpendicular to the line-of-sight direction. In FIG. 10, an object included in a space (view volume) between the near clip plane and the far clip plane is a drawing target. In addition, although the example of drawing an object by perspective projection is shown in the example of FIG. 10, the present invention is not limited to this, and the object may be drawn by parallel projection. As shown in FIG. 6, it is assumed that the transparency flag 84 of the field object OB1 is 1, and the transparency flag 84 of the field object OB2 and the field object OB3 is set to 0.

マスク生成処理が開始されると、まずステップS24で、図3の投影プログラム56に基づいて、各キャラクタオブジェクト(図5の例ではキャラクタオブジェクトCH1)が仮想ゲーム空間に設定されたスクリーン平面に投影される。具体的には、三次元の仮想ゲーム空間における各キャラクタオブジェクトの配置座標(三次元座標)を視点に基づいて透視投影変換することにより、各キャラクタオブジェクトに対応した、モニタ12の表示画面上の座標(二次元座標)を算出する。なお、図10の例ではニアークリップ面をスクリーン平面として設定しているが、本発明はこれに限らない。この投影処理は、典型的には、各キャラクタオブジェクトを構成するポリゴンの頂点座標を、所定の変換行列を用いて座標変換することによって行われる。図11に、キャラクタオブジェクトCH1をスクリーン平面に投影した結果を示す。なお、ここではキャラクタオブジェクトCH1を構成するポリゴンをスクリーン平面に投影する例を示したが、本発明はこれに限らず、キャラクタオブジェクトCH1の位置を示す点だけをスクリーン平面に投影しても構わない。   When the mask generation process is started, first, in step S24, each character object (character object CH1 in the example of FIG. 5) is projected on the screen plane set in the virtual game space based on the projection program 56 of FIG. The Specifically, the coordinates on the display screen of the monitor 12 corresponding to each character object are obtained by performing perspective projection conversion of the arrangement coordinates (three-dimensional coordinates) of each character object in the three-dimensional virtual game space based on the viewpoint. (Two-dimensional coordinates) is calculated. In the example of FIG. 10, the near clip surface is set as the screen plane, but the present invention is not limited to this. This projection process is typically performed by coordinate-converting the vertex coordinates of the polygons constituting each character object using a predetermined conversion matrix. FIG. 11 shows the result of projecting the character object CH1 on the screen plane. Here, an example in which the polygon constituting the character object CH1 is projected onto the screen plane has been shown, but the present invention is not limited to this, and only the point indicating the position of the character object CH1 may be projected onto the screen plane. .

ステップS26では、スクリーン平面に投影された各キャラクタオブジェクトの位置に基づいて、図12のようなモノクロの画像データを生成する。具体的には、スクリーン平面に投影された各キャラクタオブジェクトの位置を中心とした図12のような円形の領域(マスク領域)を示す画像を描画する。このマスク領域の描画には、カラーバッファ64を一時的に利用してもよい。   In step S26, monochrome image data as shown in FIG. 12 is generated based on the position of each character object projected on the screen plane. Specifically, an image showing a circular area (mask area) as shown in FIG. 12 centering on the position of each character object projected on the screen plane is drawn. The color buffer 64 may be temporarily used for drawing the mask area.

ステップS28では、ステップS26で得られた画像データを、マスクデータとしてメインメモリ28に格納する。このとき、マスクデータとして格納される画像データの解像度は、必ずしもゲーム画像の解像度と同一である必要はなく、ゲーム画像よりも解像度を下げてからメインメモリ28に格納してもよい。これにより、マスクデータの格納のために必要となるメインメモリ28の記憶領域を節約することができる。なお、こうして解像度を下げたマスクデータを後述の描画処理において利用する場合には、メインメモリ28に格納されているマスクデータの解像度をゲーム画像の解像度に変換すればよい。   In step S28, the image data obtained in step S26 is stored in the main memory 28 as mask data. At this time, the resolution of the image data stored as the mask data is not necessarily the same as the resolution of the game image, and may be stored in the main memory 28 after the resolution is lowered than the game image. Thereby, the storage area of the main memory 28 required for storing mask data can be saved. When the mask data with the reduced resolution is used in the drawing process described later, the resolution of the mask data stored in the main memory 28 may be converted to the resolution of the game image.

次に、描画処理の詳細を図9のフローチャートを参照して説明する。   Next, details of the drawing process will be described with reference to the flowchart of FIG.

描画処理が開始すると、まずステップS30で、カラーバッファに描画すべき描画対象オブジェクトが決定される。オブジェクトの描画の順序は任意であるが、必要に応じて、オブジェクトの描画の順序を予め決定し、決定した順序に従ってオブジェクトを描画するようにしてもよい。例えば、不透明のオブジェクトを描画し、その後で半透明のオブジェクトを描画するようにすれば、透過処理(アルファ合成)が比較的容易となる。また例えば、視点から遠いオブジェクトをまず描画し、その後で視点に近いオブジェクトを描画するようにすれば、Zバッファを用いたZテストを行うこと無しに隠面消去が可能となる。   When the drawing process starts, first, in step S30, a drawing target object to be drawn in the color buffer is determined. Although the drawing order of the objects is arbitrary, if necessary, the drawing order of the objects may be determined in advance, and the objects may be drawn according to the determined order. For example, if an opaque object is drawn and then a semi-transparent object is drawn, transparency processing (alpha composition) becomes relatively easy. Also, for example, if an object far from the viewpoint is drawn first, and then an object close to the viewpoint is drawn, the hidden surface can be deleted without performing the Z test using the Z buffer.

ステップS32では、ステップS30で決定された描画対象オブジェクトがキャラクタオブジェクトかどうかが判断される。キャラクタオブジェクトである場合はステップS38に進み、キャラクタオブジェクトでない場合(すなわちフィールドオブジェクトである場合)はステップS34に進む。   In step S32, it is determined whether or not the drawing target object determined in step S30 is a character object. If it is a character object, the process proceeds to step S38. If it is not a character object (that is, a field object), the process proceeds to step S34.

ステップS34では、メインメモリ28を参照して、描画対象となっているフィールドオブジェクトの透過フラグ84が0かどうかが判断される。透過フラグ84が0である場合はステップS38に進み、透過フラグ84が0でない場合(すなわち1である場合)はステップS36に進む。   In step S34, with reference to the main memory 28, it is determined whether or not the transparency flag 84 of the field object to be rendered is 0. If the transmission flag 84 is 0, the process proceeds to step S38, and if the transmission flag 84 is not 0 (that is, 1), the process proceeds to step S36.

ステップS36では、描画対象オブジェクト(ここでは透過フラグが1であるフィールドオブジェクト)が、前述のマスク生成処理によってメインメモリ28に格納されたマスクデータ86を用いて描画される。また、1画面分のマスクデータ86に含まれるマスク画像(マスク領域の画像)の各ピクセルの値に応じて、描画対象オブジェクトの各ピクセルの透過率がきまる。具体的には、三次元の仮想ゲーム空間に配置された描画対象オブジェクトを透視投影変換してカラーバッファ64に描画するとき、メインメモリ28に格納されたマスクデータ86を参照することにより、マスク領域と重なっている部分における描画対象オブジェクトの透過率を100%(すなわちマスク領域に当たる部分がカラーバッファ64に描画されない)に変化させ、それ以外の部分の透過率は変化させずに(すなわち通常表示)、描画対象オブジェクトが描画される。例えば、図12のマスクデータを用いてフィールドオブジェクトOB1を描画した場合、描画結果は図13のようになる。   In step S36, the drawing target object (here, the field object whose transparency flag is 1) is drawn using the mask data 86 stored in the main memory 28 by the mask generation process described above. Further, the transmittance of each pixel of the drawing target object is determined according to the value of each pixel of the mask image (mask region image) included in the mask data 86 for one screen. Specifically, when a drawing target object arranged in a three-dimensional virtual game space is subjected to perspective projection conversion and drawn in the color buffer 64, the mask area 86 is referred to by referring to the mask data 86 stored in the main memory 28. The transmittance of the object to be drawn in the overlapping portion is changed to 100% (that is, the portion corresponding to the mask area is not drawn in the color buffer 64), and the transmittance of other portions is not changed (that is, normal display). The drawing target object is drawn. For example, when the field object OB1 is drawn using the mask data of FIG. 12, the drawing result is as shown in FIG.

ステップS38では、描画対象オブジェクト(ここではキャラクタオブジェクト、または透過フラグが0であるフィールドオブジェクト)が普通に、すなわち前述のマスク生成処理によってメインメモリ28に格納されたマスクデータ86を参照することなしに、描画される。   In step S38, the drawing target object (in this case, the character object or the field object whose transparency flag is 0) is normally set, that is, without referring to the mask data 86 stored in the main memory 28 by the mask generation process described above. Drawn.

ステップS40では、描画が完了したかどうか(すなわち視体積に含まれる全てのオブジェクトの描画が完了したかどうか)が判断される。描画が完了していない場合はステップS30に戻り、次の描画対象オブジェクトを決定して描画する。描画が完了した場合は図7のステップS20に進み、その結果、例えば図6のようなゲーム画像がモニタ12に表示されることとなる。   In step S40, it is determined whether or not drawing has been completed (that is, whether or not drawing of all objects included in the view volume has been completed). If the drawing has not been completed, the process returns to step S30 to determine and draw the next drawing target object. When the drawing is completed, the process proceeds to step S20 in FIG. 7, and as a result, for example, a game image as shown in FIG. 6 is displayed on the monitor 12.

なお、本実施形態では描画対象オブジェクトのうち、マスク領域に当たる部分を描画しないとしたが、本発明はこれに限らない。例えば、描画対象オブジェクトのうち、マスク領域に当たる部分を半透明表示するようにしてもよい。この場合、描画対象オブジェクトのうち、マスク領域に当たる部分のアルファ値(透過率を決定する値)を適当な値に変更し、変更後のアルファ値に基づくアルファ合成を行えばよい。   In the present embodiment, the portion corresponding to the mask area of the drawing target object is not drawn, but the present invention is not limited to this. For example, a portion corresponding to the mask area in the drawing target object may be displayed semi-transparently. In this case, the alpha value (the value that determines the transmittance) of the drawing target object corresponding to the mask area may be changed to an appropriate value, and alpha composition based on the changed alpha value may be performed.

なお、本実施形態ではマスクデータとして図12に示すような2値の画像データを用いるとしたが、本発明はこれに限らず、より階調数の多い画像データを用いてもよい。図14は、透過率に応じて4つの値を有する画像データをマスクデータとして利用する場合の例である。特に、図14のマスクデータは、マスク領域の境界においてオブジェクトの透過率を徐々に変化させるようなマスクデータである。図15は、このマスクデータを用いてフィールドオブジェクトOB1を描画した結果を示している。フィールドオブジェクトOB1は、マスクデータの値に応じて透過率(アルファ値)が変更され、この変更後のアルファ値に基づくアルファ合成により、図16のようなゲーム画像が生成される。図16の例では、フィールドオブジェクトOB1のうち、マスク領域の境界部分に当たる部分の透過率が徐々に変化しているため、図6の例に比べて画像表現として豪華さや美しさを加えることができる。   In the present embodiment, binary image data as shown in FIG. 12 is used as mask data. However, the present invention is not limited to this, and image data having a larger number of gradations may be used. FIG. 14 shows an example in the case where image data having four values according to the transmittance is used as mask data. In particular, the mask data in FIG. 14 is mask data that gradually changes the transmittance of the object at the boundary of the mask region. FIG. 15 shows the result of drawing the field object OB1 using this mask data. The transmittance (alpha value) of the field object OB1 is changed according to the value of the mask data, and a game image as shown in FIG. 16 is generated by alpha composition based on the changed alpha value. In the example of FIG. 16, the transmissivity of the portion corresponding to the boundary portion of the mask area in the field object OB1 is gradually changed, so that luxury and beauty can be added as an image expression compared to the example of FIG. .

なお、本実施形態ではマスク領域が円形であるとしたが、本発明はこれに限らず、マスク領域は任意の形状(例えば楕円、矩形、星形)であってもよい。   In the present embodiment, the mask region is circular. However, the present invention is not limited to this, and the mask region may have any shape (for example, an ellipse, a rectangle, or a star).

なお、マスク領域の大きさは、固定であっても良いし、キャラクタオブジェクトの大きさや状態に応じて変化してもよい。また、視点からキャラクタオブジェクトまでの距離に応じてマスク領域の大きさを変化させても良い。特に、透視投影によってゲーム画像が生成される場合には、例えば、図17Aの矢印の方向にキャラクタオブジェクトが移動したときに、図17Bおよび図17Cに示すようにキャラクタオブジェクトが視点から遠ざかるほどマスク領域の大きさを小さくするのが好ましい。これにより、キャラクタオブジェクトを常に表示しつつもさらに、画像表現の凝ったゲーム画像が得られる。   Note that the size of the mask area may be fixed, or may vary according to the size and state of the character object. The size of the mask area may be changed according to the distance from the viewpoint to the character object. In particular, when a game image is generated by perspective projection, for example, when the character object moves in the direction of the arrow in FIG. 17A, the mask area increases as the character object moves away from the viewpoint as shown in FIGS. 17B and 17C. It is preferable to reduce the size of. As a result, a game image with more elaborate image representation can be obtained while always displaying the character object.

なお、図11の例ではスクリーン平面に投影されたキャラクタオブジェクトが1つしか存在しないため、図12ではマスク領域が1つしか存在しないが、図18のようにキャラクタオブジェクトが複数存在する場合には、図19のように、マスクデータにはこれら複数のキャラクタオブジェクト(ここではキャラクタオブジェクトCH1、CH2)にそれぞれ対応する複数のマスク領域が設けられる。透過フラグが1であるフィールドオブジェクト(ここではフィールドオブジェクトOB1)を図19のマスクデータを用いて描画することで、図20のようなゲーム画像が得られる。   In the example of FIG. 11, there is only one character object projected on the screen plane. Therefore, in FIG. 12, there is only one mask area. However, when there are a plurality of character objects as shown in FIG. As shown in FIG. 19, the mask data is provided with a plurality of mask areas respectively corresponding to the plurality of character objects (here, character objects CH1 and CH2). A game image as shown in FIG. 20 is obtained by drawing a field object (here, field object OB1) having a transparency flag of 1 using the mask data of FIG.

なお、本実施形態では図10のフィールドオブジェクトOB1の透過フラグ84は1に、フィールドオブジェクトOB2とフィールドオブジェクトOB3の透過フラグ84は0に設定されているものとしたが、フィールドオブジェクトの透過フラグの値は、フィールドオブジェクトの位置や視点の設定を考慮して予め適切に設定される。例えば、地面を表すフィールドオブジェクトについては、通常はキャラクタオブジェクトが地面の陰に隠れてしまうことは無いため、透過フラグを0に設定しておく。一方、船の帆など、キャラクタオブジェクトよりも高い位置にあるものを表すフィールドオブジェクトについては、視点がキャラクタオブジェクトの上方に設定されている場合にキャラクタオブジェクトを隠してしまいがちとなるので、透過フラグを1に設定しておく。また、キャラクタオブジェクトよりも小さいフィールドオブジェクトや、半透明のフィールドオブジェクトについては、キャラクタオブジェクトの表示を大きくは妨げないため、透過フラグを0に設定しておいても構わない。   In this embodiment, the transparency flag 84 of the field object OB1 in FIG. 10 is set to 1, and the transparency flag 84 of the field object OB2 and the field object OB3 is set to 0. However, the value of the transparency flag of the field object Is set appropriately in advance in consideration of the position of the field object and the setting of the viewpoint. For example, for a field object representing the ground, the transparency flag is set to 0 because the character object is not normally hidden behind the ground. On the other hand, for a field object that represents a position higher than the character object, such as a sail of a ship, the transparency flag tends to be hidden when the viewpoint is set above the character object. Set to 1. For a field object that is smaller than the character object or a semi-transparent field object, the transparency flag may be set to 0 because the display of the character object is not greatly prevented.

なお、違和感のあるゲーム画像になってしまうことを許容するのであれば、透過フラグを設定することなしに、全てのフィールドオブジェクトに対してマスクデータを用いた透過処理を適用するようにしても構わない。これにより、少なくともキャラクタオブジェクトが必ず表示されるという効果が得られる。   Note that if it is allowed to have a game image with a sense of incongruity, transparency processing using mask data may be applied to all field objects without setting a transparency flag. Absent. As a result, at least the character object is necessarily displayed.

以上のように、第1の実施形態によれば、キャラクタオブジェクトの位置に基づいてマスクデータを生成し、このマスクデータを用いてフィールドオブジェクトに透過処理を施すため、キャラクタオブジェクトを常に表示することができる。   As described above, according to the first embodiment, mask data is generated based on the position of the character object, and the field object is subjected to transparency processing using the mask data, so that the character object can be always displayed. it can.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.

まず、三次元の仮想ゲーム空間に複数のオブジェクト(キャラクタオブジェクトCH1〜CH3とフィールドオブジェクトOB1、OB2)が図21のように配置されている場合を考える。なお、フィールドオブジェクトOB1は透過フラグが1に設定されているものとし、フィールドオブジェクトOB2は透過フラグが0に設定されているものとする。ここで、図21の視点Aから見たシーンを第1の実施形態の手法を用いて描画した場合、図22のようなゲーム画像が得られる。図22のゲーム画像では、各キャラクタオブジェクトCH1〜CH3が適切に表示されている。しかしながら、図21の視点Bから見たシーンを第1の実施形態の手法を用いて描画した場合には、図23のように、キャラクタオブジェクトCH1、CH2が表示されない。また、キャラクタオブジェクトCH1に対応するマスク領域の影響を受けてフィールドオブジェクトOB1の一部が欠けてしまっているので、違和感のあるゲーム画像となっている。第2の実施形態では、このような不具合を解消することができる。   First, consider a case where a plurality of objects (character objects CH1 to CH3 and field objects OB1 and OB2) are arranged in a three-dimensional virtual game space as shown in FIG. It is assumed that the transparency flag is set to 1 for the field object OB1, and the transparency flag is set to 0 for the field object OB2. Here, when the scene viewed from the viewpoint A in FIG. 21 is drawn using the method of the first embodiment, a game image as shown in FIG. 22 is obtained. In the game image of FIG. 22, each character object CH1 to CH3 is appropriately displayed. However, when the scene viewed from the viewpoint B in FIG. 21 is drawn using the method of the first embodiment, the character objects CH1 and CH2 are not displayed as shown in FIG. Further, a part of the field object OB1 is missing due to the influence of the mask area corresponding to the character object CH1, so that the game image has a sense of incongruity. In the second embodiment, such a problem can be solved.

第2の実施形態では、視点に対して予め決められた基準位置よりも近いフィールドオブジェクトにのみマスクデータを用いた透過処理が適用される。基準位置は、仮想ゲーム空間における絶対位置により規定されてもよいし、視点を基準とした相対位置により規定されてもよいし、特定のキャラクタオブジェクトの位置として規定されてもよい。   In the second embodiment, the transmission process using the mask data is applied only to the field object closer to the viewpoint than the reference position determined in advance. The reference position may be defined by an absolute position in the virtual game space, may be defined by a relative position based on the viewpoint, or may be defined as a position of a specific character object.

例えば、仮想ゲーム空間に複数のオブジェクト(キャラクタオブジェクトCH1〜CH3とフィールドオブジェクトOB1、OB2)が図24のように配置され、基準位置が図のような位置に設定されている場合について説明する。   For example, a case will be described in which a plurality of objects (character objects CH1 to CH3 and field objects OB1 and OB2) are arranged in the virtual game space as shown in FIG. 24 and the reference position is set to the position shown in the figure.

図24の視点Aから見たシーンを描画する場合、キャラクタオブジェクトCH1〜CH3の位置に基づいてマスクデータが生成され、基準位置よりも視点(ここでは視点A)に近いフィールドオブジェクトOB1についてはマスクデータを用いた透過処理が施され、基準位置よりも視点から遠いフィールドオブジェクトOB2については普通に描画される。その結果、図25のようなゲーム画像が得られる。   When the scene viewed from the viewpoint A in FIG. 24 is drawn, mask data is generated based on the positions of the character objects CH1 to CH3. The field object OB2 farther from the viewpoint than the reference position is normally drawn. As a result, a game image as shown in FIG. 25 is obtained.

一方、図24の視点Bから見たシーンを描画する場合、キャラクタオブジェクトCH1〜CH3の位置に基づいてマスクデータが生成され、基準位置よりも視点(ここでは視点B)に近いフィールドオブジェクトOB2についてはマスクデータを用いた透過処理が施され、基準位置よりも視点から遠いフィールドオブジェクトOB1については普通に描画される。その結果、図26のようなゲーム画像が得られる。   On the other hand, when the scene viewed from the viewpoint B in FIG. 24 is drawn, mask data is generated based on the positions of the character objects CH1 to CH3, and the field object OB2 closer to the viewpoint (here, the viewpoint B) than the reference position. Transmission processing using mask data is performed, and the field object OB1 farther from the viewpoint than the reference position is normally drawn. As a result, a game image as shown in FIG. 26 is obtained.

ここで、図25のゲーム画像においても図26のゲーム画像においても、全てのキャラクタオブジェクトCH1〜CH3が表示されており、また、キャラクタオブジェクトよりも視点から遠い位置にあるフィールドオブジェクトが不自然に欠けてしまうこともない。   Here, in both the game image of FIG. 25 and the game image of FIG. 26, all the character objects CH1 to CH3 are displayed, and the field object located farther from the viewpoint than the character object is unnaturally missing. There is no end to it.

以下、第2の実施形態の詳細な動作を、第1の実施形態との相違点を中心に説明する。   Hereinafter, the detailed operation of the second embodiment will be described focusing on the differences from the first embodiment.

第2の実施形態では、図27のように、メインメモリ28に前述の基準位置88が記憶される。ここでは、基準位置が視点からの距離により規定されているものとする。   In the second embodiment, the reference position 88 is stored in the main memory 28 as shown in FIG. Here, it is assumed that the reference position is defined by the distance from the viewpoint.

以下、第2の実施形態の描画処理について図28のフローチャートを参照して説明する。なお、図28のフローチャートは、描画処理の一部のみを示しており、残りのステップについては図9のフローチャートを援用する。また、図28のフローチャートにおいて、図9のフローチャートと同一のステップについては同一の参照符号が付されている。   The drawing process of the second embodiment will be described below with reference to the flowchart of FIG. Note that the flowchart of FIG. 28 shows only a part of the drawing process, and the flowchart of FIG. 9 is used for the remaining steps. In the flowchart of FIG. 28, the same steps as those in the flowchart of FIG. 9 are denoted by the same reference numerals.

図9のステップS30で描画対象オブジェクトが決定されると、図28のステップS32で、描画対象オブジェクトがキャラクタオブジェクトかどうかが判断される。キャラクタオブジェクトである場合はステップS38に進み、キャラクタオブジェクトでない場合(すなわちフィールドオブジェクトである場合)はステップS42に進む。   When the drawing target object is determined in step S30 in FIG. 9, it is determined in step S32 in FIG. 28 whether the drawing target object is a character object. If it is a character object, the process proceeds to step S38. If it is not a character object (that is, a field object), the process proceeds to step S42.

ステップS42では、メインメモリ28を参照して、描画対象となっているフィールドオブジェクトが、基準位置88よりも視点に近いかどうかが判断される。描画対象となっているフィールドオブジェクトが基準位置88よりも視点に近い場合はステップS38に進み、基準位置88よりも視点から遠い場合はステップS36に進む。   In step S <b> 42, it is determined with reference to the main memory 28 whether the field object to be drawn is closer to the viewpoint than the reference position 88. If the field object to be drawn is closer to the viewpoint than the reference position 88, the process proceeds to step S38. If the field object is farther from the viewpoint than the reference position 88, the process proceeds to step S36.

ステップS36では、描画対象オブジェクト(ここでは基準位置88よりも視点に近いフィールドオブジェクト)が、マスク生成処理によってメインメモリ28に格納されたマスクデータ86を用いて描画される。   In step S36, a drawing target object (here, a field object closer to the viewpoint than the reference position 88) is drawn using the mask data 86 stored in the main memory 28 by the mask generation process.

ステップS38では、描画対象オブジェクト(ここではキャラクタオブジェクト、または基準位置88よりも視点から遠いフィールドオブジェクト)が普通に描画される。   In step S38, a drawing target object (here, a character object or a field object farther from the viewpoint than the reference position 88) is drawn normally.

上記のような描画処理の結果、図25や図26のようなゲーム画像が生成される。   As a result of the drawing process as described above, a game image as shown in FIG. 25 or 26 is generated.

なお、本実施形態では基準位置を視点からの距離で規定するとしたが、本発明はこれに限らない。例えば、前述したように、特定のキャラクタオブジェクトの位置を基準位置として設定してもよい。この場合、その特定のキャラクタオブジェクトの移動に応じて、メインメモリ28に記憶される基準位置88を更新する必要がある。   In the present embodiment, the reference position is defined by the distance from the viewpoint, but the present invention is not limited to this. For example, as described above, the position of a specific character object may be set as the reference position. In this case, it is necessary to update the reference position 88 stored in the main memory 28 according to the movement of the specific character object.

なお、図29のように、仮想ゲーム空間に複数のキャラクタオブジェクト(ここではキャラクタオブジェクトCH1〜CH4)が存在する場合には、視体積に含まれるキャラクタオブジェクト(ここではキャラクタオブジェクトCH1〜CH3)の中で最も視点から遠いキャラクタオブジェクト(ここではキャラクタオブジェクトCH3)の位置を基準位置として設定するのが好ましい。これにより、視体積に含まれる全てのキャラクタオブジェクトが表示されることになり、しかも違和感の少ない(図29の例ではフィールドオブジェクトOB3の一部が欠けてしまうことのない)ゲーム画像が得られることになる。これを実現するには、図7のステップS18の描画処理よりも前に、図30のステップS44〜ステップS46を実行すればよい。具体的には、ステップS44では、視体積に含まれるキャラクタオブジェクトのうち、視点から最も遠いキャラクタオブジェクトの位置が取得される。ステップS46では、ステップS44で取得されたキャラクタオブジェクトの位置(仮想空間における絶対位置であってもよいし、視点を基準とした相対位置であってもよい)をメインメモリ28に基準位置88として格納する。   As shown in FIG. 29, when there are a plurality of character objects (here, character objects CH1 to CH4) in the virtual game space, the character objects (here, character objects CH1 to CH3) included in the visual volume. It is preferable to set the position of the character object (here, the character object CH3) farthest from the viewpoint as the reference position. As a result, all the character objects included in the view volume are displayed, and a game image with a little uncomfortable feeling (a part of the field object OB3 is not lost in the example of FIG. 29) can be obtained. become. In order to realize this, steps S44 to S46 of FIG. 30 may be executed before the drawing process of step S18 of FIG. Specifically, in step S44, the position of the character object farthest from the viewpoint among the character objects included in the visual volume is acquired. In step S46, the position of the character object acquired in step S44 (which may be an absolute position in the virtual space or a relative position based on the viewpoint) is stored in the main memory 28 as a reference position 88. To do.

なお、第1の実施形態の手法と第2の実施形態の手法とを組み合わせることも可能である。すなわち、基準位置よりも視点に近く、かつ透過フラグが1であるようなフィールドオブジェクトにのみ、マスクデータを用いた透過処理を適用し、その他のフィールドオブジェクトに対しては透過処理を適用しないようにしてもよい。   It is also possible to combine the technique of the first embodiment and the technique of the second embodiment. That is, the transparency process using the mask data is applied only to a field object that is closer to the viewpoint than the reference position and has a transparency flag of 1, and the transparency process is not applied to other field objects. May be.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.

まず、三次元の仮想ゲーム空間に複数のオブジェクト(キャラクタオブジェクトCH1〜CH3とフィールドオブジェクトOB1、OB2)が図31のように配置されている場合を考える。この場合、第1の実施形態の手法と第2の実施形態の手法のいずれの手法を用いたとしても、キャラクタオブジェクトCH3が表示され、かつフィールドオブジェクトOB2のうち、キャラクタオブジェクトCH1、CH2の背後に当たる部分が不必要に欠けてしまうことの無いようなゲーム画像を得ることは不可能である。第3の実施形態では、このような不具合を解決することができる。   First, consider a case where a plurality of objects (character objects CH1 to CH3 and field objects OB1 and OB2) are arranged in a three-dimensional virtual game space as shown in FIG. In this case, regardless of the method of the first embodiment or the method of the second embodiment, the character object CH3 is displayed and falls behind the character objects CH1 and CH2 in the field object OB2. It is impossible to obtain a game image in which a portion is not unnecessarily lost. In the third embodiment, such a problem can be solved.

第3の実施形態では、図12や図14や図19のようなマスクデータに対してさらに深さ情報を付加したようなマスクデータが生成され、こうして生成したマスクデータを用いて透過処理が行われる。   In the third embodiment, mask data in which depth information is further added to the mask data as shown in FIGS. 12, 14, and 19 is generated, and the transmission processing is performed using the generated mask data. Is called.

図32は、第3の実施形態の原理を示す図である。図12や図14や図19のようなマスクデータの各マスク領域に対して、キャラクタオブジェクトの位置に応じた深さ情報を付加することにより、図32のように、各キャラクタオブジェクト(ここではキャラクタオブジェクトCH1〜CH3)の位置から視点に向かって延びるマスク空間を定義することができる。図33のように、マスク空間は、仮想ゲーム空間におけるキャラクタオブジェクトの位置から視点に向かって延びる空間であって、その形状は、透視投影によってオブジェクトを描画する場合には基本的には円錐形となり、平行投影によってオブジェクトを描画する場合には基本的には円柱形となる。描画処理では、このマスクデータに基づいて、図33のようにマスク空間の内部についてはフィールドオブジェクトが透明(もしくは半透明)表示され、それ以外の空間についてはフィールドオブジェクトが普通に表示される。   FIG. 32 is a diagram illustrating the principle of the third embodiment. By adding depth information corresponding to the position of the character object to each mask area of the mask data as shown in FIG. 12, FIG. 14 or FIG. 19, each character object (here, character A mask space extending from the position of the objects CH1 to CH3) toward the viewpoint can be defined. As shown in FIG. 33, the mask space is a space extending from the position of the character object toward the viewpoint in the virtual game space, and its shape is basically a conical shape when the object is drawn by perspective projection. When an object is drawn by parallel projection, it basically has a cylindrical shape. In the drawing process, based on the mask data, the field object is displayed transparent (or semi-transparent) in the mask space as shown in FIG. 33, and the field object is normally displayed in the other space.

図34は、第3の実施形態で生成されるマスクデータの一例を示している。第3の実施形態におけるマスク生成処理では、第1の実施形態と同様にスクリーン平面に投影された各キャラクタオブジェクトの位置に基づいてマスク領域が描画されるが、その色の濃さは、マスク空間の深さ(すなわち視点から対応するキャラクタオブジェクトまでの距離)に応じて決定される。図34の例では、マスク空間の深さが大きいほどマスク領域の色の濃さが濃くなっている。マスク領域の色の濃さのレベルの段階数は任意である。なお、図12や図14のマスクデータにおけるマスク領域の色の濃さが透過率を表しているのに対して、図34のマスクデータにおけるマスク領域の色の濃さはマスク空間の深さを表している。また、図34のマスクデータにおけるマスク領域の大きさも同時に変化させることによって、図17Bおよび図17Cに準じた画像の表現を行わせることができる。すなわち、マスク空間の深さが大きくなるほど、マスク領域を小さく描画する。こうすることで、より高度な画像表現が可能となる。なお、特にこれらを区別する必要がある場合には、図12や図14のような透過率を規定するマスクデータをカラーマスクデータと称し、図34のようなマスク空間の深さを規定するマスクデータをデプスマスクデータと称するものとする。   FIG. 34 shows an example of mask data generated in the third embodiment. In the mask generation process according to the third embodiment, a mask area is drawn based on the position of each character object projected onto the screen plane as in the first embodiment. It is determined in accordance with the depth (that is, the distance from the viewpoint to the corresponding character object). In the example of FIG. 34, the darkness of the color of the mask region increases as the depth of the mask space increases. The number of steps of the darkness level of the mask area is arbitrary. Note that the color density of the mask area in the mask data of FIGS. 12 and 14 represents the transmittance, whereas the color density of the mask area in the mask data of FIG. 34 represents the depth of the mask space. Represents. Also, by changing the size of the mask area in the mask data of FIG. 34 at the same time, it is possible to express an image according to FIGS. 17B and 17C. That is, the mask area is drawn smaller as the depth of the mask space increases. By doing so, more advanced image representation is possible. In particular, when it is necessary to distinguish between them, the mask data defining the transmittance as shown in FIGS. 12 and 14 is referred to as color mask data, and the mask defining the depth of the mask space as shown in FIG. The data is referred to as depth mask data.

描画処理において、各フィールドオブジェクトOB1、OB2が、図34のようなマスクデータを用いて描画される。具体的には、各フィールドオブジェクトOB1、OB2のうち、いずれかのマスク空間と交わる部分については透過率が100%(すなわちマスク空間と交わる部分がカラーバッファ64に描画されない)となり、それ以外の部分の透過率が0%(すなわち通常表示)となるように、各フィールドオブジェクトOB1、OB2が描画される。その結果、図35のようなゲーム画像が得られる。図35のゲーム画像では、キャラクタオブジェクトCH3が表示され、かつフィールドオブジェクトOB1、OB2のうち、キャラクタオブジェクトCH1、CH2の背後に当たる部分が不必要に欠けていない。   In the drawing process, the field objects OB1 and OB2 are drawn using mask data as shown in FIG. Specifically, in each of the field objects OB1 and OB2, the portion that intersects one of the mask spaces has a transmittance of 100% (that is, the portion that intersects the mask space is not drawn in the color buffer 64), and the other portions Each of the field objects OB1 and OB2 is drawn so that the transmittance of the image becomes 0% (that is, normal display). As a result, a game image as shown in FIG. 35 is obtained. In the game image of FIG. 35, the character object CH3 is displayed, and portions of the field objects OB1 and OB2 that are behind the character objects CH1 and CH2 are not unnecessarily lacking.

以下、第3の実施形態におけるマスク生成処理の詳細を図36のフローチャートを参照して説明する。   Details of the mask generation processing in the third embodiment will be described below with reference to the flowchart of FIG.

ステップS24では、第1および第2の実施形態と同様に、各キャラクタオブジェクトがスクリーン平面に投影される。ステップS48では、スクリーン平面における各キャラクタオブジェクトの位置に基づいて、各マスク領域の位置が決定される。ステップS50では、視点から対応する各キャラクタオブジェクトまでの距離に応じて、マスクデータにおける各マスク領域の色の濃さが決定される。ステップS52では、ステップS48とステップS50の決定結果に基づいて、マスク領域を描画する。ステップS54では、ステップS52で得られた画像データを、マスクデータとしてメインメモリ28に格納する。   In step S24, as in the first and second embodiments, each character object is projected on the screen plane. In step S48, the position of each mask area is determined based on the position of each character object on the screen plane. In step S50, the color density of each mask area in the mask data is determined according to the distance from the viewpoint to each corresponding character object. In step S52, a mask area is drawn based on the determination results in steps S48 and S50. In step S54, the image data obtained in step S52 is stored in the main memory 28 as mask data.

次に、第3の実施形態における描画処理の詳細を図37のフローチャートを参照して説明する。なお、図37において、図9と異なる点は、ステップS34が無い点と、ステップS36がステップS56に変更された点のみである。よって、ここではステップS56以外のステップについては説明を省略する。   Next, details of the drawing process in the third embodiment will be described with reference to the flowchart of FIG. 37 differs from FIG. 9 only in that step S34 is not provided and step S36 is changed to step S56. Therefore, description of steps other than step S56 is omitted here.

ステップS32では描画対象オブジェクトがキャラクタオブジェクトかどうか判断され、キャラクタオブジェクトでない場合(すなわちフィールドオブジェクトである場合)はステップS56に進む。ステップS56では、描画対象オブジェクト(ここではフィールドオブジェクト)が、マスク生成処理によってメインメモリ28に格納されたマスクデータ86を用いて描画される。具体的には、描画対象オブジェクトのうち、この描画対象オブジェクトをスクリーン平面に投影したときにマスク領域に当たる部分であってなおかつマスクデータが示すマスク空間の深さよりも視点からの距離が小さい部分については透過率が100%(すなわちカラーバッファ64に描画されない)となり、それ以外の部分については透過率が0%(すなわち通常表示)となるように、描画対象オブジェクトが描画される。   In step S32, it is determined whether the drawing target object is a character object. If it is not a character object (that is, a field object), the process proceeds to step S56. In step S56, the drawing target object (here, the field object) is drawn using the mask data 86 stored in the main memory 28 by the mask generation process. Specifically, of the drawing target object, a portion that hits the mask area when the drawing target object is projected onto the screen plane and that is smaller in distance from the viewpoint than the depth of the mask space indicated by the mask data The drawing target object is drawn so that the transmittance is 100% (that is, not drawn in the color buffer 64) and the transmittance is 0% (that is, normal display) for the other portions.

なお、本実施形態ではデプスマスクデータだけを用いてフィールドオブジェクトを描画するとしたが、デプスマスクデータに加えてカラーマスクデータも利用することにより、図16のように、フィールドオブジェクトのうち、マスク領域の境界に当たる部分の透過率を徐々に変化させることも可能である。具体的には、マスク生成処理において、図34のデプスマスクデータに加えて、例えば図38のようなカラーマスクデータを生成し、これら2つのマスクデータをメインメモリ28に格納する。そして描画処理において、デプスマスクデータに基づいて、描画対象オブジェクトのうちのマスク空間に含まれる部分とその他の部分とを区別し、マスク空間に含まれる部分については、カラーマスクデータに従ってその部分の透過率(アルファ値)を変更するようにすればよい。   In the present embodiment, the field object is drawn using only the depth mask data. However, by using the color mask data in addition to the depth mask data, as shown in FIG. It is also possible to gradually change the transmittance of the portion that hits the boundary. Specifically, in the mask generation process, in addition to the depth mask data of FIG. 34, for example, color mask data as shown in FIG. 38 is generated, and these two mask data are stored in the main memory 28. Then, in the drawing process, based on the depth mask data, the part included in the mask space of the drawing target object is distinguished from the other part, and the part included in the mask space is transmitted through that part according to the color mask data. What is necessary is just to change a rate (alpha value).

なお、本実施形態では図34のように、デプスマスクデータにおいて、各マスク領域の色の濃さを均一としたが、本発明はこれに限らない。例えば、仮想ゲーム空間に、図39のようにキャラクタオブジェクトCH1、CH2とフィールドオブジェクトOB1、OB2が配置されている場合に、図40のようなデプスマスクデータを生成することが考えられる。図40では、それぞれの中心から離れるほど色が薄くなるように各マスク領域が描画されている。このようなデプスマスクデータを用いて図39のフィールドオブジェクトOB1、OB2を描画すると、図41のようなゲーム画像が得られる。図35のゲーム画像からは、ユーザは、キャラクタオブジェクトCH3がフィールドオブジェクトOB2の手前に位置するのか奥に位置するのかを判断することはできないが、図41のゲーム画像によれば、キャラクタオブジェクトCH2がフィールドオブジェクトOB2の奥に位置していることを、ユーザは明確に把握することができる。   In this embodiment, as shown in FIG. 34, in the depth mask data, the darkness of the color of each mask area is made uniform, but the present invention is not limited to this. For example, when character objects CH1 and CH2 and field objects OB1 and OB2 are arranged in the virtual game space as shown in FIG. 39, it is possible to generate depth mask data as shown in FIG. In FIG. 40, each mask region is drawn so that the color becomes lighter as the distance from each center increases. When the field objects OB1 and OB2 in FIG. 39 are drawn using such depth mask data, a game image as shown in FIG. 41 is obtained. From the game image of FIG. 35, the user cannot determine whether the character object CH3 is positioned in front of or behind the field object OB2. However, according to the game image of FIG. The user can clearly grasp that the field object OB2 is located behind the field object OB2.

本発明の一実施形態に係るゲームシステムの外観図1 is an external view of a game system according to an embodiment of the present invention. ゲーム機本体の内部構成図Internal configuration diagram of game console メインメモリ28のメモリマップの一部Part of the memory map of the main memory 28 メインメモリ28のメモリマップの一部Part of the memory map of the main memory 28 第1の実施形態に係るゲーム画像例Game image example according to the first embodiment 第1の実施形態に係るゲーム画像例Game image example according to the first embodiment メイン処理の流れを示すフローチャートFlow chart showing the flow of main processing マスク生成処理の流れを示すフローチャートFlow chart showing the flow of mask generation processing 描画処理の流れを示すフローチャートFlow chart showing the flow of drawing processing 仮想ゲーム空間におけるオブジェクトの配置例Example of object placement in virtual game space マスクデータ生成処理においてスクリーン平面に投影されたキャラクタオブジェクトを示す図The figure which shows the character object projected on the screen plane in mask data generation processing マスクデータ生成処理において生成されるマスクデータの例Example of mask data generated in mask data generation processing マスクデータを用いてフィールドオブジェクトを描画した結果を示す図The figure which shows the result of drawing a field object using mask data マスクデータ生成処理において生成されるマスクデータの例Example of mask data generated in mask data generation processing マスクデータを用いてフィールドオブジェクトを描画した結果を示す図The figure which shows the result of drawing a field object using mask data 第1の実施形態に係るゲーム画像例Game image example according to the first embodiment 第1の実施形態に係るゲーム画像例Game image example according to the first embodiment 第1の実施形態に係るゲーム画像例Game image example according to the first embodiment 第1の実施形態に係るゲーム画像例Game image example according to the first embodiment 第1の実施形態に係るゲーム画像例Game image example according to the first embodiment マスクデータ生成処理において生成されるマスクデータの例Example of mask data generated in mask data generation processing 複数のキャラクタオブジェクトが表示される場合のゲーム画像例Example game image when multiple character objects are displayed 仮想ゲーム空間におけるオブジェクトの配置例Example of object placement in virtual game space ゲーム画像例Game image example ゲーム画像例Game image example 仮想ゲーム空間におけるオブジェクトの配置例Example of object placement in virtual game space 第2の実施形態に係るゲーム画像例Game image example according to the second embodiment 第2の実施形態に係るゲーム画像例Game image example according to the second embodiment 第2の実施形態に係るメインメモリ28のメモリマップの一部Part of the memory map of the main memory 28 according to the second embodiment 第2の実施形態に係る描画処理の流れを示すフローチャートThe flowchart which shows the flow of the drawing process which concerns on 2nd Embodiment. 基準位置の設定例を示す図Diagram showing an example of setting the reference position 第2の実施形態の変形例に係るメイン処理の流れを示すフローチャートThe flowchart which shows the flow of the main process which concerns on the modification of 2nd Embodiment. 仮想ゲーム空間におけるオブジェクトの配置例Example of object placement in virtual game space 第3の実施形態の原理を示す図The figure which shows the principle of 3rd Embodiment マスク空間を説明するための図Diagram for explaining the mask space 第3の実施形態において生成されるデプスマスクデータの例Example of depth mask data generated in the third embodiment 第3の実施形態に係るゲーム画像例Game image example according to the third embodiment 第3の実施形態に係るマスク生成処理の流れを示すフローチャートThe flowchart which shows the flow of the mask production | generation process which concerns on 3rd Embodiment. 第3の実施形態に係る描画処理の流れを示すフローチャートThe flowchart which shows the flow of the drawing process which concerns on 3rd Embodiment. 第3の実施形態において生成されるカラーマスクデータの例Example of color mask data generated in the third embodiment 仮想ゲーム空間におけるオブジェクトの配置例Example of object placement in virtual game space 第3の実施形態において生成されるデプスマスクデータの例Example of depth mask data generated in the third embodiment 第3の実施形態に係るゲーム画像例Game image example according to the third embodiment 従来技術に係るゲーム画像例Game image example according to the prior art 従来技術に係るゲーム画像例Game image example according to the prior art

符号の説明Explanation of symbols

10 ゲームシステム
12 モニタ
14 ゲーム機本体
16 光ディスク
18 メモリカード
20 コントローラ
22 スピーカ
24 CPU
26 GPU
28 メインメモリ
30 DSP
32 ARAM
34 メモリコントローラ
36 コントローラI/F
38 ビデオI/F
40 外部メモリI/F
42 オーディオI/F
44 ディスクI/F
46 ディスクドライブ
DESCRIPTION OF SYMBOLS 10 Game system 12 Monitor 14 Game machine main body 16 Optical disk 18 Memory card 20 Controller 22 Speaker 24 CPU
26 GPU
28 Main memory 30 DSP
32 ARAM
34 Memory controller 36 Controller I / F
38 Video I / F
40 External memory I / F
42 Audio I / F
44 Disc I / F
46 disk drives

Claims (2)

三次元の仮想ゲーム空間における1以上の第1オブジェクトと1以上の第2オブジェクトを当該仮想ゲーム空間に設定された視点に基づいて透視投影変換を行うことにより、表示画面に表示するためのゲーム画像を描画用バッファ領域に描画する処理をゲーム装置のコンピュータに実行させる画像処理プログラムであって、
前記コンピュータに、
前記三次元の仮想ゲーム空間に第1オブジェクトを配置するための第1三次元座標と第2オブジェクトを配置するための第2三次元配置座標を決定する配置位置決定ステップ、
前記第1三次元配置座標を前記視点に基づいて透視投影変換することにより、前記表示画面上の二次元座標を算出する算出ステップ、
前記表示画面上の二次元座標に対応する描画用バッファ領域内の位置に所定形状のマスク画像を描画した一画面分のマスクデータを生成するマスクデータ生成ステップ、
前記第1三次元座標に配置された前記第1オブジェクトを透視投影変換して描画用バッファ領域に描画するとき、前記マスクデータを参照することなく、当該第1オブジェクトを当該描画用バッファ領域に描画する第1オブジェクト描画ステップ、および
前記第2三次元座標に配置された前記第2オブジェクトを透視投影変換して描画用バッファ領域に描画するとき、前記マスクデータを参照することにより、前記マスク画像と重なっている部分における当該第2オブジェクトの透過率を当該マスク画像と重なっていない部分に比べて変化させて、当該第2オブジェクトを描画する第2オブジェクト描画ステップ、
を実行させる画像処理プログラム。
A game image for displaying one or more first objects and one or more second objects in a three-dimensional virtual game space on a display screen by performing perspective projection conversion based on a viewpoint set in the virtual game space. Is an image processing program for causing a computer of a game device to execute a process of drawing in a drawing buffer area,
In the computer,
An arrangement position determining step for determining a first three-dimensional coordinate for arranging the first object and a second three-dimensional arrangement coordinate for arranging the second object in the three-dimensional virtual game space;
A calculation step of calculating two-dimensional coordinates on the display screen by performing perspective projection conversion of the first three-dimensional arrangement coordinates based on the viewpoint;
A mask data generation step of generating mask data for one screen in which a mask image of a predetermined shape is drawn at a position in the drawing buffer area corresponding to the two-dimensional coordinates on the display screen;
Drawing the first object in the drawing buffer area without referring to the mask data when the first object placed at the first three-dimensional coordinates is perspective-projected and drawn in the drawing buffer area A first object drawing step, and when the second object arranged at the second three-dimensional coordinates is perspective-projected and drawn in the drawing buffer area, by referring to the mask data, A second object drawing step of drawing the second object by changing the transmittance of the second object in the overlapping portion as compared with the portion not overlapping the mask image;
An image processing program for executing
前記マスク画像は中心から周辺に向けて色濃度が薄く又は濃くなる画像であり、
前記第2オブジェクト描画ステップは、前記マスク画像と前記第2オブジェクトとが重なる部分において前記マスク画像の色濃度に応じて前記第2オブジェクトの透過率が変化するように当該第2オブジェクトを描画する、請求項1に記載の画像処理プログラム。
The mask image is an image in which the color density becomes lighter or darker from the center toward the periphery,
The second object drawing step draws the second object so that the transmittance of the second object changes according to the color density of the mask image in a portion where the mask image and the second object overlap. The image processing program according to claim 1.
JP2006273317A 2006-10-04 2006-10-04 Game device and image processing program Active JP4343207B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006273317A JP4343207B2 (en) 2006-10-04 2006-10-04 Game device and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006273317A JP4343207B2 (en) 2006-10-04 2006-10-04 Game device and image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004253143A Division JP3877077B2 (en) 2004-08-31 2004-08-31 Game device and image processing program

Publications (2)

Publication Number Publication Date
JP2006346507A true JP2006346507A (en) 2006-12-28
JP4343207B2 JP4343207B2 (en) 2009-10-14

Family

ID=37642903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006273317A Active JP4343207B2 (en) 2006-10-04 2006-10-04 Game device and image processing program

Country Status (1)

Country Link
JP (1) JP4343207B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221409A (en) * 2011-04-13 2012-11-12 Nintendo Co Ltd Information processing program, information processor, information processing method and information processing system
JP2016093362A (en) * 2014-11-14 2016-05-26 株式会社コロプラ Control program of virtual camera within game space, and game system
JP6270973B1 (en) * 2016-12-13 2018-01-31 株式会社コロプラ GAME METHOD AND GAME PROGRAM
CN109035374A (en) * 2018-07-13 2018-12-18 青岛海信电器股份有限公司 The implementation method and device of color gradient animation effect
JP2020116296A (en) * 2019-01-28 2020-08-06 株式会社コーエーテクモゲームス Game program, recording medium, and game processing method
CN112807684A (en) * 2020-12-31 2021-05-18 上海米哈游天命科技有限公司 Obstruction information acquisition method, device, equipment and storage medium
CN112843730A (en) * 2020-12-31 2021-05-28 上海米哈游天命科技有限公司 Shooting method, device, equipment and storage medium
CN113499584A (en) * 2021-08-02 2021-10-15 网易(杭州)网络有限公司 Game animation control method and device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221409A (en) * 2011-04-13 2012-11-12 Nintendo Co Ltd Information processing program, information processor, information processing method and information processing system
JP2016093362A (en) * 2014-11-14 2016-05-26 株式会社コロプラ Control program of virtual camera within game space, and game system
JP6270973B1 (en) * 2016-12-13 2018-01-31 株式会社コロプラ GAME METHOD AND GAME PROGRAM
JP2018097614A (en) * 2016-12-13 2018-06-21 株式会社コロプラ Game method and game program
CN109035374A (en) * 2018-07-13 2018-12-18 青岛海信电器股份有限公司 The implementation method and device of color gradient animation effect
JP2020116296A (en) * 2019-01-28 2020-08-06 株式会社コーエーテクモゲームス Game program, recording medium, and game processing method
JP7304701B2 (en) 2019-01-28 2023-07-07 株式会社コーエーテクモゲームス Game program, recording medium, game processing method
CN112807684A (en) * 2020-12-31 2021-05-18 上海米哈游天命科技有限公司 Obstruction information acquisition method, device, equipment and storage medium
CN112843730A (en) * 2020-12-31 2021-05-28 上海米哈游天命科技有限公司 Shooting method, device, equipment and storage medium
CN113499584A (en) * 2021-08-02 2021-10-15 网易(杭州)网络有限公司 Game animation control method and device

Also Published As

Publication number Publication date
JP4343207B2 (en) 2009-10-14

Similar Documents

Publication Publication Date Title
JP3877077B2 (en) Game device and image processing program
JP3668019B2 (en) Recording medium, image processing apparatus, and image processing method
JP4343207B2 (en) Game device and image processing program
JP3725524B2 (en) Method for generating computer display image and computer processing system and graphics processor for generating image data
US8072458B2 (en) Storage medium having game program stored thereon and game apparatus
JP3625184B2 (en) 3D image processing method and apparatus for game, readable recording medium recording game 3D image processing program, and video game apparatus
EP1126416B1 (en) Randomly animating a flame in an image
JP3352982B2 (en) Rendering method and device, game device, and computer-readable recording medium for storing program for rendering three-dimensional model
US6717575B2 (en) Image drawing method, image drawing apparatus, recording medium, and program
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
US20020004421A1 (en) Computer readable recording medium recording a program for causing a light source to be displayed on a game screen and the program, and game screen display method and apparatus
JP4267646B2 (en) Image generating apparatus, image generating method, and program
JP2004280596A (en) Shadow volume generation program and game device
JP3639286B2 (en) GAME PROGRAM AND GAME DEVICE
JP4995054B2 (en) GAME PROGRAM, RECORDING MEDIUM CONTAINING THE GAME PROGRAM, AND COMPUTER
JP4447000B2 (en) Image generation system, program, and information storage medium
JP5007633B2 (en) Image processing program, computer-readable recording medium storing the program, image processing apparatus, and image processing method
JP2009140135A5 (en)
JP2009301309A (en) Image processing program, image processor, and image control method
JP2009205522A (en) Program, information storage medium, and information conversion system
JP3635037B2 (en) Image drawing method and program used therefor
JP5146054B2 (en) Generation control program of sound generated from sound source in virtual space
JP2006318196A (en) Program, information storage medium and image generation system
JP5464630B2 (en) Image display device
JP4417169B2 (en) Enlarged image display system reflecting character movement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061020

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20061026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20061026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090610

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090708

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120717

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4343207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120717

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120717

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120717

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120717

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130717

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130717

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130717

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130717

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250