JP2001184515A - Image forming system and an information storage medium - Google Patents

Image forming system and an information storage medium

Info

Publication number
JP2001184515A
JP2001184515A JP36608799A JP36608799A JP2001184515A JP 2001184515 A JP2001184515 A JP 2001184515A JP 36608799 A JP36608799 A JP 36608799A JP 36608799 A JP36608799 A JP 36608799A JP 2001184515 A JP2001184515 A JP 2001184515A
Authority
JP
Japan
Prior art keywords
moving object
depth value
image
character
information storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP36608799A
Other languages
Japanese (ja)
Inventor
Masashi Kobayashi
正史 小林
Takeshi Arita
健 有田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP36608799A priority Critical patent/JP2001184515A/en
Publication of JP2001184515A publication Critical patent/JP2001184515A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image forming system and an information storage medium, with which a problem in the plotting quality of an object can be solved with a little processing load. SOLUTION: On the basis of a depth value Z1 set to each of pixels in two- dimensional(2D) images (OB1-OB5, background) to become the moving field of a character and a depth value Z2 of the character, the hidden-surface removal of the character is performed. The depth value Z2 is found on the basis of the position, direction and moving history of the character or position at the feet of the character. The 2D image is divided into plural areas on the basis of the lower borderline of the 2D objects OB1-OB5, a plotting priority value for each of areas is determined on the basis of the position relation of lower borderlines, and the determined plotting priority value for each of areas is determined as the plotting priority value of a pixel inside each of areas. On the basis of the plotting priority value set to each of pixels, the depth value Z2 of the character is found. On the basis of a line, with which the lower borderline is extended just for the maximum width of the character, the 2D image is divided into plural areas.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像生成システム
及び情報記憶媒体に関する。
[0001] The present invention relates to an image generation system and an information storage medium.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】従来よ
り、複数のポリゴン(プリミティブ面)により構成され
る3次元オブジェクトを用意し、これらの3次元オブジ
ェクトが配置されるオブジェクト空間での画像を生成す
る画像生成システムが知られている。この画像生成シス
テムによれば、オブジェクト空間内の任意の視点から見
える画像を生成でき、プレーヤの仮想現実感を高めるこ
とができるため、人気を博している。
2. Description of the Related Art Conventionally, a three-dimensional object composed of a plurality of polygons (primitive surfaces) is prepared, and an image in an object space in which these three-dimensional objects are arranged is generated. Image generation systems are known. According to this image generation system, an image that can be viewed from an arbitrary viewpoint in the object space can be generated, and the virtual reality of the player can be enhanced.

【0003】しかしながら、この画像生成システムで
は、キャラクタや建物などの3次元オブジェクトが平面
的なポリゴンの組み合わせにより表現されるため、得ら
れる画像が人工的であり、今一つ現実味に欠けるという
問題がある。そして、この問題を解決するために、3次
元オブジェクトのポリゴン数を増やすと、画像生成シス
テムの処理負担が過大になったり、3次元オブジェクト
のデザインに多くの労力と時間を要するという問題を招
く。
However, in this image generation system, since a three-dimensional object such as a character or a building is represented by a combination of two-dimensional polygons, the obtained image is artificial and lacks reality. If the number of polygons of the three-dimensional object is increased to solve this problem, the processing load of the image generation system becomes excessive, and the design of the three-dimensional object requires much labor and time.

【0004】一方、従来より、3次元ではなく2次元の
オブジェクトで表示物を表現して、画像を生成する画像
生成システムも知られている。この画像生成システムに
よれば、例えば建物などの画像として、カメラなどで撮
影した実写画像を用いることなどが可能になる。従っ
て、ポリゴンで構成される3次元オブジェクトを用いる
場合に比べて、少ない処理負担で、より自然で現実味の
ある画像を生成できる。
On the other hand, an image generation system that generates an image by expressing a display object with a two-dimensional object instead of a three-dimensional object is conventionally known. According to this image generation system, it is possible to use, for example, a real image captured by a camera or the like as an image of a building or the like. Therefore, a more natural and realistic image can be generated with a smaller processing load than in the case of using a three-dimensional object composed of polygons.

【0005】ところが、この画像生成システムでは、オ
ブジェクトの描画プライオリティの問題について解決す
る必要がある。例えばキャラクタなどの移動オブジェク
トを画面上で移動させる場合には、この移動オブジェク
トが建物などの2次元オブジェクトにより適正に陰面消
去されるように、工夫を施す必要がある。
However, in this image generation system, it is necessary to solve the problem of the drawing priority of the object. For example, when a moving object such as a character is moved on the screen, it is necessary to take measures so that the moving object is properly erased by a two-dimensional object such as a building.

【0006】この場合、このような描画プライオリティ
の問題を解決する1つの手法として、2次元オブジェク
トの描画順序を制御する手法を考えることができる。例
えば、建物の影にキャラクタが半身になって隠れている
様子を表現する場合には、まず、キャラクタを描画し、
その後に建物を描画するというように、描画順序を制御
する。
In this case, as one method for solving such a problem of the drawing priority, a method of controlling the drawing order of two-dimensional objects can be considered. For example, if you want to represent a situation where the character is half-hiding behind a building, draw the character first,
After that, the drawing order is controlled so that the building is drawn.

【0007】しかしながら、この手法では、2次元オブ
ジェクト間の重なり合い部分では、本来は1回で済むは
ずの描画が複数回行われることになり、処理に無駄があ
る。また、この手法でオブジェクトの描画プライオリテ
ィを細かく表現しようとすると、画像データの量が膨大
化するという問題点もある。
[0007] However, in this method, in the overlapping portion between the two-dimensional objects, the drawing which should be performed only once is performed a plurality of times, and the processing is useless. Further, if the rendering priority of the object is to be expressed in detail by this method, there is a problem that the amount of image data becomes enormous.

【0008】本発明は、以上のような課題に鑑みてなさ
れたものであり、その目的とするところは、オブジェク
トの描画プライオリティの問題を少ない処理負担で解決
できる画像生成システム及び情報記憶媒体を提供するこ
とにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to provide an image generation system and an information storage medium which can solve the problem of drawing priority of an object with a small processing load. Is to do.

【0009】[0009]

【課題を解決するための手段】上記課題を解決するため
に、本発明は、画像を生成するための画像生成システム
であって、移動オブジェクトの第2の奥行き値を所与の
処理ルーチンにより求める奥行き値演算手段と、移動オ
ブジェクトの移動フィールドとなる2次元画像の各ピク
セルに対して設定された第1の奥行き値と、前記奥行き
値演算手段により求められた移動オブジェクトの第2の
奥行き値とに基づいて、移動オブジェクトの陰面消去を
行う手段とを含むことを特徴とする。また本発明に係る
情報記憶媒体は、コンピュータにより使用可能な情報記
憶媒体であって、上記手段を実行するためのプログラム
を含むことを特徴とする。また本発明に係るプログラム
は、コンピュータにより使用可能なプログラム(搬送波
に具現化されるプログラムを含む)であって、上記手段
を実行するための処理ルーチンを含むことを特徴とす
る。
According to one aspect of the present invention, there is provided an image generating system for generating an image, wherein a second depth value of a moving object is obtained by a given processing routine. Depth value calculation means, a first depth value set for each pixel of the two-dimensional image serving as a moving field of the moving object, and a second depth value of the moving object obtained by the depth value calculation means. And means for erasing the hidden surface of the moving object on the basis of Further, an information storage medium according to the present invention is an information storage medium that can be used by a computer, and includes a program for executing the above means. Further, the program according to the present invention is a program usable by a computer (including a program embodied in a carrier wave), and includes a processing routine for executing the above means.

【0010】本発明によれば、キャラクタなどの移動オ
ブジェクトの第2の奥行き値が、所与の処理ルーチンに
基づき求められる。そして、この求められた第2の奥行
き値と、2次元画像(画面、ワールドマップ)の各ピク
セルに設定された第1の奥行き値に基づき、移動オブジ
ェクトの陰面消去が行われる。これにより、移動オブジ
ェクトの移動フィールドとなる2次元画像を構成する2
次元オブジェクトの間に、移動オブジェクトを割り込ま
せることが可能になり、オブジェクトの描画プライオリ
ティの問題を解決できる。即ち、移動オブジェクトの一
部だけが表示され、他の部分が2次元オブジェクトに隠
れて非表示になるような画像を生成できるようになる。
これにより、2次元の画像であるのにもかかわらず、あ
たかも奥行きがあるかのようにプレーヤを錯覚させるこ
とができる。
According to the present invention, a second depth value of a moving object such as a character is determined based on a given processing routine. Then, the hidden surface of the moving object is erased based on the obtained second depth value and the first depth value set for each pixel of the two-dimensional image (screen, world map). As a result, a two-dimensional image constituting a moving field of the moving object 2
The moving object can be interrupted between the dimensional objects, and the problem of the drawing priority of the object can be solved. That is, it is possible to generate an image in which only a part of the moving object is displayed and the other part is hidden by being hidden by the two-dimensional object.
This makes it possible to give the player the illusion of having a depth, even though the image is a two-dimensional image.

【0011】そして本発明によれば、オブジェクトの描
画順序を制御することなく、描画プライオリティの問題
を解決できる。従って、2次元画像の描画を1回で済ま
せることが可能になり、処理の無駄を省ける。
According to the present invention, the problem of the drawing priority can be solved without controlling the drawing order of the objects. Therefore, it is possible to draw the two-dimensional image only once, and it is possible to eliminate waste of processing.

【0012】なお、移動オブジェクトは2次元のオブジ
ェクトであることが特に望ましいが、3次元のオブジェ
クトであってもよい。
The moving object is particularly preferably a two-dimensional object, but may be a three-dimensional object.

【0013】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記奥行き値演算手段が、
移動オブジェクトの位置、方向又は移動履歴に基づい
て、移動オブジェクトの第2の奥行き値を求めることを
特徴とする。このようにすれば、移動オブジェクトの位
置、方向、移動履歴(移動経路等)に応じた最適な第2
の奥行き値を移動オブジェクトに対して与えることが可
能になる。
Further, according to the image generation system, the information storage medium and the program according to the present invention, the depth value calculating means includes:
A second depth value of the moving object is obtained based on a position, a direction, or a movement history of the moving object. By doing so, the optimal second position corresponding to the position, direction, and movement history (movement route, etc.) of the moving object
Can be given to the moving object.

【0014】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記奥行き値演算手段が、
移動オブジェクトの最下部に設定された代表点の位置に
基づいて、移動オブジェクトの全てのピクセルについて
の第2の奥行き値を求めることを特徴とする。移動オブ
ジェクトの最下部に設定された代表点は、移動オブジェ
クトの中で最も手前にある点であると考えられる。従っ
て、この最下部の代表点の位置に基づき、移動オブジェ
クトの全てのピクセルについての第2の奥行き値を求め
るようにすれば、移動オブジェクトの最適な第2の奥行
き値を、少ない処理負担で求めることができる。
[0014] In the image generation system, the information storage medium and the program according to the present invention, the depth value calculation means may include:
A second depth value is obtained for all pixels of the moving object based on the position of the representative point set at the bottom of the moving object. The representative point set at the bottom of the moving object is considered to be the point closest to the front of the moving object. Therefore, if the second depth values for all the pixels of the moving object are obtained based on the position of the lowermost representative point, the optimum second depth value of the moving object is obtained with a small processing load. be able to.

【0015】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記奥行き値演算手段が、
移動オブジェクトの移動フィールドとなる2次元画像の
各ピクセルに対して設定された描画プライオリティ値に
基づいて、移動オブジェクトの第2の奥行き値を求める
ことを特徴とする。このように各ピクセルに対して描画
プライオリティ値を予め設定しておけば、移動オブジェ
クトの第2の奥行き値を、簡易で負担の少ない処理で求
めることができるようになる。
Further, in the image generation system, the information storage medium and the program according to the present invention, the depth value calculation means may include:
A second depth value of the moving object is obtained based on a drawing priority value set for each pixel of the two-dimensional image serving as a moving field of the moving object. By setting the drawing priority value for each pixel in advance, the second depth value of the moving object can be obtained by a simple and low-load process.

【0016】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、2次元画像を構成する複数
の2次元オブジェクトの下側境界線に基づいて、2次元
画像が複数の領域に分割され、下側境界線間の位置関係
に基づいて、各下側境界線に対応する各領域の描画プラ
イオリティ値が決定され、決定された各領域の描画プラ
イオリティ値が、各領域のピクセルの描画プライオリテ
ィ値として設定されることを特徴とする。このようにす
れば、2次元画像の各ピクセルに設定されるべき描画プ
ライオリティ値を簡易な処理で求めることができ、移動
オブジェクトの適正な陰面消去を実現できる。
Further, according to the image generation system, the information storage medium and the program according to the present invention, the two-dimensional image is divided into a plurality of regions based on a lower boundary line of a plurality of two-dimensional objects constituting the two-dimensional image. Based on the positional relationship between the lower boundary lines, the drawing priority value of each region corresponding to each lower boundary line is determined, and the determined drawing priority value of each region is used as the drawing priority value of the pixel of each region. It is characterized by being set. In this way, the drawing priority value to be set for each pixel of the two-dimensional image can be obtained by simple processing, and appropriate hidden surface elimination of the moving object can be realized.

【0017】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、2次元オブジェクトの下側
境界線を所与の距離だけ延長した線に基づいて、2次元
画像が複数の領域に分割されることを特徴とする。この
ようにすれば、移動オブジェクトが2次元オブジェクト
の左又は右から移動してきた場合などに、移動オブジェ
クトを適正に陰面消去できるようになる。
Further, the image generation system, the information storage medium and the program according to the present invention divide a two-dimensional image into a plurality of regions based on a line obtained by extending a lower boundary of a two-dimensional object by a predetermined distance. It is characterized by that. In this way, when the moving object moves from the left or right of the two-dimensional object, the moving object can be properly erased.

【0018】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記所与の距離が、移動オ
ブジェクトの大きさに基づき特定される距離であること
を特徴とする。このようにすれば、種々の大きさ(幅)
の移動オブジェクトに対する適正な陰面消去が可能にな
る。
Further, the image generation system, the information storage medium and the program according to the present invention are characterized in that the given distance is a distance specified based on the size of a moving object. If it does in this way, various size (width)
Appropriate hidden surface elimination for the moving object can be performed.

【0019】[0019]

【発明の実施の形態】以下、本発明の好適な実施形態に
ついて図面を用いて説明する。
Preferred embodiments of the present invention will be described below with reference to the drawings.

【0020】1.構成 図1に、本実施形態のブロック図の一例を示す。なお同
図において本実施形態は、少なくとも処理部100を含
めばよく(或いは処理部100と記憶部170、或いは
処理部100と記憶部170と情報記憶媒体180を含
めばよく)、それ以外のブロック(例えば操作部16
0、表示部190、音出力部192、携帯型情報記憶装
置194、通信部196)については、任意の構成要素
とすることができる。
1. Configuration FIG. 1 shows an example of a block diagram of the present embodiment. In the figure, the present embodiment only needs to include at least the processing unit 100 (or may include the processing unit 100 and the storage unit 170, or the processing unit 100 and the storage unit 170 and the information storage medium 180), and other blocks. (For example, the operation unit 16
0, the display unit 190, the sound output unit 192, the portable information storage device 194, and the communication unit 196) can be optional components.

【0021】ここで処理部100は、システム全体の制
御、システム内の各ブロックへの命令の指示、ゲーム処
理、画像処理、音処理などの各種の処理を行うものであ
り、その機能は、各種プロセッサ(CPU、DSP
等)、或いはASIC(ゲートアレイ等)などのハード
ウェアや、所与のプログラム(ゲームプログラム)によ
り実現できる。
The processing section 100 performs various processes such as control of the entire system, instruction of each block in the system, game processing, image processing, sound processing, and the like. Processor (CPU, DSP)
Or an ASIC (gate array or the like) or a given program (game program).

【0022】操作部160は、プレーヤが操作データを
入力するためのものであり、その機能は、レバー、ボタ
ン、筺体などのハードウェアにより実現できる。
The operation section 160 is used by a player to input operation data, and its function can be realized by hardware such as a lever, a button, and a housing.

【0023】記憶部170は、処理部100や通信部1
96などのワーク領域となるもので、その機能はRAM
などのハードウェアにより実現できる。
The storage unit 170 stores the processing unit 100 and the communication unit 1
A work area such as 96
It can be realized by hardware such as.

【0024】情報記憶媒体(コンピュータにより使用可
能な記憶媒体)180は、プログラムやデータなどの情
報を格納するものであり、その機能は、光ディスク(C
D、DVD)、光磁気ディスク(MO)、磁気ディス
ク、ハードディスク、磁気テープ、或いはメモリ(RO
M)などのハードウェアにより実現できる。処理部10
0は、この情報記憶媒体180に格納される情報に基づ
いて本発明(本実施形態)の種々の処理を行う。即ち情
報記憶媒体180には、本発明(本実施形態)の手段
(特に処理部100に含まれるブロック)を実行するた
めの情報(プログラム或いはデータ)が格納される。
An information storage medium (storage medium usable by a computer) 180 stores information such as programs and data.
D, DVD), magneto-optical disk (MO), magnetic disk, hard disk, magnetic tape, or memory (RO
M) and the like. Processing unit 10
0 performs various processes of the present invention (the present embodiment) based on the information stored in the information storage medium 180. That is, the information storage medium 180 stores information (program or data) for executing the means (particularly, the blocks included in the processing unit 100) of the present invention (the present embodiment).

【0025】なお、情報記憶媒体180に格納される情
報の一部又は全部は、システムへの電源投入時等に記憶
部170に転送されることになる。また情報記憶媒体1
80に記憶される情報は、本発明の処理を行うためのプ
ログラムコード、画像データ、音データ、表示物の形状
データ、テーブルデータ、リストデータ、本発明の処理
を指示するための情報、その指示に従って処理を行うた
めの情報等の少なくとも1つを含むものである。
A part or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the power to the system is turned on. Information storage medium 1
The information stored in 80 is a program code for performing the processing of the present invention, image data, sound data, shape data of a display object, table data, list data, information for instructing the processing of the present invention, and instructions for the processing. The information includes at least one of information for performing processing according to.

【0026】表示部190は、本実施形態により生成さ
れた画像を出力するものであり、その機能は、CRT、
LCD、或いはHMD(ヘッドマウントディスプレイ)
などのハードウェアにより実現できる。
The display section 190 outputs an image generated according to the present embodiment.
LCD or HMD (Head Mount Display)
It can be realized by hardware such as.

【0027】音出力部192は、本実施形態により生成
された音を出力するものであり、その機能は、スピーカ
などのハードウェアにより実現できる。
The sound output section 192 outputs the sound generated according to the present embodiment, and its function can be realized by hardware such as a speaker.

【0028】携帯型情報記憶装置194は、プレーヤの
個人データやセーブデータなどが記憶されるものであ
り、この携帯型情報記憶装置194としては、メモリカ
ードや携帯型ゲーム装置などを考えることができる。
The portable information storage device 194 stores personal data and save data of the player, and the portable information storage device 194 can be a memory card, a portable game device, or the like. .

【0029】通信部196は、外部(例えばホスト装置
や他の画像生成システム)との間で通信を行うための各
種の制御を行うものであり、その機能は、各種プロセッ
サ、或いは通信用ASICなどのハードウェアや、プロ
グラムなどにより実現できる。
The communication unit 196 performs various controls for communicating with an external device (for example, a host device or another image generation system), and has a function of various processors or an ASIC for communication. Hardware and programs.

【0030】なお本発明(本実施形態)の手段を実行す
るためのプログラム或いはデータは、ホスト装置(サー
バー)が有する情報記憶媒体からネットワーク及び通信
部196を介して情報記憶媒体180に配信するように
してもよい。このようなホスト装置(サーバー)の情報
記憶媒体の使用も本発明の範囲内に含まれる。
A program or data for executing the means of the present invention (this embodiment) is distributed from the information storage medium of the host device (server) to the information storage medium 180 via the network and the communication unit 196. It may be. Use of the information storage medium of such a host device (server) is also included in the scope of the present invention.

【0031】処理部100は、ゲーム処理部110、画
像生成部130、音生成部150を含む。
The processing section 100 includes a game processing section 110, an image generation section 130, and a sound generation section 150.

【0032】ここでゲーム処理部110は、コイン(代
価)の受け付け処理、各種モードの設定処理、ゲームの
進行処理、選択画面の設定処理、オブジェクトの位置や
方向を求める処理、マップオブジェクトを配置する処
理、ヒットチェック処理、ゲーム結果(成果、成績)を
演算する処理、複数のプレーヤが共通のゲーム空間でプ
レイするための処理、或いはゲームオーバー処理などの
種々のゲーム処理を、操作部160からの操作データ
や、携帯型情報記憶装置194からの個人データ、保存
データや、ゲームプログラムなどに基づいて行う。
Here, the game processing unit 110 accepts coins (price), sets various modes, progresses the game, sets a selection screen, obtains the position and direction of an object, and arranges a map object. Various game processes such as a process, a hit check process, a process of calculating a game result (result, a result), a process for a plurality of players to play in a common game space, and a game over process are performed by the operation unit 160. This is performed based on operation data, personal data from the portable information storage device 194, stored data, a game program, and the like.

【0033】画像生成部130は、ゲーム処理部110
からの指示等にしたがってゲーム画像を生成し、表示部
190に出力する。また、音生成部150は、ゲーム処
理部110からの指示等にしたがってBGM、効果音、
音声などのゲーム音を生成し、音出力部192に出力す
る。
The image generation unit 130 is provided with a game processing unit 110
A game image is generated in accordance with an instruction from and the like and output to the display unit 190. In addition, the sound generation unit 150 performs BGM, sound effects,
A game sound such as a voice is generated and output to the sound output unit 192.

【0034】なお、ゲーム処理部110、画像生成部1
30、音生成部150の機能は、その全てをハードウェ
アにより実現してもよいし、その全てをプログラムによ
り実現してもよい。或いは、ハードウェアとプログラム
の両方により実現してもよい。
The game processing unit 110 and the image generation unit 1
30, all of the functions of the sound generation unit 150 may be realized by hardware, or all of them may be realized by a program. Alternatively, it may be realized by both hardware and a program.

【0035】画像生成部130は、奥行き値演算部13
2、描画部140を含む。
The image generation unit 130 includes a depth value calculation unit 13
2. Includes a drawing unit 140.

【0036】奥行き値演算部132は、キャラクタなど
の移動オブジェクト(2次元又は3次元のオブジェク
ト)の奥行き値Z2(移動オブジェクトを他の2次元オ
ブジェクト間に割り込ませるための奥行き値)を、所与
の処理ルーチンにより求める処理を行う。より具体的に
は、移動オブジェクトの位置(例えば移動オブジェクト
の最下部に設定された代表点の位置)、方向又は移動履
歴(例えば移動経路、移動順序)などに基づいて、移動
オブジェクトの奥行き値Z2を求める。
The depth value calculation unit 132 gives a depth value Z2 (a depth value for interrupting the moving object between other two-dimensional objects) of a moving object (a two-dimensional or three-dimensional object) such as a character. The processing required by the processing routine is performed. More specifically, the depth value Z2 of the moving object is determined based on the position of the moving object (for example, the position of the representative point set at the bottom of the moving object), the direction, or the movement history (for example, the moving route, the moving order). Ask for.

【0037】奥行き値演算部132は、描画プライオリ
ティ値取得部134を含む。即ち、本実施形態では、移
動オブジェクトの移動フィールドとなる2次元画像(画
面)の各ピクセルに対して描画プライオリティ値PR
(移動オブジェクトの描画プライオリティを特定するた
めの値)が予め設定されている。そして、描画プライオ
リティ値取得部134は、移動オブジェクトの位置等に
基づいて、この設定された描画プライオリティ値PRを
取得する。そして、この取得された描画プライオリティ
値PRに基づいて、移動オブジェクトの全てのピクセル
についての奥行き値Z2が求められる。
The depth value calculation section 132 includes a drawing priority value acquisition section 134. That is, in the present embodiment, the drawing priority value PR is set for each pixel of the two-dimensional image (screen) serving as a moving field of the moving object.
(A value for specifying the drawing priority of the moving object) is set in advance. Then, the drawing priority value acquiring unit 134 acquires the set drawing priority value PR based on the position of the moving object and the like. Then, based on the acquired drawing priority value PR, a depth value Z2 for all pixels of the moving object is obtained.

【0038】描画部140はオブジェクトの描画処理を
行う。より具体的には、描画部140は陰面消去部14
2を含む。そして、陰面消去部142は、キャラクタな
どの移動オブジェクトの移動フィールドとなる2次元画
像の各ピクセルに対して設定された奥行き値Z1と、奥
行き値演算部132により求められた奥行き値Z2とに
基づいて、移動オブジェクトの陰面消去を行う。この場
合の陰面消去は、記憶部170が含むZバッファ172
を利用したZバッファ法により実現してもよいし、奥行
き値Z1、Z2をプログラムにより比較することにより
実現してもよい。
The drawing unit 140 performs a drawing process of an object. More specifically, the drawing unit 140 includes the hidden surface erasing unit 14.
2 inclusive. Then, the hidden surface elimination unit 142 is based on the depth value Z1 set for each pixel of the two-dimensional image serving as a movement field of a moving object such as a character, and the depth value Z2 obtained by the depth value calculation unit 132. Then, the hidden surface of the moving object is erased. In this case, the hidden surface is erased by the Z buffer 172 included in the storage unit 170.
May be realized by a Z-buffer method utilizing the above, or may be realized by comparing the depth values Z1 and Z2 by a program.

【0039】以上のように、奥行き値Z1、Z2を利用
して移動オブジェクトの陰面消去を行うことで、建物な
どの2次元オブジェクトの間に移動オブジェクトを割り
込ませることが可能になり、描画プライオリティの問題
を解決できる。
As described above, by removing the hidden surface of the moving object using the depth values Z1 and Z2, the moving object can be interrupted between two-dimensional objects such as buildings, and the drawing priority can be reduced. Can solve the problem.

【0040】なお、本実施形態の画像生成システムは、
1人のプレーヤのみがプレイできるシングルプレーヤモ
ード専用のシステムにしてもよいし、このようなシング
ルプレーヤモードのみならず、複数のプレーヤがプレイ
できるマルチプレーヤモードも備えるシステムにしても
よい。
Note that the image generation system of the present embodiment
A system dedicated to the single player mode in which only one player can play, or a system including not only such a single player mode but also a multiplayer mode in which a plurality of players can play, may be used.

【0041】また複数のプレーヤがプレイする場合に、
これらの複数のプレーヤに提供するゲーム画像やゲーム
音を、1つの端末を用いて生成してもよいし、ネットワ
ーク(伝送ライン、通信回線)などで接続された複数の
端末を用いて生成してもよい。
When a plurality of players play,
The game image and the game sound to be provided to the plurality of players may be generated using one terminal, or may be generated using a plurality of terminals connected by a network (transmission line, communication line) or the like. Is also good.

【0042】2.本実施形態の特徴本実施形態では図2
に示すように、2次元のオブジェクトOB1〜OB5や
地面(広義には背景)などで構成される2次元画像(画
面、ワールドマップ)を移動フィールドとして、キャラ
クタCH(広義には移動オブジェクト)が移動する。
2. Features of the present embodiment In this embodiment, FIG.
As shown in FIG. 5, a character CH (moving object in a broad sense) moves using a two-dimensional image (screen, world map) constituted by a two-dimensional object OB1 to OB5 and the ground (background in a broad sense) as a moving field. I do.

【0043】そして、このように2次元画像の中をキャ
ラクタCHが移動する場合には、キャラクタCHと他の
2次元オブジェクトとの間の描画プライオリティに矛盾
が生じないようにCHを描画する必要がある。例えばD
1に示すようにキャラクタCHが移動した場合には、O
B1の前にCHがいるように見えるようにCHを描画す
る必要がある。またD2に示すようにCHが移動した場
合には、OB1とOB2の間にCHがいるように見える
ようにCHを描画する必要がある。またD3に示すよう
にCHが移動した場合には、OB3の後ろにCHがいる
ように見えるようにCHを描画する必要がある。
When the character CH moves in the two-dimensional image as described above, it is necessary to draw the CH so that there is no inconsistency in the drawing priority between the character CH and another two-dimensional object. is there. For example, D
When the character CH moves as shown in FIG.
It is necessary to draw CH so that CH appears to be in front of B1. When the CH moves as indicated by D2, it is necessary to draw the CH so that the CH appears to be between OB1 and OB2. When the CH moves as shown in D3, it is necessary to draw the CH so that the CH appears to be behind OB3.

【0044】そこで本実施形態では図3に示すように、
まず、キャラクタCHの移動フィールドとなる2次元画
像の各ピクセルに対して、奥行き値Z1を持たせてい
る。即ち、2次元のワールドマップの座標をX、Yとし
た場合に、奥行き値Z1は、Z1=DEPTH1(X、
Y)という式で表される。なお本実施形態では、ワール
ドマップの中の一部の表示エリアの2次元画像だけが表
示部に出力されており、この表示エリアは、キャラクタ
CHの移動やゲーム進行などに伴いスクロール移動す
る。
Therefore, in this embodiment, as shown in FIG.
First, a depth value Z1 is given to each pixel of the two-dimensional image which is a moving field of the character CH. That is, when the coordinates of the two-dimensional world map are X and Y, the depth value Z1 is Z1 = DEPTH1 (X,
Y). In the present embodiment, only a two-dimensional image of a part of the display area in the world map is output to the display unit, and the display area scrolls with the movement of the character CH or the progress of the game.

【0045】そして本実施形態では、この各ピクセルの
奥行き値Z1と、キャラクタCHの奥行き値Z2(2次
元オブジェクトの間にキャラクタを割り込ませるための
奥行き値)とを比較する。そして、その比較結果に基づ
いてキャラクタCHの陰面消去を行うようにしている。
In this embodiment, the depth value Z1 of each pixel is compared with the depth value Z2 of the character CH (depth value for interrupting the character between two-dimensional objects). Then, the hidden surface of the character CH is erased based on the comparison result.

【0046】より具体的には、2次元画像の各ピクセル
の奥行き値Z1は例えば図4に示すように設定される。
即ち、奥行き値Z1が大きい順にオブジェクトを配置し
て行く。例えば図4では、Z1=4であるオブジェクト
OB5が配置され、次に、Z1=3であるOB2が配置
され、次に、Z1=2であるOB1、OB4が配置さ
れ、最後に、Z1=1であるOB3が配置される。この
場合に、例えばE1に示すOB1、OB2の重なり合い
部分のピクセルでは、後から描かれたオブジェクトOB
1の奥行き値Z1=2が上書きされることになる。ま
た、地面(背景)での奥行き値や、オブジェクトの抜き
の部分での奥行き値は、最も大きな値(例えば5)に設
定される。
More specifically, the depth value Z1 of each pixel of the two-dimensional image is set, for example, as shown in FIG.
That is, the objects are arranged in descending order of the depth value Z1. For example, in FIG. 4, an object OB5 where Z1 = 4 is arranged, OB2 where Z1 = 3 is arranged, OB1 and OB4 where Z1 = 2 are arranged, and finally, Z1 = 1 Is arranged. In this case, for example, in the pixel of the overlapping portion of OB1 and OB2 indicated by E1, the object OB drawn later
The depth value Z1 = 2 of 1 will be overwritten. In addition, the depth value on the ground (background) and the depth value in a portion where the object is not extracted are set to the largest value (for example, 5).

【0047】なお、2次元画像の各ピクセルに対する奥
行き値Z1は、デザイナーが手作業で入力設定してもよ
い。或いは、各オブジェクトがパーツの組み合わせで作
られている場合には、パーツを組み合わせる処理の際に
発生するプライオリティ情報に基づき、2次元画像の各
ピクセルの奥行き値Z1を自動生成してもよい。
The depth value Z1 for each pixel of the two-dimensional image may be manually set by a designer. Alternatively, when each object is made of a combination of parts, the depth value Z1 of each pixel of the two-dimensional image may be automatically generated based on priority information generated at the time of combining parts.

【0048】そして本実施形態では図4に示すように、
キャラクタCHの例えば足下(広義には最下部)に設定
された代表点の位置P(XP、YP)などに基づいて、
CHの奥行き値Z2を求める。そして、この奥行き値Z
2と、2次元画像の各ピクセルに設定された奥行き値Z
1とを比較し、Z2<Z1のピクセルについてはキャラ
クタの画像を上書き描画し、Z2≧Z1となるピクセル
については上書き描画しないようにする(陰面消去す
る)。
In this embodiment, as shown in FIG.
For example, based on the position P (XP, YP) of the representative point set below the character CH (for example, at the bottom in a broad sense)
The depth value Z2 of CH is obtained. And this depth value Z
2 and the depth value Z set for each pixel of the two-dimensional image
1 is overwritten and the image of the character is overwritten for the pixel of Z2 <Z1, and the overwriting is not performed for the pixel of Z2 ≧ Z1 (hidden surface removal).

【0049】例えば図5では、オブジェクトOB1とO
B2の間にキャラクタCHが移動しており、この場合に
は、CHの奥行き値Z2は2になる。そして、キャラク
タCHの上半分のピクセルではZ2=2、Z1=3とな
っており、Z2<Z1となっているため、キャラクタC
Hの画像が上書き描画される。一方、キャラクタCHの
下半分のピクセルではZ2=2、Z1=2となってお
り、Z2≧Z1となっているため、キャラクタCHの画
像が上書き描画されない。従って、キャラクタCHの上
半分だけが上書き描画され、下半分が陰面消去された画
像を生成できるようになり、描画プライオリティの問題
を解決できる。
For example, in FIG. 5, the objects OB1 and O
The character CH moves during B2, and in this case, the depth value Z2 of CH becomes 2. In the upper half pixel of the character CH, Z2 = 2, Z1 = 3, and Z2 <Z1, so that the character C
The H image is overwritten. On the other hand, in the lower half pixel of the character CH, Z2 = 2 and Z1 = 2, and since Z2 ≧ Z1, the image of the character CH is not overwritten. Therefore, it is possible to generate an image in which only the upper half of the character CH is overwritten and the lower half of the character CH is hidden, and the problem of the drawing priority can be solved.

【0050】以上のように本実施形態によれば、2次元
画像を移動フィールドとしてキャラクタを移動させ、こ
の2次元画像を構成する2次元オブジェクト間にキャラ
クタを割り込ませることが可能になる。これにより、2
次元の画像であるのにもかかわらず、あたかも奥行きが
あるかのように、プレーヤを錯覚させることができる。
As described above, according to the present embodiment, it is possible to move a character by using a two-dimensional image as a moving field, and to insert a character between two-dimensional objects constituting the two-dimensional image. This gives 2
Despite being a two-dimensional image, the player can be illusioned as if there is depth.

【0051】しかも本実施形態では、例えば図5のオブ
ジェクトOB1〜OB5の画像として、カメラで撮影し
た実写画像や、デザイナがCGにより綿密に描いた画像
や、有名な画家か描いた絵などを用いることができる。
従って、オブジェクトをポリゴンにより構成した場合に
比べて、より自然で現実味のある画像を生成できる。
Further, in the present embodiment, for example, as the images of the objects OB1 to OB5 in FIG. 5, an actual photographed image taken by a camera, an image carefully drawn by a CG by a designer, or a picture drawn by a famous painter is used. be able to.
Therefore, a more natural and realistic image can be generated as compared with the case where the object is constituted by polygons.

【0052】なお、描画プライオリティの問題を解決す
る手法として、オブジェクトの描画順序を制御する手法
も考えることができる。この手法では、まず図6(A)
に示すように、奥にあるオブジェクトOB2を描画し、
次に図6(B)に示すように、キャラクタCHを描画
し、次に図6(C)に示すように、手前にあるオブジェ
クトOB1を描画するようにする。
As a method for solving the problem of the drawing priority, a method for controlling the drawing order of objects can be considered. In this method, first, FIG.
Draws the object OB2 at the back as shown in
Next, as shown in FIG. 6B, the character CH is drawn, and then, as shown in FIG. 6C, the object OB1 in front is drawn.

【0053】しかしながら、この手法では、オブジェク
トOB1、OB2の重なり合い部分である図6(C)の
F1に示す場所で、本来は1回で済むはずの描画が複数
回行われることになり、処理に無駄が生じる。
However, in this method, the drawing which should have been performed only once is performed a plurality of times at the location indicated by F1 in FIG. 6C, which is the overlapping portion of the objects OB1 and OB2. Waste occurs.

【0054】これに対して本実施形態では、図6(C)
のF1に示す場所では、オブジェクトOB2の画像につ
いては初めから描画されず、オブジェクトOB1の画像
だけが描画されている。即ち図4に示すように、OB2
にOB1が上書きされた1枚絵の2次元画像が初めから
用意され、この用意された2次元画像の中でオブジェク
トOB1、OB2間にキャラクタCHを割り込ませてい
る。従って、2次元画像の描画は1回で済むため、処理
の無駄を省ける。また、オブジェクトOB1、OB2の
描画順序を制御する必要もないため、処理負担を軽減で
きる。
On the other hand, in the present embodiment, FIG.
In the place indicated by F1, the image of the object OB2 is not drawn from the beginning, and only the image of the object OB1 is drawn. That is, as shown in FIG.
Is prepared from the beginning, and a character CH is inserted between the objects OB1 and OB2 in the prepared two-dimensional image. Therefore, since the drawing of the two-dimensional image only needs to be performed once, waste of processing can be omitted. Further, since there is no need to control the drawing order of the objects OB1 and OB2, the processing load can be reduced.

【0055】次に、キャラクタの奥行き値Z2を求める
手法について説明する。
Next, a method for obtaining the depth value Z2 of the character will be described.

【0056】本実施形態では図7に示すように、キャラ
クタの移動フィールドとなる2次元画像の各ピクセルに
対して、奥行き値Z1と共に描画プライオリティ値PR
が設定されている。即ち、ワールドマップ座標をX、Y
とした場合に、描画プライオリティ値PRは、PR=P
RIORITY(X、Y)という式で表される。
In this embodiment, as shown in FIG. 7, for each pixel of a two-dimensional image which is a character moving field, a drawing priority value PR together with a depth value Z1 is displayed.
Is set. That is, X, Y
, The drawing priority value PR becomes PR = P
It is represented by the formula of RIORITY (X, Y).

【0057】そして本実施形態では、2次元画像の各ピ
クセルに設定された描画プライオリティ値PRと、キャ
ラクタの例えば足下の位置P(XP、YP)とに基づい
て、キャラクタの奥行き値Z2を求めている。
In this embodiment, the depth value Z2 of the character is obtained based on the drawing priority value PR set for each pixel of the two-dimensional image and the position P (XP, YP) of the character, for example. I have.

【0058】ここで、2次元画像の各ピクセルに対する
描画プライオリティ値PRの設定は、例えば以下の手法
により実現できる。
The setting of the drawing priority value PR for each pixel of the two-dimensional image can be realized by, for example, the following method.

【0059】即ち、図8に示すように、各オブジェクト
OB1〜OB5の下側境界線L1〜L5(太線で示す
線)を設定する。なお、オブジェクトOB1〜OB5
は、その下側境界線L1〜L5の方向がY軸の方向に一
致しないように、配置する必要がある。また、地面(背
景)は、最も奥に描画される部分となっている。
That is, as shown in FIG. 8, the lower boundary lines L1 to L5 (thick lines) of the objects OB1 to OB5 are set. Note that the objects OB1 to OB5
Must be arranged such that the directions of the lower boundary lines L1 to L5 do not coincide with the direction of the Y-axis. In addition, the ground (background) is a portion drawn at the innermost position.

【0060】次に、図9(A)に示すように、境界線L
1〜L5の各々の左端を、X軸方向に沿って左に距離W
だけ延長する。また境界線L1〜L5の各々の右端を、
X軸方向に沿って右に距離Wだけ延長する。ここで、こ
の距離Wは、キャラクタなどの移動オブジェクトの大き
さにより特定される距離であり、距離Wとしては、例え
ばゲームに登場する移動オブジェクトの最大幅を採用で
きる。
Next, as shown in FIG.
1 to L5, a distance W to the left along the X-axis direction.
Just extend. Also, the right end of each of the boundary lines L1 to L5 is
It extends rightward by a distance W along the X-axis direction. Here, the distance W is a distance specified by the size of a moving object such as a character. As the distance W, for example, the maximum width of a moving object appearing in a game can be adopted.

【0061】次に、図9(B)に示すように、境界線L
1〜L5の延長線の端点から、Y軸方向に沿って上
(奥)に、他の線にぶつかるまで線(点線で示す線)を
延ばす。
Next, as shown in FIG.
A line (a dotted line) is extended upward (backward) along the Y-axis direction from an end point of the extension line of 1 to L5 until it hits another line.

【0062】このようにして、本実施形態では、2次元
画像を構成するオブジェクトOB1〜OB5の下側境界
線L1〜L5に基づいて、2次元画像(ワールドマッ
プ)を、複数の領域AR1〜AR5に分割している。
As described above, in the present embodiment, the two-dimensional image (world map) is divided into a plurality of areas AR1 to AR5 based on the lower boundary lines L1 to L5 of the objects OB1 to OB5 constituting the two-dimensional image. Is divided into

【0063】そして、図10(A)に示すように、この
分割された領域AR1〜AR5(オブジェクトOB1〜
OB5)の親子ツリーを作成する。
Then, as shown in FIG. 10A, the divided areas AR1 to AR5 (objects OB1 to OB1)
Create a parent-child tree of OB5).

【0064】例えば図10(B)に示すように、領域A
R3において線の端点から延びる線DL3は、領域AR
1、AR4にぶつかるため、AR1(OB1)及びAR
4(OB4)は、AR3(OB3)の子として登録され
る。
For example, as shown in FIG.
A line DL3 extending from the end point of the line in R3 is a region AR
1. AR1 (OB1) and AR due to collision with AR4
4 (OB4) is registered as a child of AR3 (OB3).

【0065】また領域AR1において端点から延びる線
DL1は領域AR2にぶつかるため、AR2(OB2)
はAR1(OB1)の子として登録される。
Since the line DL1 extending from the end point in the area AR1 hits the area AR2, the line DL2 (OB2)
Is registered as a child of AR1 (OB1).

【0066】また領域AR2において端点から延びる線
DL2は領域AR5にぶつかるため、AR5(OB5)
はAR2(OB2)の子として登録される。
In the area AR2, the line DL2 extending from the end point collides with the area AR5, so that AR5 (OB5)
Is registered as a child of AR2 (OB2).

【0067】また領域AR4において端点から延びる線
DL4は領域AR5にぶつかるため、AR5(OB5)
はAR4(OB4)の子として登録される。
In the area AR4, the line DL4 extending from the end point collides with the area AR5, so that AR5 (OB5)
Is registered as a child of AR4 (OB4).

【0068】そして、このようにして作成された親子ツ
リーのトップから順に描画プライオリティ値を割り当て
て行く。
Then, drawing priority values are assigned sequentially from the top of the parent-child tree created in this way.

【0069】例えば、領域AR3の描画プライオリティ
値PR3は1になり、領域AR1の描画プライオリティ
値PR1は2になり、領域AR2の描画プライオリティ
値PR2は3になり、領域AR5の描画プライオリティ
値PR5は4になり、領域AR4の描画プライオリティ
値PR4は2になる。なお、領域AR5の描画プライオ
リティ値PR5は、左の経路では4になり右の経路では
3になるが、この場合には、大きい方の値である4を採
用するようにする。
For example, the drawing priority value PR3 of the area AR3 becomes 1, the drawing priority value PR1 of the area AR1 becomes 2, the drawing priority value PR2 of the area AR2 becomes 3, and the drawing priority value PR5 of the area AR5 becomes 4. , And the drawing priority value PR4 of the area AR4 becomes 2. The drawing priority value PR5 of the area AR5 is 4 on the left route and 3 on the right route. In this case, the larger value of 4 is adopted.

【0070】本実施例では、このようにして決定された
描画プライオリティ値PR1〜PR5が、各領域AR1
〜AR5内のピクセルの描画プライオリティ値として設
定される。なお、AR1〜AR5の下方の領域であるA
R0のプライオリティ値PR0は、最も小さな値(例え
ば0)に設定される。
In this embodiment, the drawing priority values PR1 to PR5 determined as described above are used for the respective areas AR1.
This is set as a drawing priority value of a pixel within AR5. In addition, A which is a region below AR1 to AR5
The priority value PR0 of R0 is set to the smallest value (for example, 0).

【0071】そして本実施形態では、キャラクタが位置
する領域での描画プライオリティ値が、そのキャラクタ
の奥行き値Z2として採用される。即ち図11に示すよ
うに、キャラクタCHの位置P(XP、YP)が例えば
領域AR1にある場合には、AR1の描画プライオリテ
ィ値PR1=2が、キャラクタCHの奥行き値Z2とし
て採用される。一方、キャラクタCHの位置P(XP、
YP)が例えば領域AR3にある場合には、AR3の描
画プライオリティ値PR3=1が、キャラクタCHの奥
行き値Z2として採用される。このようにすることで、
図2に示すようなキャラクタの適正な陰面消去が可能に
なる。
In the present embodiment, the drawing priority value in the area where the character is located is adopted as the depth value Z2 of the character. That is, as shown in FIG. 11, when the position P (XP, YP) of the character CH is, for example, in the area AR1, the drawing priority value PR1 = 2 of AR1 is adopted as the depth value Z2 of the character CH. On the other hand, the position P (XP,
If (YP) is in the area AR3, for example, the drawing priority value PR3 = 1 of AR3 is adopted as the depth value Z2 of the character CH. By doing this,
The proper hidden surface elimination of the character as shown in FIG. 2 becomes possible.

【0072】なお、描画プライオリティ値は、2次元画
像の各ピクセルに対して予め設定しておいてもよいし、
下側境界線の情報に基づいてリアルタイムに求めるよう
にしてもよい。
The drawing priority value may be set in advance for each pixel of the two-dimensional image,
You may make it obtain | require in real time based on the information of a lower boundary line.

【0073】また、キャラクタに与える奥行き値Z2
(描画プライオリティ値)は、キャラクタの位置のみな
らず、キャラクタの方向や移動履歴に基づいて決めても
よい。例えば図12に示すように、キャラクタCHが移
動経路MR1に沿って移動してPAに位置した場合と、
移動経路MR2に沿って移動してPAに位置した場合と
では、キャラクタCHの奥行き値Z2は異なったものに
なる。即ち、MR1に沿って移動した場合の奥行き値Z
2は、MR2に沿って移動した場合の奥行き値Z2より
も大きくなる(より奥になる)。このように移動経路
(広義には移動履歴)に基づいてキャラクタの奥行き値
Z2を決めることで、より正確なキャラクタの陰面消去
が可能になる。
The depth value Z2 given to the character
The (drawing priority value) may be determined based on not only the position of the character but also the direction and movement history of the character. For example, as shown in FIG. 12, when the character CH moves along the movement route MR1 and is located at PA,
The depth value Z2 of the character CH is different from the case where the character CH moves along the movement route MR2 and is located at PA. That is, the depth value Z when moving along MR1
2 becomes larger (becomes deeper) than the depth value Z2 when moving along MR2. By thus determining the depth value Z2 of the character based on the movement route (movement history in a broad sense), it is possible to more accurately erase the hidden surface of the character.

【0074】また図9(A)で、下側境界線L1〜L5
を距離Wだけ延長したのは以下の理由による。即ち図1
3(A)に示すような場所にキャラクタCHが位置する
場合には、図13(B)に示すように、キャラクタCH
の一部がオブジェクトOB1により陰面消去されるはず
である。
In FIG. 9A, the lower boundary lines L1 to L5
Is extended by the distance W for the following reason. That is, FIG.
When the character CH is located in a place as shown in FIG. 3 (A), as shown in FIG.
Should be hidden by the object OB1.

【0075】ところが、下側境界線L1を距離Wだけ延
長しないと、キャラクタCHの位置P(XP、YP)は
領域AR1に属さないことになる。従って、キャラクタ
CHの奥行き値Z2が、領域AR1の描画プライオリテ
ィ値であるPR1=2ではなく、例えば、領域AR0の
描画プライオリティ値であるPR0=0になってしま
う。この結果、図13(B)に示すような陰面消去が行
われなくなってしまい、キャラクタCHがオブジェクト
OB1の上に描画されてしまう問題が生じる。
However, unless the lower boundary line L1 is extended by the distance W, the position P (XP, YP) of the character CH does not belong to the area AR1. Therefore, the depth value Z2 of the character CH is not PR1 = 2, which is the drawing priority value of the area AR1, but becomes PR0 = 0, which is the drawing priority value of the area AR0. As a result, hidden surface elimination as shown in FIG. 13B is not performed, and there is a problem that the character CH is drawn on the object OB1.

【0076】本実施形態のように、下側境界線L1を距
離W(キャラクタの最大幅)だけ延長すれば、このよう
な問題が生じるのが防止され、適正な陰面消去が可能に
なる。
If the lower boundary line L1 is extended by the distance W (the maximum width of the character) as in the present embodiment, such a problem is prevented from occurring, and proper hidden surface erasure can be performed.

【0077】3.本実施形態の処理 次に、本実施形態の処理の詳細例について、図14、図
15、図17のフローチャートを用いて説明する。
3. Next, a detailed example of the process according to the present embodiment will be described with reference to the flowcharts in FIGS. 14, 15, and 17.

【0078】図14は、キャラクタの描画処理に関する
フローチャートである。
FIG. 14 is a flowchart relating to a character drawing process.

【0079】まず、図11で説明したように、キャラク
タの足下に設定された代表点の位置P(XP、YP)に
基づき、描画プライオリティ値PRを取得する(ステッ
プS1)。そして、取得したプライオリティ値PRを、
キャラクタの全てのピクセルの奥行き値Z2として採用
する(ステップS2)。より具体的には、キャラクタの
位置P(XP、YP)に基づき、キャラクタの属する領
域を特定し、その領域に対応づけられた描画プライオリ
ティ値をキャラクタの奥行き値Z2として採用する。
First, as described with reference to FIG. 11, the drawing priority value PR is obtained based on the position P (XP, YP) of the representative point set under the character's feet (step S1). Then, the acquired priority value PR is
This is adopted as the depth value Z2 of all pixels of the character (step S2). More specifically, an area to which the character belongs is specified based on the position P (XP, YP) of the character, and the drawing priority value associated with the area is adopted as the depth value Z2 of the character.

【0080】次に、キャラクタのピクセル(U、V)の
α値(透明度、半透明度、不透明度)が0(透明)か否
かを判断し(ステップS3)、0である場合にはステッ
プS4、S5をスキップしてステップS6に移行する。
これにより、キャラクタの絵が描かれていない部分は、
透明として描かれるようになる。一方、α値が0でない
場合には、キャラクタの奥行き値Z2が、2次元画像の
各ピクセルに設定(図3参照)された奥行き値Z1(X
P+U、YP+V)よりも小さいか否かを判断する(ス
テップS4)。そして、Z2<Z1の場合には、図5で
説明したように、そのピクセル(U、V)の画像(色デ
ータ)を2次元画像(画面)に上書き描画する(ステッ
プS5)。一方、Z2≧Z1の場合には、ステップS5
をスキップして、上書き描画が行わないようにする。
Next, it is determined whether or not the α value (transparency, translucency, opacity) of the pixel (U, V) of the character is 0 (transparent) (step S3). , S5 is skipped, and the routine goes to step S6.
As a result, the part where the picture of the character is not drawn is
It will be drawn as transparent. On the other hand, if the α value is not 0, the depth value Z2 of the character is set to the depth value Z1 (X
(P + U, YP + V) is determined (step S4). If Z2 <Z1, as described with reference to FIG. 5, the image (color data) of the pixel (U, V) is overwritten on the two-dimensional image (screen) (step S5). On the other hand, if Z2 ≧ Z1, step S5
Is skipped to prevent overwriting.

【0081】次に、全てのピクセルについて処理を終了
したか否かを判断し(ステップS6)、終了していない
場合にはステップS3に戻り、次のピクセルについての
処理を行う。
Next, it is determined whether or not processing has been completed for all pixels (step S6). If processing has not been completed, the process returns to step S3 to perform processing for the next pixel.

【0082】図15は、描画プライオリティ値の設定処
理に関するフローチャートである。
FIG. 15 is a flowchart relating to the setting processing of the drawing priority value.

【0083】まず、全ての領域の描画プライオリティ値
PRjを1に設定すると共に、PTに1を代入し、全て
のオブジェクトをオブジェクトプールの中に入れる(ス
テップS11)。
First, the drawing priority values PRj of all the areas are set to 1, and 1 is substituted for PT to put all the objects in the object pool (step S11).

【0084】次に、オブジェクトプールの中からオブジ
ェクトOBm、OBnの組み合わせを取り出す(ステッ
プS12)。
Next, a combination of the objects OBm and OBn is extracted from the object pool (step S12).

【0085】次に、境界線(オブジェクトOBm、OB
nの下側境界線+延長線)の式Y=f'm(X)、Y=
f'n(X)の値域に重なり部分があるか否かを判断す
る(ステップS13)。
Next, the boundary lines (objects OBm, OB
n lower boundary line + extension line) Expression Y = f′m (X), Y =
It is determined whether there is an overlap in the value range of f'n (X) (step S13).

【0086】例えば図16に示すように、オブジェクト
OBkの下側境界線の式を、 Y=fk(X) (値域:ak≦X≦bk) と定義する。
For example, as shown in FIG. 16, the equation of the lower boundary line of the object OBk is defined as Y = fk (X) (value range: ak ≦ X ≦ bk).

【0087】そして、延長線の長さをWとし、ak'=
ak−W、bk'=bk+Wと定義すると、下側境界線
の左端、右端をWだけ延長することで得られる境界線の
式は、 Y=f'k(X)=fk(ak) (ak'≦X<ak ) Y=f'k(X)=fk(X) (ak ≦X≦bk ) Y=f'k(X)=fk(bk) (bk <X≦bk') となる。なお上式の値域は(ak'≦X≦bk')とな
る。
Then, let the length of the extension line be W, and ak ′ =
If ak−W and bk ′ = bk + W are defined, the equation of a boundary line obtained by extending the left end and the right end of the lower boundary line by W is as follows: Y = f′k (X) = fk (ak) (ak '≦ X <ak) Y = f′k (X) = fk (X) (ak ≦ X ≦ bk) Y = f′k (X) = fk (bk) (bk <X ≦ bk ′) Note that the value range of the above equation is (ak ′ ≦ X ≦ bk ′).

【0088】そして、図16の場合には、G1に示す部
分において、Y=f'1(X)、Y=f'2(X)の式の
値域に重なり合いがあると判断される。
Then, in the case of FIG. 16, it is determined that, in the portion indicated by G1, the value ranges of the equations of Y = f′1 (X) and Y = f′2 (X) overlap.

【0089】値域に重なり合いがあると判断された場合
には、共通の値域においてf'm(X)>f'n(X)な
らば、OBmに関する描画プライオリティ値PRmにP
T+1が代入され、f'm(X)≦f'n(X)ならば、
OBnに関する描画プライオリティ値PRnにPT+1
が代入される(ステップS14)。一方、値域に重なり
合いが無い場合には、ステップS14の処理がスキップ
される。
When it is determined that there is overlap in the value ranges, if f′m (X)> f′n (X) in the common value range, the drawing priority value PRm for OBm is set to P.
T + 1 is substituted and if f′m (X) ≦ f′n (X),
PT + 1 to the drawing priority value PRn for OBn
Is substituted (step S14). On the other hand, when there is no overlap in the value ranges, the process of step S14 is skipped.

【0090】次に、残りの組み合わせがあるか否かが判
断され(ステップS15)、ある場合にはステップS1
2に戻る。一方、残りの組み合わせがなく、全ての組み
合わせについての処理が終了した場合には、PRk=P
Tとなるオブジェクトがオブジェクトプールから取り出
されると共に、PTにPT+1が代入され、組み合わせ
が初期化される(ステップS16)。このようにするこ
とで、オブジェクトプールにあるオブジェクトの中で最
も描画プライオリティ値が小さなオブジェクト(例えば
図10(A)ではOB3)が、オブジェクトプールの中
から取り出されることになる。
Next, it is determined whether or not there are remaining combinations (step S15).
Return to 2. On the other hand, when there are no remaining combinations and the processing for all the combinations is completed, PRk = P
The object that becomes T is taken out of the object pool, PT + 1 is substituted for PT, and the combination is initialized (step S16). By doing so, the object having the smallest drawing priority value among the objects in the object pool (for example, OB3 in FIG. 10A) is extracted from the object pool.

【0091】次に、オブジェクトプールの中にオブジェ
クトが残っているか判断し(ステップS17)、残って
いる場合にはステップS12に戻る。
Next, it is determined whether or not the object remains in the object pool (step S17). If the object remains, the process returns to step S12.

【0092】以上のようにして、図10(A)に示すよ
うな親子ツリーが作成され、各領域ARk(OBk)に
設定される描画プライオリティ値PRkが決められる。
As described above, a parent-child tree as shown in FIG. 10A is created, and the drawing priority value PRk set in each area ARk (OBk) is determined.

【0093】図17は、キャラクタの位置P(XP、Y
P)での描画プライオリティ値の取得処理に関するフロ
ーチャートである。
FIG. 17 shows a character position P (XP, Y
It is a flowchart regarding the acquisition process of the drawing priority value in P).

【0094】まず、dYに無限大値、jに0、iに1を
代入する(ステップS21)。
First, an infinite value is substituted for dY, 0 is substituted for j, and 1 is substituted for i (step S21).

【0095】次に、YP≧f'i(XP)か否かが判断
される(ステップS22)。そして、YP≧f'i(X
P)の場合には、YP−f'i(XP)≦dYか否かを
判断される(ステップS23)。そしてYP−f'i
(XP)≦dYの場合には、jにiが代入されると共
に、dYにYP−f'i(XP)が代入される(ステッ
プS24)。
Next, it is determined whether or not YP ≧ f′i (XP) (step S22). Then, YP ≧ f′i (X
In the case of P), it is determined whether or not YP−f′i (XP) ≦ dY (step S23). And YP-f'i
If (XP) ≦ dY, i is substituted for j and YP−f′i (XP) is substituted for dY (step S24).

【0096】次に、iが1だけインクリメントされ(ス
テップS25)、i≦N(Nはオブジェクトの総数)か
否かが判断される(ステップS26)。そしてi≦Nの
場合にはステップS22に戻り、i>Nの場合には、位
置P(XP、YP)での描画プライオリティ値として、
領域ARjでの描画プライオリティ値PRjが採用され
る(ステップS27)。
Next, i is incremented by 1 (step S25), and it is determined whether or not i ≦ N (N is the total number of objects) (step S26). If i ≦ N, the process returns to step S22. If i> N, the drawing priority value at the position P (XP, YP) is set as
The drawing priority value PRj in the area ARj is adopted (Step S27).

【0097】図17の処理を、図18を用いて具体的に
説明すれば以下のようになる。
The processing of FIG. 17 will be specifically described with reference to FIG.

【0098】まず、ステップS22ではYP≧f'1
(XP)であると判断され、ステップS23ではYP−
f'1(XP)≦dY(無限大)と判断される。従っ
て、ステップS24で、jにi=1が代入され、dYに
YP−f'1(XP)が代入される。
First, in step S22, YP ≧ f′1
(XP), and YP−
It is determined that f′1 (XP) ≦ dY (infinity). Accordingly, in step S24, i = 1 is substituted for j, and YP-f'1 (XP) is substituted for dY.

【0099】次に、ステップS25でi=2となり、ス
テップS22に戻る。そして、ステップS22ではYP
≧f'2(XP)であると判断され、ステップS23で
はYP−f'2(XP)≦dY=YP−f'1(XP)と
判断される。従って、ステップS24でjにi=2が代
入され、dYにYP−f'2(XP)が代入される。
Next, i = 2 in step S25, and the process returns to step S22. Then, in step S22, YP
It is determined that ≧ f′2 (XP), and it is determined in step S23 that YP−f′2 (XP) ≦ dY = YP−f′1 (XP). Accordingly, in step S24, i = 2 is substituted for j, and YP-f'2 (XP) is substituted for dY.

【0100】以上の処理が、i=5になるまで繰り返さ
れた後、ステップS27に移行する。これにより、位置
P(XP、YP)での描画プライオリティ値として、領
域ARj=AR2での描画プライオリティ値PRj=P
R2=3が採用されることになる。
After the above processing is repeated until i = 5, the flow shifts to step S27. As a result, as the drawing priority value at the position P (XP, YP), the drawing priority value PRj = P in the area ARj = AR2
R2 = 3 will be adopted.

【0101】4.ハードウェア構成 次に、本実施形態を実現できるハードウェアの構成の一
例について図19を用いて説明する。
4. Hardware Configuration Next, an example of a hardware configuration that can realize the present embodiment will be described with reference to FIG.

【0102】メインプロセッサ900は、CD982
(情報記憶媒体)に格納されたプログラム、通信インタ
ーフェース990を介して転送されたプログラム、或い
はROM950(情報記憶媒体の1つ)に格納されたプ
ログラムなどに基づき動作し、ゲーム処理、画像処理、
音処理などの種々の処理を実行する。
The main processor 900 has a CD982
(Information storage medium), a program transferred via the communication interface 990, or a program stored in the ROM 950 (one of the information storage media).
Various processes such as sound processing are executed.

【0103】コプロセッサ902は、メインプロセッサ
900の処理を補助するものであり、高速並列演算が可
能な積和算器や除算器を有し、マトリクス演算(ベクト
ル演算)を高速に実行する。例えば、オブジェクトを移
動させたり動作(モーション)させるための物理シミュ
レーションに、マトリクス演算などの処理が必要な場合
には、メインプロセッサ900上で動作するプログラム
が、その処理をコプロセッサ902に指示(依頼)す
る。
The coprocessor 902 assists the processing of the main processor 900, has a multiply-accumulate unit and a divider capable of high-speed parallel operation, and executes a matrix operation (vector operation) at high speed. For example, when a physical simulation for moving or moving an object requires processing such as matrix operation, a program operating on the main processor 900 instructs the coprocessor 902 to perform the processing (request ).

【0104】ジオメトリプロセッサ904は、座標変
換、透視変換、光源計算、曲面生成などのジオメトリ処
理を行うものであり、高速並列演算が可能な積和算器や
除算器を有し、マトリクス演算(ベクトル演算)を高速
に実行する。例えば、座標変換、透視変換、光源計算な
どの処理を行う場合には、メインプロセッサ900で動
作するプログラムが、その処理をジオメトリプロセッサ
904に指示する。
The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation. The geometry processor 904 includes a multiply-accumulate unit and a divider capable of high-speed parallel computation, and performs matrix computation (vector computation). Calculation) at high speed. For example, when performing processing such as coordinate transformation, perspective transformation, and light source calculation, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.

【0105】データ伸張プロセッサ906は、圧縮され
た画像データや音データを伸張するデコード処理を行っ
たり、メインプロセッサ900のデコード処理をアクセ
レートする処理を行う。これにより、オープニング画
面、インターミッション画面、エンディング画面、或い
はゲーム画面などにおいて、MPEG方式等で圧縮され
た動画像を表示できるようになる。なお、デコード処理
の対象となる画像データや音データは、ROM950、
CD982に格納されたり、或いは通信インターフェー
ス990を介して外部から転送される。
The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data, and performs a process for accelerating the decoding process of the main processor 900. As a result, a moving image compressed by the MPEG method or the like can be displayed on an opening screen, an intermission screen, an ending screen, a game screen, or the like. The image data and sound data to be decoded are stored in the ROM 950,
It is stored on a CD 982 or transferred from outside via a communication interface 990.

【0106】描画プロセッサ910は、ポリゴンや曲面
などのプリミティブ面で構成されるオブジェクトの描画
(レンダリング)処理を高速に実行するものである。オ
ブジェクトの描画の際には、メインプロセッサ900
は、DMAコントローラ970の機能を利用して、オブ
ジェクトデータを描画プロセッサ910に渡すと共に、
必要であればテクスチャ記憶部924にテクスチャを転
送する。すると、描画プロセッサ910は、これらのオ
ブジェクトデータやテクスチャに基づいて、Zバッファ
などを利用した陰面消去を行いながら、オブジェクトを
フレームバッファ922に高速に描画する。また、描画
プロセッサ910は、αブレンディング(半透明処
理)、デプスキューイング、ミップマッピング、フォグ
処理、トライリニア・フィルタリング、アンチエリアシ
ング、シェーディング処理なども行うことができる。そ
して、1フレーム分の画像がフレームバッファ922に
書き込まれると、その画像はディスプレイ912に表示
される。
The drawing processor 910 executes a high-speed drawing (rendering) process of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900
Uses the function of the DMA controller 970 to pass object data to the drawing processor 910,
If necessary, the texture is transferred to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and the texture. The drawing processor 910 can also perform α blending (translucent processing), depth queuing, mip mapping, fog processing, trilinear filtering, anti-aliasing, shading processing, and the like. Then, when an image for one frame is written to the frame buffer 922, the image is displayed on the display 912.

【0107】サウンドプロセッサ930は、多チャンネ
ルのADPCM音源などを内蔵し、BGM、効果音、音
声などの高品位のゲーム音を生成する。生成されたゲー
ム音は、スピーカ932から出力される。
The sound processor 930 incorporates a multi-channel ADPCM sound source and the like, and generates high-quality game sounds such as BGM, sound effects, and sounds. The generated game sound is output from the speaker 932.

【0108】ゲームコントローラ942からの操作デー
タや、メモリカード944からのセーブデータ、個人デ
ータは、シリアルインターフェース940を介してデー
タ転送される。
The operation data from the game controller 942, the save data and the personal data from the memory card 944 are transferred via the serial interface 940.

【0109】ROM950にはシステムプログラムなど
が格納される。なお、業務用ゲームシステムの場合に
は、ROM950が情報記憶媒体として機能し、ROM
950に各種プログラムが格納されることになる。な
お、ROM950の代わりにハードディスクを利用する
ようにしてもよい。
The ROM 950 stores a system program and the like. In the case of the arcade game system, the ROM 950 functions as an information storage medium,
Various programs are stored in 950. Note that a hard disk may be used instead of the ROM 950.

【0110】RAM960は、各種プロセッサの作業領
域として用いられる。
The RAM 960 is used as a work area for various processors.

【0111】DMAコントローラ970は、プロセッ
サ、メモリ(RAM、VRAM、ROM等)間でのDM
A転送を制御するものである。
[0111] The DMA controller 970 provides a DM between the processor and the memory (RAM, VRAM, ROM, etc.).
A transfer is controlled.

【0112】CDドライブ980は、プログラム、画像
データ、或いは音データなどが格納されるCD982
(情報記憶媒体)を駆動し、これらのプログラム、デー
タへのアクセスを可能にする。
A CD drive 980 stores a CD 982 in which programs, image data, sound data, and the like are stored.
(Information storage medium) to enable access to these programs and data.

【0113】通信インターフェース990は、ネットワ
ークを介して外部との間でデータ転送を行うためのイン
ターフェースである。この場合に、通信インターフェー
ス990に接続されるネットワークとしては、通信回線
(アナログ電話回線、ISDN)、高速シリアルバスな
どを考えることができる。そして、通信回線を利用する
ことでインターネットを介したデータ転送が可能にな
る。また、高速シリアルバスを利用することで、他の画
像生成システム、他のゲームシステムとの間でのデータ
転送が可能になる。
The communication interface 990 is an interface for transferring data to and from the outside via a network. In this case, a network connected to the communication interface 990 may be a communication line (analog telephone line, ISDN), a high-speed serial bus, or the like. Then, data can be transferred via the Internet by using a communication line. Further, by using the high-speed serial bus, data transfer between another image generation system and another game system becomes possible.

【0114】なお、本発明の各手段は、その全てを、ハ
ードウェアのみにより実行してもよいし、情報記憶媒体
に格納されるプログラムや通信インターフェースを介し
て配信されるプログラムのみにより実行してもよい。或
いは、ハードウェアとプログラムの両方により実行して
もよい。
It should be noted that each means of the present invention may be entirely executed by hardware only, or executed only by a program stored in an information storage medium or a program distributed via a communication interface. Is also good. Alternatively, it may be executed by both hardware and a program.

【0115】そして、本発明の各手段をハードウェアと
プログラムの両方により実行する場合には、情報記憶媒
体には、本発明の各手段をハードウェアを利用して実行
するためのプログラムが格納されることになる。より具
体的には、上記プログラムが、ハードウェアである各プ
ロセッサ902、904、906、910、930等に
処理を指示すると共に、必要であればデータを渡す。そ
して、各プロセッサ902、904、906、910、
930等は、その指示と渡されたデータとに基づいて、
本発明の各手段を実行することになる。
When each means of the present invention is executed by both hardware and a program, a program for executing each means of the present invention using hardware is stored in the information storage medium. Will be. More specifically, the program instructs the processors 902, 904, 906, 910, 930, etc., which are hardware, to perform processing, and passes data if necessary. Then, each processor 902, 904, 906, 910,
930 etc., based on the instruction and the passed data,
Each means of the present invention will be executed.

【0116】図20(A)に、本実施形態を業務用ゲー
ムシステムに適用した場合の例を示す。プレーヤは、デ
ィスプレイ1100上に映し出されたゲーム画像を見な
がら、レバー1102、ボタン1104等を操作してゲ
ームを楽しむ。内蔵されるシステムボード(サーキット
ボード)1106には、各種プロセッサ、各種メモリな
どが実装される。そして、本発明の各手段を実行するた
めの情報(プログラム又はデータ)は、システムボード
1106上の情報記憶媒体であるメモリ1108に格納
される。以下、この情報を格納情報と呼ぶ。
FIG. 20A shows an example in which the present embodiment is applied to an arcade game system. The player enjoys the game by operating the lever 1102, the button 1104, and the like while watching the game image projected on the display 1100. Various processors, various memories, and the like are mounted on a built-in system board (circuit board) 1106. Information (program or data) for executing each unit of the present invention is stored in a memory 1108 which is an information storage medium on the system board 1106. Hereinafter, this information is referred to as storage information.

【0117】図20(B)に、本実施形態を家庭用のゲ
ームシステムに適用した場合の例を示す。プレーヤはデ
ィスプレイ1200に映し出されたゲーム画像を見なが
ら、ゲームコントローラ1202、1204を操作して
ゲームを楽しむ。この場合、上記格納情報は、本体シス
テムに着脱自在な情報記憶媒体であるCD1206、或
いはメモリカード1208、1209等に格納されてい
る。
FIG. 20B shows an example in which the present embodiment is applied to a home game system. The player enjoys the game by operating the game controllers 1202 and 1204 while watching the game image projected on the display 1200. In this case, the storage information is stored in a CD 1206 or a memory card 1208, 1209, which is an information storage medium detachable from the main system.

【0118】図20(C)に、ホスト装置1300と、
このホスト装置1300とネットワーク1302(LA
Nのような小規模ネットワークや、インターネットのよ
うな広域ネットワーク)を介して接続される端末130
4-1〜1304-nとを含むシステムに本実施形態を適用
した場合の例を示す。この場合、上記格納情報は、例え
ばホスト装置1300が制御可能な磁気ディスク装置、
磁気テープ装置、メモリ等の情報記憶媒体1306に格
納されている。端末1304-1〜1304-nが、スタン
ドアロンでゲーム画像、ゲーム音を生成できるものであ
る場合には、ホスト装置1300からは、ゲーム画像、
ゲーム音を生成するためのゲームプログラム等が端末1
304-1〜1304-nに配送される。一方、スタンドア
ロンで生成できない場合には、ホスト装置1300がゲ
ーム画像、ゲーム音を生成し、これを端末1304-1〜
1304-nに伝送し端末において出力することになる。
FIG. 20C shows a host device 1300,
The host device 1300 and the network 1302 (LA
N or a wide area network such as the Internet).
An example in which the present embodiment is applied to a system including 4-1 to 1304-n will be described. In this case, the storage information is, for example, a magnetic disk device that can be controlled by the host device 1300,
It is stored in an information storage medium 1306 such as a magnetic tape device and a memory. If the terminals 1304-1 to 1304-n are capable of generating a game image and a game sound in a stand-alone manner, the host device 1300 outputs the game image and the game sound.
A game program or the like for generating game sounds is transmitted to the terminal 1.
It is delivered to 304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, and transmits them to the terminals 1304-1 to 1304-1.
1304-n and output at the terminal.

【0119】なお、図20(C)の構成の場合に、本発
明の各手段を、ホスト装置(サーバー)と端末とで分散
して実行するようにしてもよい。また、本発明の各手段
を実行するための上記格納情報を、ホスト装置(サーバ
ー)の情報記憶媒体と端末の情報記憶媒体に分散して格
納するようにしてもよい。
In the case of the configuration shown in FIG. 20 (C), each means of the present invention may be executed in a distributed manner between a host device (server) and a terminal. Further, the storage information for executing each means of the present invention may be stored separately in an information storage medium of a host device (server) and an information storage medium of a terminal.

【0120】またネットワークに接続する端末は、家庭
用ゲームシステムであってもよいし業務用ゲームシステ
ムであってもよい。そして、業務用ゲームシステムをネ
ットワークに接続する場合には、業務用ゲームシステム
との間で情報のやり取りが可能であると共に家庭用ゲー
ムシステムとの間でも情報のやり取りが可能な携帯型情
報記憶装置(メモリカード、携帯型ゲーム装置)を用い
ることが望ましい。
The terminal connected to the network may be a home game system or an arcade game system. When the arcade game system is connected to a network, a portable information storage device capable of exchanging information with the arcade game system and exchanging information with the home game system. (Memory card, portable game device) is desirable.

【0121】なお本発明は、上記実施形態で説明したも
のに限らず、種々の変形実施が可能である。
The present invention is not limited to the embodiment described above, and various modifications can be made.

【0122】例えば、本発明のうち従属請求項に係る発
明においては、従属先の請求項の構成要件の一部を省略
する構成とすることもできる。また、本発明の1の独立
請求項に係る発明の要部を、他の独立請求項に従属させ
ることもできる。
For example, in the invention according to the dependent claims of the present invention, a configuration in which some of the constituent elements of the dependent claims are omitted may be adopted. In addition, a main part of the invention according to one independent claim of the present invention may be made dependent on another independent claim.

【0123】また本発明の移動オブジェクトはロールプ
レイングゲームに登場するキャラクタなどであることが
特に望ましく、移動オブジェクトの移動フィールドとな
る2次元画像は、ロールプレイングゲームにおける町な
どのマップ画像であることが特に望ましいが、本発明は
これに限定されない。
The moving object of the present invention is particularly preferably a character or the like appearing in a role playing game, and the two-dimensional image serving as a moving field of the moving object is a map image of a town or the like in the role playing game. Although particularly desirable, the invention is not so limited.

【0124】また移動オブジェクトの第2の奥行き値を
求める手法は、図7〜図11などで説明した手法が特に
望ましいが、これに限定されるものではない。また移動
オブジェクトの陰面消去の手法も図5などで説明した手
法が特に望ましいが、これに限定されるものではない。
The method for obtaining the second depth value of the moving object is particularly preferably the method described with reference to FIGS. 7 to 11, but is not limited to this. Also, the technique described with reference to FIG. 5 and the like is particularly desirable as a technique for removing the hidden surface of the moving object, but the technique is not limited to this.

【0125】また、第1、第2の奥行き値の比較は、Z
バッファ法の描画機能を有するハードウェアにより行う
ようにしてもよいし、ソフトウェアにより行うようにし
てもよい。
The comparison between the first and second depth values is as follows.
It may be performed by hardware having a drawing function of the buffer method, or may be performed by software.

【0126】また第1の奥行き値や描画プライオリティ
値は、分割圧縮して記憶手段(メモリ)に保持してお
き、処理が必要な領域での第1の奥行き値、描画プライ
オリティ値のみを解凍して使用することが望ましい。こ
のようにすることで、記憶手段の使用効率を高めること
ができる。
The first depth value and the drawing priority value are divided and compressed and stored in the storage means (memory), and only the first depth value and the drawing priority value in the area requiring processing are decompressed. It is desirable to use it. By doing so, the use efficiency of the storage means can be increased.

【0127】また本実施形態では移動オブジェクトが2
次元のオブジェクトである場合について説明したが、移
動オブジェクトは3次元のオブジェクトであってもよ
い。この場合には、背景となる2次元画像(実写画像、
CG画像)を移動フィールドとして、3次元の移動オブ
ジェクト(ポリゴンなどのプリミティブ面で構成された
オブジェクト)が移動することになる。
In this embodiment, when the moving object is 2
Although the case where the moving object is a three-dimensional object has been described, the moving object may be a three-dimensional object. In this case, a two-dimensional image (actual image,
With the CG image) as a moving field, a three-dimensional moving object (an object constituted by a primitive surface such as a polygon) moves.

【0128】また本発明は種々のゲーム(ロールプレイ
ングゲーム、アクションゲーム、シューティングゲー
ム、格闘ゲーム、ロボット対戦ゲーム、スポーツゲー
ム、競争ゲーム、音楽演奏ゲーム、ダンスゲーム等)に
適用できる。
The present invention can be applied to various games (role playing games, action games, shooting games, fighting games, robot fighting games, sports games, competition games, music playing games, dance games, etc.).

【0129】また本発明は、業務用ゲームシステム、家
庭用ゲームシステム、多数のプレーヤが参加する大型ア
トラクションシステム、シミュレータ、マルチメディア
端末、ゲーム画像を生成するシステムボード等の種々の
画像生成システムに適用できる。
The present invention is applied to various image generation systems such as arcade game systems, home game systems, large attraction systems in which a large number of players participate, simulators, multimedia terminals, and system boards for generating game images. it can.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態の画像生成システムのブロック図の
例である。
FIG. 1 is an example of a block diagram of an image generation system according to an embodiment.

【図2】2次元画像を移動フィールドとして移動するキ
ャラクタの陰面消去について説明するための図である。
FIG. 2 is a diagram for explaining hidden surface elimination of a character moving using a two-dimensional image as a moving field.

【図3】2次元画像の各ピクセルに対して奥行き値Z1
を設定する手法について説明するための図である。
FIG. 3 shows a depth value Z1 for each pixel of a two-dimensional image.
FIG. 6 is a diagram for describing a method of setting a value.

【図4】2次元画像の各ピクセルに対して奥行き値Z1
を設定する手法について説明するための図である。
FIG. 4 shows a depth value Z1 for each pixel of a two-dimensional image.
FIG. 6 is a diagram for describing a method of setting a value.

【図5】2次元画像の各ピクセルに設定された奥行き値
Z1とキャラクタの奥行き値Z2とに基づいて陰面消去
を行う手法について説明するための図である。
FIG. 5 is a diagram for explaining a method of performing hidden surface removal based on a depth value Z1 set for each pixel of a two-dimensional image and a character depth value Z2.

【図6】図6(A)、(B)、(C)は、描画順序を制
御する比較例の手法について説明するための図である。
FIGS. 6A, 6B, and 6C are diagrams for explaining a method of a comparative example for controlling a drawing order. FIG.

【図7】2次元画像の各ピクセルに対して描画プライオ
リティ値PRを設定する手法について説明するための図
である。
FIG. 7 is a diagram for explaining a method of setting a drawing priority value PR for each pixel of a two-dimensional image.

【図8】各オブジェクトの下側境界線の設定手法につい
て説明するための図である。
FIG. 8 is a diagram for describing a method of setting a lower boundary line of each object.

【図9】図9(A)、(B)は、下側境界線に基づき2
次元画像を複数の領域に分割する手法について説明する
ための図である。
9 (A) and 9 (B) show two diagrams based on the lower boundary line.
FIG. 4 is a diagram for describing a method of dividing a two-dimensional image into a plurality of regions.

【図10】図10(A)、(B)は、分割された各領域
に描画プライオリティ値を設定する手法について説明す
るための図である。
FIGS. 10A and 10B are diagrams for explaining a method of setting a drawing priority value in each divided area.

【図11】各領域に設定された描画プライオリティ値に
基づきキャラクタの奥行き値Z2を決定する手法につい
て説明するための図である。
FIG. 11 is a diagram for describing a method of determining a depth value Z2 of a character based on a drawing priority value set for each region.

【図12】キャラクタの移動経路(移動履歴)に基づい
てキャラクタの奥行き値Z2を決定する手法について説
明するための図である。
FIG. 12 is a diagram for explaining a method of determining a depth value Z2 of a character based on a movement route (movement history) of the character.

【図13】図13(A)、(B)は、オブジェクトの下
側境界線を所与の距離だけ延長する手法について説明す
るための図である。
FIGS. 13A and 13B are diagrams for explaining a method of extending a lower boundary line of an object by a given distance.

【図14】キャラクタの描画処理の例について示すフロ
ーチャートである。
FIG. 14 is a flowchart illustrating an example of a character drawing process.

【図15】描画プライオリティ値の設定処理の例につい
て示すフローチャートである。
FIG. 15 is a flowchart illustrating an example of a setting process of a drawing priority value.

【図16】描画プライオリティ値の設定処理について説
明するための図である。
FIG. 16 is a diagram for describing a setting process of a drawing priority value.

【図17】キャラクタの位置での描画プライオリティ値
の取得処理の例について示すフローチャートである。
FIG. 17 is a flowchart illustrating an example of processing for acquiring a drawing priority value at a character position.

【図18】キャラクタの位置での描画プライオリティ値
の取得処理について説明するための図である。
FIG. 18 is a diagram for describing a process of acquiring a drawing priority value at a character position.

【図19】本実施形態を実現できるハードウェアの構成
の一例を示す図である。
FIG. 19 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.

【図20】図20(A)、(B)、(C)は、本実施形
態が適用される種々の形態のシステムの例を示す図であ
る。
FIGS. 20A, 20B, and 20C are diagrams showing examples of various types of systems to which the present embodiment is applied;

【符号の説明】[Explanation of symbols]

100 処理部 110 ゲーム処理部 130 画像生成部 132 奥行き値演算部 134 描画プライオリティ値取得部 140 描画部 142 陰面消去部 150 音生成部 160 操作部 170 記憶部 172 Zバッファ 180 情報記憶媒体 190 表示部 192 音出力部 194 携帯型情報記憶装置 196 通信部 Reference Signs List 100 processing unit 110 game processing unit 130 image generation unit 132 depth value calculation unit 134 drawing priority value acquisition unit 140 drawing unit 142 hidden surface removal unit 150 sound generation unit 160 operation unit 170 storage unit 172 Z buffer 180 information storage medium 190 display unit 192 Sound output unit 194 Portable information storage device 196 Communication unit

フロントページの続き Fターム(参考) 2C001 BA02 BA05 BC00 BC05 BC08 BC10 BD05 CB01 CB06 CB08 CC02 CC08 5B050 AA09 BA08 BA11 EA19 EA24 EA29 FA02 5B080 FA03 FA08 GA02 Continued on front page F-term (reference) 2C001 BA02 BA05 BC00 BC05 BC08 BC10 BD05 CB01 CB06 CB08 CC02 CC08 5B050 AA09 BA08 BA11 EA19 EA24 EA29 FA02 5B080 FA03 FA08 GA02

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 画像を生成するための画像生成システム
であって、 移動オブジェクトの第2の奥行き値を所与の処理ルーチ
ンにより求める奥行き値演算手段と、 移動オブジェクトの移動フィールドとなる2次元画像の
各ピクセルに対して設定された第1の奥行き値と、前記
奥行き値演算手段により求められた移動オブジェクトの
第2の奥行き値とに基づいて、移動オブジェクトの陰面
消去を行う手段と、 を含むことを特徴とする画像生成システム。
1. An image generation system for generating an image, comprising: a depth value calculating means for obtaining a second depth value of a moving object by a given processing routine; and a two-dimensional image serving as a moving field of the moving object. Means for eliminating hidden surfaces of the moving object based on the first depth value set for each pixel of the moving object and the second depth value of the moving object obtained by the depth value calculating means. An image generation system, characterized in that:
【請求項2】 請求項1において、 前記奥行き値演算手段が、 移動オブジェクトの位置、方向又は移動履歴に基づい
て、移動オブジェクトの第2の奥行き値を求めることを
特徴とする画像生成システム。
2. The image generation system according to claim 1, wherein the depth value calculation means obtains a second depth value of the moving object based on a position, a direction, or a movement history of the moving object.
【請求項3】 請求項1又は2において、 前記奥行き値演算手段が、 移動オブジェクトの最下部に設定された代表点の位置に
基づいて、移動オブジェクトの全てのピクセルについて
の第2の奥行き値を求めることを特徴とする画像生成シ
ステム。
3. The moving object according to claim 1, wherein the depth value calculating means calculates a second depth value for all pixels of the moving object based on a position of a representative point set at a lowermost position of the moving object. An image generation system characterized in that it is obtained.
【請求項4】 請求項1乃至3のいずれかにおいて、 前記奥行き値演算手段が、 移動オブジェクトの移動フィールドとなる2次元画像の
各ピクセルに対して設定された描画プライオリティ値に
基づいて、移動オブジェクトの第2の奥行き値を求める
ことを特徴とする画像生成システム。
4. The moving object according to claim 1, wherein the depth value calculating means determines a moving object based on a drawing priority value set for each pixel of a two-dimensional image serving as a moving field of the moving object. An image generation system, wherein a second depth value is obtained.
【請求項5】 請求項4において、 2次元画像を構成する複数の2次元オブジェクトの下側
境界線に基づいて、2次元画像が複数の領域に分割さ
れ、下側境界線間の位置関係に基づいて、各下側境界線
に対応する各領域の描画プライオリティ値が決定され、
決定された各領域の描画プライオリティ値が、各領域の
ピクセルの描画プライオリティ値として設定されること
を特徴とする画像生成システム。
5. The two-dimensional image according to claim 4, wherein the two-dimensional image is divided into a plurality of regions based on a lower boundary line of the plurality of two-dimensional objects constituting the two-dimensional image, and a positional relationship between the lower boundary lines is determined. Based on this, the drawing priority value of each area corresponding to each lower boundary line is determined,
An image generation system, wherein the determined rendering priority value of each area is set as a rendering priority value of a pixel of each area.
【請求項6】 請求項5において、 2次元オブジェクトの下側境界線を所与の距離だけ延長
した線に基づいて、2次元画像が複数の領域に分割され
ることを特徴とする画像生成システム。
6. The image generation system according to claim 5, wherein the two-dimensional image is divided into a plurality of regions based on a line obtained by extending a lower boundary line of the two-dimensional object by a predetermined distance. .
【請求項7】 請求項6において、 前記所与の距離が、移動オブジェクトの大きさに基づき
特定される距離であることを特徴とする画像生成システ
ム。
7. The image generation system according to claim 6, wherein the given distance is a distance specified based on a size of a moving object.
【請求項8】 コンピュータが使用可能な情報記憶媒体
であって、 移動オブジェクトの第2の奥行き値を所与の処理ルーチ
ンにより求める奥行き値演算手段と、 移動オブジェクトの移動フィールドとなる2次元画像の
各ピクセルに対して設定された第1の奥行き値と、前記
奥行き値演算手段により求められた移動オブジェクトの
第2の奥行き値とに基づいて、移動オブジェクトの陰面
消去を行う手段と、 を実行するためのプログラムを含むことを特徴とする情
報記憶媒体。
8. An information storage medium usable by a computer, comprising: depth value calculating means for obtaining a second depth value of a moving object by a given processing routine; and a two-dimensional image of a moving field of the moving object. Means for eliminating hidden surfaces of the moving object based on the first depth value set for each pixel and the second depth value of the moving object obtained by the depth value calculating means. An information storage medium characterized by including a program for storing information.
【請求項9】 請求項8において、 前記奥行き値演算手段が、 移動オブジェクトの位置、方向又は移動履歴に基づい
て、移動オブジェクトの第2の奥行き値を求めることを
特徴とする情報記憶媒体。
9. The information storage medium according to claim 8, wherein the depth value calculating means obtains a second depth value of the moving object based on a position, a direction, or a movement history of the moving object.
【請求項10】 請求項8又は9において、 前記奥行き値演算手段が、 移動オブジェクトの最下部に設定された代表点の位置に
基づいて、移動オブジェクトの全てのピクセルについて
の第2の奥行き値を求めることを特徴とする情報記憶媒
体。
10. The moving object according to claim 8, wherein the depth value calculating means calculates a second depth value for all pixels of the moving object based on a position of a representative point set at a lowermost position of the moving object. An information storage medium characterized by the following.
【請求項11】 請求項8乃至10のいずれかにおい
て、 前記奥行き値演算手段が、 移動オブジェクトの移動フィールドとなる2次元画像の
各ピクセルに対して設定された描画プライオリティ値に
基づいて、移動オブジェクトの第2の奥行き値を求める
ことを特徴とする情報記憶媒体。
11. The moving object according to claim 8, wherein the depth value calculating means sets a moving object based on a drawing priority value set for each pixel of a two-dimensional image serving as a moving field of the moving object. An information storage medium, wherein a second depth value is obtained.
【請求項12】 請求項11において、 2次元画像を構成する複数の2次元オブジェクトの下側
境界線に基づいて、2次元画像が複数の領域に分割さ
れ、下側境界線間の位置関係に基づいて、各下側境界線
に対応する各領域の描画プライオリティ値が決定され、
決定された各領域の描画プライオリティ値が、各領域の
ピクセルの描画プライオリティ値として設定されること
を特徴とする情報記憶媒体。
12. The two-dimensional image according to claim 11, wherein the two-dimensional image is divided into a plurality of regions based on a lower boundary line of a plurality of two-dimensional objects constituting the two-dimensional image. Based on this, the drawing priority value of each area corresponding to each lower boundary line is determined,
An information storage medium, wherein the determined drawing priority value of each region is set as a drawing priority value of a pixel of each region.
【請求項13】 請求項12において、 2次元オブジェクトの下側境界線を所与の距離だけ延長
した線に基づいて、2次元画像が複数の領域に分割され
ることを特徴とする情報記憶媒体。
13. The information storage medium according to claim 12, wherein the two-dimensional image is divided into a plurality of regions based on a line obtained by extending a lower boundary line of the two-dimensional object by a predetermined distance. .
【請求項14】 請求項13において、 前記所与の距離が、移動オブジェクトの大きさに基づき
特定される距離であることを特徴とする情報記憶媒体。
14. The information storage medium according to claim 13, wherein the given distance is a distance specified based on a size of a moving object.
JP36608799A 1999-12-24 1999-12-24 Image forming system and an information storage medium Pending JP2001184515A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36608799A JP2001184515A (en) 1999-12-24 1999-12-24 Image forming system and an information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36608799A JP2001184515A (en) 1999-12-24 1999-12-24 Image forming system and an information storage medium

Publications (1)

Publication Number Publication Date
JP2001184515A true JP2001184515A (en) 2001-07-06

Family

ID=18485898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36608799A Pending JP2001184515A (en) 1999-12-24 1999-12-24 Image forming system and an information storage medium

Country Status (1)

Country Link
JP (1) JP2001184515A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011206461A (en) * 2010-03-30 2011-10-20 Kyoraku Sangyo Kk Game machine
JP2011206460A (en) * 2010-03-30 2011-10-20 Kyoraku Sangyo Kk Game machine
JP5367919B1 (en) * 2013-07-22 2013-12-11 株式会社 ディー・エヌ・エー Image processing apparatus and image processing program
JP2015022746A (en) * 2013-09-11 2015-02-02 株式会社 ディー・エヌ・エー Image processing apparatus and image processing program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011206461A (en) * 2010-03-30 2011-10-20 Kyoraku Sangyo Kk Game machine
JP2011206460A (en) * 2010-03-30 2011-10-20 Kyoraku Sangyo Kk Game machine
JP5367919B1 (en) * 2013-07-22 2013-12-11 株式会社 ディー・エヌ・エー Image processing apparatus and image processing program
WO2015012164A1 (en) * 2013-07-22 2015-01-29 株式会社 ディー・エヌ・エー Image processing device and image processing program
JP2015022746A (en) * 2013-09-11 2015-02-02 株式会社 ディー・エヌ・エー Image processing apparatus and image processing program

Similar Documents

Publication Publication Date Title
US20040209684A1 (en) Method of controlling game system, program, information storage medium and game system
JP2002208027A (en) Image generation system, program and information storage medium
JP3249955B2 (en) Image generation system and information storage medium
JP4610748B2 (en) Image generation system, program, and information storage medium
JP2001319244A (en) Game system and information storage medium
JP3280355B2 (en) Image generation system and information storage medium
US7106324B1 (en) Image generating system and program
JP2007105499A (en) Game system, program and information storage medium
JP2002092633A (en) Game system and information storage medium
JP3350655B2 (en) Game system and information storage medium
JP2001184515A (en) Image forming system and an information storage medium
JP4651204B2 (en) Image generation system, program, and information storage medium
JP4245356B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP3297410B2 (en) Image generation system and information storage medium
JP2001229403A (en) Game system and information storage medium
JP2001167291A (en) Image generating system and information storage medium
JP3254195B2 (en) Image generation system and information storage medium
JP4412692B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2002092637A (en) Game system and information storage medium
JP2002042162A (en) Game system and information storage medium
JP3292713B2 (en) Image generation system and information storage medium
JP4803909B2 (en) Image generation system, program, and information storage medium
JP2006318196A (en) Program, information storage medium and image generation system
JP4610729B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4624527B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090410

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090513