JP2001184523A - Image generating system and information storage medium - Google Patents

Image generating system and information storage medium

Info

Publication number
JP2001184523A
JP2001184523A JP36959599A JP36959599A JP2001184523A JP 2001184523 A JP2001184523 A JP 2001184523A JP 36959599 A JP36959599 A JP 36959599A JP 36959599 A JP36959599 A JP 36959599A JP 2001184523 A JP2001184523 A JP 2001184523A
Authority
JP
Japan
Prior art keywords
data
movie
image
moving
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP36959599A
Other languages
Japanese (ja)
Inventor
Chikara Nishikadoi
能 西角井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP36959599A priority Critical patent/JP2001184523A/en
Publication of JP2001184523A publication Critical patent/JP2001184523A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image generating system and an information storage medium, by which the hidden-surface removal of a moving object is performed in a movie by providing the movie with depth. SOLUTION: A depth value Z1 is included in movie data for reproducing the movie, the hidden-surface removal is performed on the basis of this depth value Z1 and a depth value Z2 of a character, and an image compositing the movie and a character 10 is plotted. Hit area data (such as hit area flag or height of a hit area) for specifying the hit area are contained in the movie data and the hit check of the character and the hit area is performed on the basis of the hit area data. Moving route data or moving data are contained in the movie data, the depth value Z1 is included in the data of an image in the final frame of movie reproducing, the hidden-surface removal is performed on the basis of the depth value Z1 and the depth value Z2 of the character, and an image compositing the final frame image and the character is plotted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像生成システム
及び情報記憶媒体に関する。
[0001] The present invention relates to an image generation system and an information storage medium.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】従来よ
り、仮想的な3次元空間であるオブジェクト空間内の所
与の視点から見える画像を生成する画像生成システムが
知られており、いわゆる仮想現実を体験できるものとし
て人気が高い。
2. Description of the Related Art Conventionally, there has been known an image generation system for generating an image which can be viewed from a given viewpoint in an object space which is a virtual three-dimensional space. It is popular as an experience.

【0003】このような画像生成システムでは、ゲーム
のオープニング、幕間、エンディングなどにおいて、プ
レーヤのゲーム意欲を盛り上げたりプレーヤの感動を高
めるために、いわゆるムービー(動画)と呼ばれるもの
が再生される。このムービーでは、CGツールにより制
作されたCG映像や実写映像が再生されるため、ポリゴ
ン(プリミティブ面)により構成された3次元オブジェ
クトをリアルタイムに動かすことで生成される画像に比
べて、よりリアルで写実的な表現が可能になる。
In such an image generation system, a so-called movie (moving image) is reproduced at the opening, the intermission, and the ending of the game in order to excite the player's desire for the game and to enhance the player's excitement. In this movie, a CG image or a live-action image produced by a CG tool is reproduced, so that the movie is more realistic than an image generated by moving a three-dimensional object composed of polygons (primitive surfaces) in real time. Realistic expression becomes possible.

【0004】しかしながら、これまでの画像生成システ
ムでは、ムービー再生のためのデータであるムービーデ
ータが、2次元画像データや音データしか含まなかっ
た。従って、例えばムービーとキャラクタ(広義には移
動オブジェクト)が合成された画像を生成しようとする
と、キャラクタがムービーの手前に常に表示されるよう
になり、リアル感に欠ける画像が生成されてしまう。
[0004] However, in the conventional image generation system, movie data, which is data for reproducing a movie, includes only two-dimensional image data and sound data. Therefore, for example, when trying to generate an image in which a movie and a character (moving object in a broad sense) are combined, the character is always displayed in front of the movie, and an image lacking in realism is generated.

【0005】本発明は、以上のような課題に鑑みてなさ
れたものであり、その目的とするところは、ムービーに
奥行きを持たせて、ムービーによる移動オブジェクトの
陰面消去を可能にする画像生成システム及び情報記憶媒
体を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and has as its object to provide an image generation system that allows a movie to have a depth so that the hidden surface of a moving object can be eliminated by the movie. And an information storage medium.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するため
に、本発明は、画像を生成するための画像生成システム
であって、ムービー再生のためのデータであって奥行き
値データを含むムービーデータを記憶するムービーデー
タ記憶手段と、ムービーデータが含む第1の奥行き値デ
ータと移動オブジェクトの第2の奥行き値データとに基
づいて陰面消去を行いながら、ムービーと移動オブジェ
クトとが合成された画像を描画する描画手段とを含むこ
とを特徴とする。また本発明に係る情報記憶媒体は、コ
ンピュータにより使用可能な情報記憶媒体であって、上
記手段を実現(実行)するためのプログラムを含むこと
を特徴とする。また本発明に係るプログラムは、コンピ
ュータにより使用可能なプログラム(搬送波に具現化さ
れるプログラムを含む)であって、上記手段を実現(実
行)するための処理ルーチンを含むことを特徴とする。
According to one aspect of the present invention, there is provided an image generation system for generating an image, comprising: data for reproducing a movie, the movie data including depth value data; Means for storing a movie and a moving object while performing hidden surface removal based on the first depth value data included in the movie data and the second depth value data of the moving object. And drawing means for drawing. An information storage medium according to the present invention is an information storage medium that can be used by a computer, and includes a program for implementing (executing) the above means. Further, the program according to the present invention is a program usable by a computer (including a program embodied in a carrier wave), and includes a processing routine for realizing (executing) the above means.

【0007】本発明によれば、ムービー再生のためのデ
ータであるムービーデータ(CG映像、実写映像等)
が、第1の奥行き値データを含む。そして、この第1の
奥行き値データと移動オブジェクト(キャラクタ等)の
第2の奥行き値データとに基づいて陰面消去が行われ
る。これにより、ムービーを構成する表示物の物陰に移
動オブジェクトが隠れるなどの画像表現が可能になる。
従って、2次元映像であるムービーにあたかも奥行きが
あるかのように、プレーヤを錯覚させることができ、プ
レーヤの仮想現実感を高めることができる。しかも、背
景などをムービーで表現すれば、背景をポリゴン(プリ
ミティブ面)で表現する場合に比べて、よりリアルで写
実的な画像表現が可能になると共に、製品の低コスト化
や開発期間の短縮化を図れる。
[0007] According to the present invention, movie data (CG video, actual video, etc.) which is data for movie playback
Include the first depth value data. Then, hidden surface elimination is performed based on the first depth value data and the second depth value data of the moving object (such as a character). As a result, it is possible to express an image such that a moving object is hidden behind a display object constituting a movie.
Therefore, the player can be illusioned as if the movie which is a two-dimensional video has depth, and the virtual reality of the player can be enhanced. In addition, when the background is represented by a movie, it is possible to express a more realistic and realistic image than when the background is represented by a polygon (primitive surface), and the cost of the product and the development period are shortened. Can be achieved.

【0008】なお、第1、第2の奥行き値データに基づ
く陰面消去は、Zバッファを用いたZバッファ法により
行うことが望ましい。また移動オブジェクトは、複数の
プリミティブ面(ポリゴン、曲面等)により構成するこ
とが望ましい。
It is preferable that the hidden surface elimination based on the first and second depth value data is performed by a Z buffer method using a Z buffer. Further, it is desirable that the moving object be constituted by a plurality of primitive surfaces (polygons, curved surfaces, etc.).

【0009】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記ムービーデータ記憶手
段に記憶されるムービーデータが、ヒットエリアを特定
するためのヒットエリアデータを含み、前記ヒットエリ
アデータに基づいて移動オブジェクトとヒットエリアと
のヒットチェックを行う手段(該手段を実現するための
プログラム、処理ルーチン)を含むことを特徴とする。
このようすることで、ムービーの中の表示物と移動オブ
ジェクトとの間のヒットチェックが可能になる。従っ
て、ムービーの中の表示物が障害となって移動オブジェ
クトが移動できないなどのゲーム状況を作り出すことが
できる。これにより、ムービーの中の表示物がポリゴン
等で構成されているかのような錯覚を、プレーヤに与え
ることが可能になり、プレーヤの仮想現実感を高めるこ
とができる。
Further, in the image generation system, the information storage medium and the program according to the present invention, the movie data stored in the movie data storage means includes hit area data for specifying a hit area, and It is characterized by including means (a program and a processing routine for realizing the means) for performing a hit check between the moving object and the hit area based on the moving object.
In this way, it is possible to perform a hit check between a display object and a moving object in a movie. Therefore, it is possible to create a game situation in which a display object in the movie becomes an obstacle and the moving object cannot move. This makes it possible to give the player an illusion as if the display object in the movie is composed of polygons and the like, and it is possible to enhance the virtual reality of the player.

【0010】なお、ヒットチェック処理においては、ム
ービーに登場する表示物の底面をヒットエリアとし、こ
のヒットエリアと、移動オブジェクトの最下部に設定さ
れた代表点との間で、ヒットチェックを行うことが望ま
しい。
In the hit check process, the bottom of a display object appearing in a movie is defined as a hit area, and a hit check is performed between the hit area and a representative point set at the bottom of the moving object. Is desirable.

【0011】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記ヒットエリアデータ
が、ヒットエリアに関する高さデータを含むことを特徴
とする。このようにすることで、ムービーの中の表示物
の高さも考慮したヒットチェック処理などが可能にな
る。
Further, in the image generation system, the information storage medium, and the program according to the present invention, the hit area data includes height data relating to the hit area. This makes it possible to perform a hit check process in consideration of the height of the display object in the movie.

【0012】なお、ヒットエリアデータとしては、この
高さデータの他にも、画像の各ピクセルがヒットエリア
か否かを示すヒットエリアフラグなどを考えることがで
きる。
As the hit area data, in addition to the height data, a hit area flag indicating whether each pixel of the image is a hit area or the like can be considered.

【0013】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記ムービーデータ記憶手
段に記憶されるムービーデータが、移動オブジェクトの
移動経路を決めるための移動経路データを含み、前記移
動経路データに基づいて移動オブジェクトを移動させる
手段(該手段を実現するためのプログラム、処理ルーチ
ン)を含むことを特徴とする。このようにすれば、ムー
ビーの中の表示物の存在により、移動オブジェクトの移
動経路を変更するなどの処理が可能になり、表示物を避
けるように移動オブジェクトを移動させることが可能に
なる。
[0013] In the image generation system, the information storage medium and the program according to the present invention, the movie data stored in the movie data storage means includes moving path data for determining a moving path of a moving object. It is characterized by including means for moving the moving object based on the data (programs and processing routines for realizing the means). This makes it possible to perform a process such as changing the moving path of the moving object due to the presence of the display object in the movie, and to move the moving object so as to avoid the display object.

【0014】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記ムービーデータ記憶手
段に記憶されるムービーデータが、移動オブジェクトを
移動させるための移動データを含み、前記移動データに
基づいて移動オブジェクトを移動させる手段(該手段を
実現するためのプログラム、処理ルーチン)を含むこと
を特徴とする。このようにすれば、ムービーの中の表示
物の動きに連動させて移動オブジェクトを移動させた
り、ムービー全体の動きに連動させて、移動オブジェク
トを移動させることなどが可能になる。
[0014] In the image generation system, the information storage medium and the program according to the present invention, the movie data stored in the movie data storage means includes movement data for moving a moving object, and the movie data is stored on the basis of the movement data. It is characterized by including means for moving the moving object (programs and processing routines for realizing the means). This makes it possible to move the moving object in conjunction with the movement of the display object in the movie, or to move the moving object in conjunction with the movement of the entire movie.

【0015】なお、移動データとしては、移動量を表す
移動値や、移動エリアを特定するための移動エリアフラ
グなどを考えることができる。
As the movement data, a movement value indicating a movement amount, a movement area flag for specifying a movement area, and the like can be considered.

【0016】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、ムービーデータが含む前記
第1の奥行き値データが、ムービーを構成する各画像の
各ピクセルに対して設定されていることを特徴とする。
このように各画像(フレーム画像)の各ピクセルに対し
て第1の奥行き値データを設定することで、より精密で
正確な陰面消去が可能になる。
Further, the image generation system, the information storage medium, and the program according to the present invention, wherein the first depth value data included in the movie data is set for each pixel of each image constituting the movie. Features.
By setting the first depth value data for each pixel of each image (frame image) in this manner, more accurate and accurate hidden surface removal can be performed.

【0017】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、ムービー再生の最終フレー
ムの画像のデータが前記第1の奥行き値データを含み、
前記描画手段が、ムービー再生の最終フレームの画像の
データが含む第1の奥行き値データと移動オブジェクト
の第2の奥行き値データとに基づいて陰面消去を行いな
がら、最終フレームの画像と移動オブジェクトとが合成
された画像を描画することを特徴とする。このようにす
れば、オープニング用ムービーや幕間用ムービーの再生
の後、切れ目無くゲームを開始できるようになり、プレ
ーヤは、自然にゲーム世界に入り込むことができるよう
になる。
Further, in the image generation system, the information storage medium and the program according to the present invention, the data of the image of the last frame of the movie reproduction includes the first depth value data,
The drawing unit performs hidden surface elimination based on the first depth value data included in the data of the image of the last frame of the movie playback and the second depth value data of the moving object, and generates the image of the last frame and the moving object. Is characterized by drawing a combined image. In this way, after the opening movie or the intermission movie is played, the game can be started without a break, and the player can naturally enter the game world.

【0018】[0018]

【発明の実施の形態】以下、本発明の好適な実施形態に
ついて図面を用いて説明する。
Preferred embodiments of the present invention will be described below with reference to the drawings.

【0019】1.構成 図1に、本実施形態のブロック図の一例を示す。なお同
図において本実施形態は、少なくとも処理部100を含
めばよく(或いは処理部100と記憶部170、或いは
処理部100と記憶部170と情報記憶媒体180を含
めばよく)、それ以外のブロック(例えば操作部16
0、表示部190、音出力部192、携帯型情報記憶装
置194、通信部196)については、任意の構成要素
とすることができる。
1. Configuration FIG. 1 shows an example of a block diagram of the present embodiment. In the figure, the present embodiment only needs to include at least the processing unit 100 (or may include the processing unit 100 and the storage unit 170, or the processing unit 100 and the storage unit 170 and the information storage medium 180), and other blocks. (For example, the operation unit 16
0, the display unit 190, the sound output unit 192, the portable information storage device 194, and the communication unit 196) can be optional components.

【0020】ここで処理部100は、システム全体の制
御、システム内の各ブロックへの命令の指示、ゲーム処
理、画像処理、音処理などの各種の処理を行うものであ
り、その機能は、各種プロセッサ(CPU、DSP
等)、或いはASIC(ゲートアレイ等)などのハード
ウェアや、所与のプログラム(ゲームプログラム)によ
り実現できる。
The processing unit 100 performs various processes such as control of the entire system, instruction of each block in the system, game processing, image processing, and sound processing. Processor (CPU, DSP)
Or an ASIC (gate array or the like) or a given program (game program).

【0021】操作部160は、プレーヤが操作データを
入力するためのものであり、その機能は、レバー、ボタ
ン、筺体などのハードウェアにより実現できる。
The operation section 160 is used by a player to input operation data, and its function can be realized by hardware such as a lever, a button, and a housing.

【0022】記憶部170は、処理部100や通信部1
96などのワーク領域となるもので、その機能はRAM
などのハードウェアにより実現できる。
The storage unit 170 stores the processing unit 100 and the communication unit 1
A work area such as 96
It can be realized by hardware such as.

【0023】情報記憶媒体(コンピュータにより使用可
能な記憶媒体)180は、プログラムやデータなどの情
報を格納するものであり、その機能は、光ディスク(C
D、DVD)、光磁気ディスク(MO)、磁気ディス
ク、ハードディスク、磁気テープ、或いはメモリ(RO
M)などのハードウェアにより実現できる。処理部10
0は、この情報記憶媒体180に格納される情報に基づ
いて本発明(本実施形態)の種々の処理を行う。即ち情
報記憶媒体180には、本発明(本実施形態)の手段
(特に処理部100に含まれるブロック)を実行(実
現)するための情報(プログラム或いはデータ)が格納
される。
An information storage medium (storage medium that can be used by a computer) 180 stores information such as programs and data.
D, DVD), magneto-optical disk (MO), magnetic disk, hard disk, magnetic tape, or memory (RO
M) and the like. Processing unit 10
0 performs various processes of the present invention (the present embodiment) based on the information stored in the information storage medium 180. That is, the information storage medium 180 stores information (program or data) for executing (realizing) the means (particularly, the blocks included in the processing unit 100) of the present invention (the present embodiment).

【0024】なお、情報記憶媒体180に格納される情
報の一部又は全部は、システムへの電源投入時等に記憶
部170に転送されることになる。また情報記憶媒体1
80に記憶される情報は、本発明の処理を行うためのプ
ログラムコード、画像データ、音データ、表示物の形状
データ、テーブルデータ、リストデータ、本発明の処理
を指示するための情報、その指示に従って処理を行うた
めの情報等の少なくとも1つを含むものである。
A part or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the power to the system is turned on. Information storage medium 1
The information stored in 80 is a program code for performing the processing of the present invention, image data, sound data, shape data of a display object, table data, list data, information for instructing the processing of the present invention, and instructions for the processing. The information includes at least one of information for performing processing according to.

【0025】表示部190は、本実施形態により生成さ
れた画像を出力するものであり、その機能は、CRT、
LCD、或いはHMD(ヘッドマウントディスプレイ)
などのハードウェアにより実現できる。
The display unit 190 outputs an image generated according to the present embodiment.
LCD or HMD (Head Mount Display)
It can be realized by hardware such as.

【0026】音出力部192は、本実施形態により生成
された音を出力するものであり、その機能は、スピーカ
などのハードウェアにより実現できる。
The sound output section 192 outputs the sound generated according to the present embodiment, and its function can be realized by hardware such as a speaker.

【0027】携帯型情報記憶装置194は、プレーヤの
個人データやセーブデータなどが記憶されるものであ
り、この携帯型情報記憶装置194としては、メモリカ
ードや携帯型ゲーム装置などを考えることができる。
The portable information storage device 194 stores personal data and save data of the player, and the portable information storage device 194 may be a memory card, a portable game device, or the like. .

【0028】通信部196は、外部(例えばホスト装置
や他の画像生成システム)との間で通信を行うための各
種の制御を行うものであり、その機能は、各種プロセッ
サ、或いは通信用ASICなどのハードウェアや、プロ
グラムなどにより実現できる。
The communication unit 196 performs various controls for communicating with an external device (for example, a host device or another image generation system), and has a function of various processors or a communication ASIC. Hardware and programs.

【0029】なお本発明(本実施形態)の手段を実行す
るためのプログラム或いはデータは、ホスト装置(サー
バー)が有する情報記憶媒体からネットワーク及び通信
部196を介して情報記憶媒体180に配信するように
してもよい。このようなホスト装置(サーバー)の情報
記憶媒体の使用も本発明の範囲内に含まれる。
A program or data for executing the means of the present invention (this embodiment) is distributed from the information storage medium of the host device (server) to the information storage medium 180 via the network and the communication unit 196. It may be. Use of the information storage medium of such a host device (server) is also included in the scope of the present invention.

【0030】処理部100は、ゲーム処理部110、画
像生成部130、音生成部150を含む。
The processing section 100 includes a game processing section 110, an image generation section 130, and a sound generation section 150.

【0031】ここでゲーム処理部110は、コイン(代
価)の受け付け処理、各種モードの設定処理、ゲームの
進行処理、選択画面の設定処理、オブジェクト(1又は
複数のプリミティブ面)の位置や回転角度(X、Y又は
Z軸回り回転角度)を求める処理、オブジェクトを動作
させる処理(モーション処理)、視点の位置(仮想カメ
ラの位置)や視線角度(仮想カメラの回転角度)を求め
る処理、マップオブジェクトなどのオブジェクトをオブ
ジェクト空間へ配置する処理、ヒットチェック処理、ゲ
ーム結果(成果、成績)を演算する処理、複数のプレー
ヤが共通のゲーム空間でプレイするための処理、或いは
ゲームオーバー処理などの種々のゲーム処理を、操作部
160からの操作データや、携帯型情報記憶装置194
からの個人データ、保存データや、ゲームプログラムな
どに基づいて行う。
Here, the game processing unit 110 performs processing for accepting coins (price), processing for setting various modes, processing for proceeding with a game, processing for setting a selection screen, the position and rotation angle of an object (one or more primitive surfaces). Processing for calculating (the rotation angle around the X, Y or Z axis), processing for moving the object (motion processing), processing for obtaining the position of the viewpoint (the position of the virtual camera) and the line of sight (the rotation angle of the virtual camera), Such as processing for arranging objects in the object space, hit check processing, processing for calculating game results (results, results), processing for playing by a plurality of players in a common game space, or game over processing. The game processing is performed by operating data from the operation unit 160 or the portable information storage device 194.
Based on personal data, stored data, and game programs.

【0032】画像生成部130は、ゲーム処理部110
からの指示等にしたがって各種の画像処理を行い、例え
ばオブジェクト空間内で仮想カメラ(視点)から見える
画像を生成して、表示部190に出力する。また、音生
成部150は、ゲーム処理部110からの指示等にした
がって各種の音処理を行い、BGM、効果音、音声など
の音を生成し、音出力部192に出力する。
The image generation unit 130 is provided with a game processing unit 110
Performs various image processing in accordance with an instruction from the camera, generates an image that can be viewed from a virtual camera (viewpoint) in the object space, and outputs the generated image to the display unit 190. In addition, the sound generation unit 150 performs various types of sound processing according to instructions from the game processing unit 110 and the like, generates sounds such as BGM, sound effects, and sounds, and outputs the sounds to the sound output unit 192.

【0033】なお、ゲーム処理部110、画像生成部1
30、音生成部150の機能は、その全てをハードウェ
アにより実現してもよいし、その全てをプログラムによ
り実現してもよい。或いは、ハードウェアとプログラム
の両方により実現してもよい。
The game processing section 110, the image generation section 1
30, all of the functions of the sound generation unit 150 may be realized by hardware, or all of them may be realized by a program. Alternatively, it may be realized by both hardware and a program.

【0034】ゲーム処理部110は、移動・動作演算部
112、ヒットチェック部114を含む。
The game processing section 110 includes a movement / motion calculation section 112 and a hit check section 114.

【0035】ここで移動・動作演算部112は、キャラ
クタなどの移動オブジェクトの移動情報(位置データ、
回転角度データ)や動作情報(移動オブジェクトの各パ
ーツの位置データ、回転角度データ)を演算するもので
あり、例えば、操作部160によりプレーヤが入力した
操作データやゲームプログラムなどに基づいて、移動オ
ブジェクトを移動させたり動作させたりする処理を行
う。
Here, the movement / motion calculation unit 112 provides movement information (position data,
It calculates rotation angle data) and motion information (position data and rotation angle data of each part of the moving object). For example, based on operation data or a game program input by the player through the operation unit 160, the moving object To move or operate the.

【0036】より具体的には、移動・動作演算部114
は、移動オブジェクトの位置や回転角度を例えば1フレ
ーム(1/60秒)毎に求める処理を行う。例えば(k
−1)フレームでの移動オブジェクトの位置をPMk-
1、速度をVMk-1、加速度をAMk-1、1フレームの時
間を△tとする。するとkフレームでの移動オブジェク
トの位置PMk、速度VMkは例えば下式(1)、(2)
のように求められる。
More specifically, the movement / motion calculation unit 114
Performs a process of obtaining the position and rotation angle of the moving object, for example, every frame (1/60 second). For example, (k
-1) Set the position of the moving object in the frame to PMk-
1, the speed is VMk-1, the acceleration is AMk-1, and the time of one frame is Δt. Then, the position PMk and the speed VMk of the moving object in the k frame are, for example, the following expressions (1) and (2)
Is required.

【0037】 PMk=PMk-1+VMk-1×△t (1) VMk=VMk-1+AMk-1×△t (2) ヒットチェック部114は、ヒットエリアやショット
(矢、弾丸等)と、移動オブジェクトとの間のヒットチ
ェック処理を行う。より具体的には本実施形態では、ム
ービーデータ記憶部172に記憶されるムービーデータ
が、ヒットエリアを特定するためのヒットエリアデータ
(ヒットエリアフラグ、ヒットエリアの高さ等)を含
む。そして、ヒットチェック部114は、このヒットエ
リアデータと、移動オブジェクトの位置や方向とに基づ
いてヒットチェック処理を行う。そして、移動オブジェ
クトがヒットエリアにヒットした(進入した)と判断さ
れると、移動オブジェクトの移動経路が補正される。
PMk = PMk−1 + VMk−1 × Δt (1) VMk = VMk−1 + AMk−1 × Δt (2) The hit check unit 114 includes a hit area and a shot (arrow, bullet, etc.) and a moving object. Perform hit check processing between. More specifically, in the present embodiment, the movie data stored in the movie data storage unit 172 includes hit area data (hit area flag, hit area height, etc.) for specifying a hit area. Then, the hit check unit 114 performs a hit check process based on the hit area data and the position and direction of the moving object. Then, when it is determined that the moving object has hit (entered) the hit area, the moving path of the moving object is corrected.

【0038】なお、ムービーデータ記憶部172に記憶
されるムービーデータが移動経路データや移動データ
(移動値、移動エリアフラグ等)を含む場合には、移動
・動作演算部112は、これらの移動経路データや移動
データに基づいて、移動オブジェクトを移動させる処理
を行うことになる。
If the movie data stored in the movie data storage unit 172 includes moving route data and moving data (moving value, moving area flag, etc.), the moving / motion calculating unit 112 Processing for moving the moving object is performed based on the data and the moving data.

【0039】画像生成部130は、ジオメトリ処理部1
32(3次元演算部)、描画部140(レンダリング
部)を含む。
The image generation unit 130 includes the geometry processing unit 1
32 (three-dimensional operation unit) and a drawing unit 140 (rendering unit).

【0040】ここで、ジオメトリ処理部132は、座標
変換、クリッピング処理、透視変換、或いは光源計算な
どの種々のジオメトリ処理(3次元演算)を行う。
Here, the geometry processing unit 132 performs various types of geometry processing (three-dimensional operation) such as coordinate transformation, clipping processing, perspective transformation, and light source calculation.

【0041】描画部140は、オブジェクトやテクスチ
ャのデータなどに基づいて、オブジェクト空間において
仮想カメラから見える画像を描画する処理を行う。そし
て、本実施形態の描画部140は、ムービーデータ記憶
部172に記憶されるムービーデータが含む奥行き値Z
1とキャラクタなどの移動オブジェクトの奥行き値Z2
とに基づいて陰面消去を行いながら、ムービーと移動オ
ブジェクトとが合成された画像を描画する。この場合、
描画部140が含む陰面消去部142が、例えば、奥行
き値が格納されるZバッファ174を用いてZバッファ
法のアルゴリズムにしたがった陰面消去を行うことにな
る。
The drawing unit 140 performs a process of drawing an image viewed from the virtual camera in the object space based on the data of the object and the texture. Then, the rendering unit 140 of the present embodiment calculates the depth value Z included in the movie data stored in the movie data storage unit 172.
1 and depth value Z2 of a moving object such as a character
While performing hidden surface removal based on the above, an image in which the movie and the moving object are combined is drawn. in this case,
The hidden surface removal unit 142 included in the drawing unit 140 performs hidden surface removal according to the algorithm of the Z buffer method using, for example, the Z buffer 174 in which the depth value is stored.

【0042】なお、本実施形態の画像生成システムは、
1人のプレーヤのみがプレイできるシングルプレーヤモ
ード専用のシステムにしてもよいし、このようなシング
ルプレーヤモードのみならず、複数のプレーヤがプレイ
できるマルチプレーヤモードも備えるシステムにしても
よい。
Note that the image generation system of the present embodiment
A system dedicated to the single player mode in which only one player can play, or a system including not only such a single player mode but also a multiplayer mode in which a plurality of players can play, may be used.

【0043】また複数のプレーヤがプレイする場合に、
これらの複数のプレーヤに提供するゲーム画像やゲーム
音を、1つの端末を用いて生成してもよいし、ネットワ
ーク(伝送ライン、通信回線)などで接続された複数の
端末を用いて生成してもよい。
When a plurality of players play,
The game image and the game sound to be provided to the plurality of players may be generated using one terminal, or may be generated using a plurality of terminals connected by a network (transmission line, communication line) or the like. Is also good.

【0044】2.本実施形態の特徴 本実施形態では、ムービー再生のためのデータであるム
ービーデータに奥行き値Z1を含ませている。そして、
この奥行き値Z1とキャラクタ(広義には移動オブジェ
クト)の奥行き値Z2とに基づいて陰面消去を行いなが
ら、ムービーとキャラクタが合成された画像を生成して
いる。
2. Features of the present embodiment In the present embodiment, the depth value Z1 is included in movie data that is data for movie playback. And
Based on the depth value Z1 and the depth value Z2 of the character (moving object in a broad sense), an image in which the movie and the character are combined is generated while erasing the hidden surface.

【0045】より具体的には例えば図2に示すように、
ムービーを構成する各フレーム画像の各ピクセルに対し
て、画像データ(RGB)の他に、奥行き値Z1のデー
タを含ませる。そして、このZ1とキャラクタのZ2と
を比較し、Zバッファ法などのアルゴリズムにしたがっ
て陰面消去を行い、ムービーとキャラクタが合成された
画像を生成する。
More specifically, for example, as shown in FIG.
For each pixel of each frame image constituting the movie, data of the depth value Z1 is included in addition to the image data (RGB). Then, Z1 is compared with Z2 of the character, hidden surface elimination is performed according to an algorithm such as the Z buffer method, and an image in which the movie and the character are combined is generated.

【0046】このようにすることで図3(A)に示すよ
うに、ムービーの絵の中にキャラクタを割り込ませるこ
とができるようになる。即ち、ムービーで表現されるタ
ンス20(表示物)の物陰にキャラクタ10が隠れた
り、ムービーで表現される出入り口22からキャラクタ
が出て行くなどの画像表現が可能になる。或いは、ムー
ビーで表現される窓24の向こう側からキャラクタ10
が覗き込むなどの画像表現も可能になる。
In this way, as shown in FIG. 3A, a character can be inserted into a picture of a movie. That is, it is possible to express an image such that the character 10 is hidden behind a closet 20 (display object) represented by a movie or the character goes out of an entrance 22 represented by a movie. Alternatively, the character 10 can be viewed from the other side of the window 24 represented by the movie.
Image expression such as peeping in is also possible.

【0047】即ち、これまでのムービーでは、ムービー
データが画像データや音データしか含まず、奥行き値の
データを含まなかった。従って、ムービーとキャラクタ
の合成画像を生成しようとすると、図3(B)に示すよ
うにキャラクタ10が常に手前に表示されるようになっ
てしまい、リアルが画像を生成できなかった。
That is, in the conventional movie, the movie data includes only image data and sound data, and does not include depth value data. Therefore, when attempting to generate a composite image of a movie and a character, the character 10 is always displayed on the near side as shown in FIG. 3B, and a real image cannot be generated.

【0048】本実施形態によれば、図3(A)に示すよ
うに、キャラクタ10の奥行き値Z2の大きさに応じ
て、キャラクタ10がムービーの中の表示物の物陰に隠
れたり、隠れなかったりするようになるため、よりリア
ルで臨場感溢れる画像を生成できる。
According to the present embodiment, as shown in FIG. 3 (A), the character 10 is hidden or not hidden behind a display object in the movie depending on the depth value Z2 of the character 10. , It is possible to generate a more realistic and realistic image.

【0049】なお、本実施形態におけるムービーは、C
Gツールで制作した一連のセル画像により構成されるC
G映像でもよいし、カメラにより撮影した実写映像でも
よい。
In this embodiment, the movie is C
C composed of a series of cell images created with the G tool
It may be a G video or a live-action video taken by a camera.

【0050】ムービーとしてCG映像を用いる場合に
は、CGの作成時に生じた各ピクセルの奥行き値のデー
タを破棄せずにムービーデータの中に含ませるようにす
る。即ち、CGツールのZバッファに記憶される最終的
な奥行き値のデータは、通常は破棄されるが、これを破
棄せずに、画像データ(RGB)と共にムービーデータ
の中に含ませるようにする。このようにすることで、奥
行き値のデータを含むムービーデータを、それほど手間
をかけることなく用意することができるようになる。
When a CG image is used as a movie, the depth value data of each pixel generated when the CG is created is included in the movie data without being discarded. That is, although the final depth value data stored in the Z buffer of the CG tool is normally discarded, the data is not discarded but is included in the movie data together with the image data (RGB). . By doing so, movie data including depth value data can be prepared without much trouble.

【0051】一方、ムービーとして実写映像を用いる場
合には以下のようにする。
On the other hand, when a real image is used as a movie, the following is performed.

【0052】例えば図4に示すように、被写体となる人
物30、机31、椅子32等を撮影用のカメラ50で撮
影する際に、複数台の位置測定用のカメラ52、54を
用いて人物30、机31、椅子32を異なる方向から撮
影する。そして、得られた画像を用いて数値計算を行
い、三角測量の原理で人物30、机31、椅子32の奥
行き値(位置)を求める。そして、求められた奥行き値
を、撮影用のカメラ50により得られたムービーデータ
(実写映像データ)の中に含ませるようにする。
As shown in FIG. 4, for example, when a person 30, a desk 31, a chair 32, or the like as a subject is photographed by a photographing camera 50, a plurality of position-measuring cameras 52 and 54 are used to photograph the person. 30, the desk 31, and the chair 32 are photographed from different directions. Then, numerical calculations are performed using the obtained images, and the depth values (positions) of the person 30, the desk 31, and the chair 32 are obtained based on the principle of triangulation. Then, the obtained depth value is included in the movie data (actual video data) obtained by the camera 50 for shooting.

【0053】なお、人物30、机31、椅子32のおお
よその奥行き値がわかれば十分である場合には、即ち、
キャラクタが、人物30、机31、椅子32の手前に位
置するか後ろに隠れるかが判別できれば十分である場合
には、次のようにすればよい。即ち、これらの被写体の
代表点にピンポン玉などのターゲット33〜40を取り
付け、これらターゲット33〜40の位置をカメラ5
2、54で測定することで、被写体の奥行き値を特定す
る。
If it is sufficient to know the approximate depth values of the person 30, the desk 31, and the chair 32,
If it is sufficient to determine whether the character is located in front of the person 30, the desk 31, or the chair 32 or hide behind it, the following may be performed. That is, targets 33 to 40 such as ping-pong balls are attached to representative points of these subjects, and the positions of these targets 33 to 40 are
By measuring at 2 and 54, the depth value of the subject is specified.

【0054】なお、この場合、ターゲット33〜40
は、撮影用のカメラ50から見えない位置に取り付ける
ことが望ましい。例えば人物30の場合には、人物30
の後頭部や背中にターゲットを取り付ける。そして、位
置測定用のカメラ52、54を人物30の後方や頭上に
設置して人物30を撮影し、人物30の奥行き値を特定
する。
In this case, the targets 33 to 40
Is desirably attached to a position invisible from the camera 50 for photographing. For example, in the case of the person 30, the person 30
Attach the target to the back of the head and back. Then, the position measuring cameras 52 and 54 are installed behind or above the person 30 to photograph the person 30 and specify the depth value of the person 30.

【0055】また、カメラ50により撮影する際に、壁
60を青色にし(ブルーバック)、別に用意された背景
と、人物30、机31、椅子32とを、クロマキー合成
するようにしてもよい。この場合に、別に用意された背
景の奥行き値は例えば無限大に設定し、人物30、机3
1、椅子32の奥行き値は、カメラ52、54による測
定で得られた値を設定する。このようにすれば、より正
確な奥行き値を設定できる。
When taking a picture with the camera 50, the wall 60 may be colored blue (blue back), and the separately prepared background and the person 30, the desk 31, and the chair 32 may be combined with the chroma key. In this case, the depth value of the separately prepared background is set to, for example, infinity, and the person 30, the desk 3
1. As the depth value of the chair 32, a value obtained by measurement by the cameras 52 and 54 is set. In this way, a more accurate depth value can be set.

【0056】また、カメラ52、54を用いる代わり
に、超音波や電磁波とそれを受信する受信機を用いて奥
行き値を求めてもよい。例えば、ターゲットから超音波
や電磁波を発信して、ターゲットとは別の位置に設置さ
れた1又は複数の受信機で受信する。そして、受信機へ
の超音波や電磁波の到達時間や、複数の受信機への到達
時間や位相の差に基づいて、奥行き値(位置)を求める
ようにする。
Instead of using the cameras 52 and 54, the depth value may be obtained by using an ultrasonic wave or an electromagnetic wave and a receiver for receiving the same. For example, an ultrasonic wave or an electromagnetic wave is transmitted from a target and received by one or a plurality of receivers installed at a position different from the target. Then, the depth value (position) is obtained based on the arrival time of the ultrasonic wave or the electromagnetic wave to the receiver and the difference between the arrival time and the phase of the plurality of receivers.

【0057】なお、奥行き値は、全てのフレーム画像に
設定しもよいし、一部のフレーム画像にのみ設定しもよ
い。また、奥行き値は、ムービーを構成するフレーム画
像の全てのピクセルに対して設定しもよいし、一部のピ
クセルにのみ設定してもよい。また、奥行き値データを
圧縮してムービーデータに含ませるようにしてもよい。
Note that the depth value may be set for all frame images, or may be set for only some frame images. Further, the depth value may be set for all the pixels of the frame image constituting the movie, or may be set for only some of the pixels. Further, the depth value data may be compressed and included in the movie data.

【0058】また、ムービーは、図3(A)のように背
景として用いてもよいが、敵ボス(移動オブジェクト)
などの表現に用いてもよい。この場合には例えば、ムー
ビー表示のための仮想的なスクリーンを用意し、この仮
想スクリーンに、敵ボスのムービーを投影するようにす
る。或いは、ムービー表示のためのポリゴン(プリミテ
ィブ面)を用意し、ムービーをテクスチャとしてこのポ
リゴンにマッピングするようにしてもよい。
Although the movie may be used as a background as shown in FIG. 3A, the enemy boss (moving object)
Such expressions may be used. In this case, for example, a virtual screen for movie display is prepared, and the movie of the enemy boss is projected on this virtual screen. Alternatively, a polygon (primitive surface) for displaying a movie may be prepared, and the movie may be mapped to the polygon as a texture.

【0059】さて、ムービーデータに含ませるデータと
しては、奥行き値Z1以外にも種々のデータを考えるこ
とができる。
As data to be included in the movie data, various data other than the depth value Z1 can be considered.

【0060】例えば図5では、ムービーデータに対し
て、画像データ(RGB)や奥行き値Z1の他に、ヒッ
トエリアフラグHF、高さHH(ヒットエリアの高
さ)、移動経路MR、移動値MV(移動データ)、法線
ベクトルNVのデータを含ませている。
For example, in FIG. 5, for movie data, in addition to image data (RGB) and depth value Z1, hit area flag HF, height HH (height of hit area), movement route MR, movement value MV (Movement data) and data of the normal vector NV.

【0061】ムービーデータの中に、ヒットエリアフラ
グHF、高さHHなどのデータを含ませることで、キャ
ラクタとヒットエリアとのヒットチェックが可能にな
る。
By including data such as the hit area flag HF and the height HH in the movie data, it is possible to perform a hit check between the character and the hit area.

【0062】即ち図6(A)では、レバー70やボタン
72を用いてプレーヤが操作するキャラクタ10が、ム
ービーで表現される表示物(障害物)74の方に向かっ
て歩いている。この場合に、表示物74の底面がヒット
エリア76と定義され、このヒットエリア76の位置や
大きさが、ヒットエリアフラグHFにより特定される。
例えば、HF=1と設定されるピクセルは、ヒットエリ
ア76内のピクセルであると判断され、HF=0と設定
されるピクセルは、ヒットエリア76外のピクセルであ
ると判断される。
That is, in FIG. 6A, the character 10 operated by the player using the lever 70 and the button 72 is walking toward a display object (obstacle) 74 represented by a movie. In this case, the bottom surface of the display object 74 is defined as a hit area 76, and the position and size of the hit area 76 are specified by the hit area flag HF.
For example, a pixel for which HF = 1 is determined to be a pixel in the hit area 76, and a pixel for which HF = 0 is determined to be a pixel outside the hit area 76.

【0063】そして、キャラクタ10の足下などに設定
された代表点P(XP、YP)と、ヒットエリア76と
のヒットチェックが行われる。そして、代表点Pがヒッ
トエリア76にヒットした(進入した)と判断された場
合には、キャラクタ10の移動経路を補正したり、キャ
ラクタ10の移動を制限するようにする。
Then, a hit check is performed between the representative point P (XP, YP) set below the feet of the character 10 and the hit area 76. If it is determined that the representative point P has hit (entered) the hit area 76, the movement path of the character 10 is corrected or the movement of the character 10 is restricted.

【0064】なお、より高度なヒットチェックを行う場
合には、ヒットエリア76の高さHHも用いるようにす
る。そして、キャラクタ10がヒットエリア76にヒッ
トした時にプレーヤがジャンプを指示するボタン72を
押した場合には、この高さHHに基づいて、キャラクタ
10が表示物74の上に飛び乗れるか否かを判断するよ
うにする。
When performing a more advanced hit check, the height HH of the hit area 76 is also used. Then, when the player presses the button 72 for instructing a jump when the character 10 hits the hit area 76, it is determined whether or not the character 10 can jump on the display object 74 based on the height HH. Make a decision.

【0065】また、ムービーデータに移動経路MRのデ
ータを含ませることで、ヒットエリア76へのヒット後
のキャラクタ10の移動を簡易に制御できるようにな
る。例えば、キャラクタ10がヒットエリア76にヒッ
トした後に、プレーヤがレバー70を奥側に倒した場合
には、キャラクタ10を、移動経路78に沿って移動さ
せる。また、ヒット後に、プレーヤがレバー70を右側
に倒すと共にジャンプのボタン72を押した場合には、
キャラクタ10を移動経路80に沿って移動させる。ま
た、ヒット後に、プレーヤがレバー70を手前側に倒し
た場合には、キャラクタ10を移動経路82に沿って移
動させる。
In addition, by including the data of the movement route MR in the movie data, the movement of the character 10 after hitting the hit area 76 can be easily controlled. For example, if the player tilts the lever 70 to the back after the character 10 hits the hit area 76, the character 10 is moved along the movement path 78. If the player pushes the lever 70 to the right and presses the jump button 72 after the hit,
The character 10 is moved along the movement path 80. In addition, when the player tilts the lever 70 to the near side after the hit, the character 10 is moved along the movement path 82.

【0066】この場合に、移動経路78、80、82を
特定するためのデータ(移動経路の方向データ等)を、
移動経路MRとしてムービーデータに含ませるようにす
る。このようにすることで、表示物74の形状に応じた
最適な移動経路でキャラクタ10を移動させることがで
きるようになる。
In this case, data (direction data of the moving route, etc.) for specifying the moving routes 78, 80, 82 is
The moving route MR is included in the movie data. By doing so, it becomes possible to move the character 10 along an optimal movement path according to the shape of the display object 74.

【0067】また、ムービーデータに移動値MVのデー
タ(広義には移動データ)を含ませることで、ムービー
の中の表示物の動きや、ムービー全体の動きに合わせ
て、キャラクタ(移動オブジェクト)を移動させること
が可能になる。
Further, by including the data of the movement value MV (movement data in a broad sense) in the movie data, the character (moving object) can be moved according to the movement of the display object in the movie or the movement of the whole movie. It can be moved.

【0068】例えば図7では、キャラクタ10が、ムー
ビーで表現されるエスカレーター84の上に乗ってい
る。この場合には、キャラクタ10の足下などに設定さ
れた代表点P(XP、YP)の位置(ピクセル)におけ
る移動値MV(移動量、移動ベクトル成分等)を取得す
る。そして、取得された移動値MVに基づいて、キャラ
クタ10を移動させる。このようにすることで、ムービ
ーの中の表示物であるエスカレーター84の動きに連動
して、キャラクタ10も移動するようになる。従って、
キャラクタの画像とムービーが、より自然に合成されて
見えるようになり、これまでにないリアルな画像を少な
い処理負担で生成できる。
For example, in FIG. 7, the character 10 is riding on an escalator 84 represented by a movie. In this case, the movement value MV (movement amount, movement vector component, etc.) at the position (pixel) of the representative point P (XP, YP) set below the feet of the character 10 is acquired. Then, the character 10 is moved based on the obtained movement value MV. By doing so, the character 10 also moves in conjunction with the movement of the escalator 84 which is a display object in the movie. Therefore,
The image of the character and the movie can be seen more naturally synthesized, and an unprecedented realistic image can be generated with a small processing load.

【0069】なお、ムービーデータに含ませる移動デー
タとしては、移動値MVの他に、移動エリアを特定する
ための移動エリアフラグなども考えることができる。即
ち、キャラクタが移動エリアに位置するか否かを、キャ
ラクタの代表点P(XP、YP)の位置(ピクセル)に
設定された移動エリアフラグにより判断する。そして、
その位置での移動エリアフラグが例えば1ならば、キャ
ラクタを移動させる処理を行う。そして、ムービーデー
タが移動値MVを含む場合には、移動値MVに応じた移
動量だけキャラクタを移動させるようにする。
As the moving data included in the movie data, a moving area flag for specifying a moving area can be considered in addition to the moving value MV. That is, whether or not the character is located in the moving area is determined by the moving area flag set at the position (pixel) of the representative point P (XP, YP) of the character. And
If the moving area flag at that position is 1, for example, a process of moving the character is performed. When the movie data includes the movement value MV, the character is moved by a movement amount corresponding to the movement value MV.

【0070】また、ムービーで表される背景がスクロー
ルする場合など、ムービー全体が動く場合にも、移動値
MVを用いてキャラクタを移動させるようにしてもよ
い。例えば、ムービーで表現される背景が左方向にスク
ロールした場合には、そのスクロールに合わせて、キャ
ラクタを画面上で右方向に移動させる。なお、この場合
には、移動値MVを、ピクセル単位ではなく画像単位で
持たせてもよい。
Also, when the whole movie moves, such as when the background represented by the movie scrolls, the character may be moved using the movement value MV. For example, when the background represented by the movie scrolls leftward, the character is moved rightward on the screen in accordance with the scrolling. Note that, in this case, the movement value MV may be provided in an image unit instead of a pixel unit.

【0071】さて、本実施形態では、ムービー再生の最
終フレームの画像のデータ(ムービーデータの一種)に
奥行き値Z1を含ませ、この奥行き値Z1とキャラクタ
の奥行き値Z2とに基づいて陰面消去を行うようにして
もよい。
In the present embodiment, the depth value Z1 is included in the image data (a type of movie data) of the last frame of the movie reproduction, and hidden surface erasure is performed based on the depth value Z1 and the depth value Z2 of the character. It may be performed.

【0072】例えば図8に示すように、ゲームのオープ
ニングや幕間などにおいて、予め用意されたオープニン
グ用ムービーや幕間用ムービーを再生する。そして、ム
ービー再生の最終フレームの画像86(静止画像)の各
ピクセルに対して奥行き値Z1を設定しておく。そし
て、この最終フレーム画像86を背景として用いると共
に、最終フレーム画像86の奥行き値Z1とキャラクタ
10の奥行き値Z2とを比較しながら陰面消去を行い、
画像を描画する。
For example, as shown in FIG. 8, an opening movie or an intermission movie prepared in advance is played at the opening or intermission of a game. Then, a depth value Z1 is set for each pixel of the image 86 (still image) of the last frame of the movie reproduction. Then, while using the final frame image 86 as a background, the hidden surface is removed while comparing the depth value Z1 of the final frame image 86 with the depth value Z2 of the character 10,
Draw an image.

【0073】このようにすることで、一連のムービーの
再生の後、切れ目無くゲームが開始するようになる。従
って、オープニングや幕間のムービーによりゲーム意欲
が盛り上がったプレーヤは、その盛り上がったゲーム意
欲を維持したまま、自然にゲーム世界に入り込むことが
できるようになる。これにより、プレーヤの仮想現実感
を飛躍的に高めることができる。
In this way, after a series of movies has been reproduced, the game starts without a break. Therefore, a player whose game motivation has risen due to the opening or intermission movie can naturally enter the game world while maintaining the game motivation. Thereby, the virtual reality of the player can be dramatically improved.

【0074】3.本実施形態の処理 次に、本実施形態の処理の詳細例について、図9、図1
0、図11、図12のフローチャートを用いて説明す
る。
3. Next, a detailed example of the processing of the present embodiment will be described with reference to FIGS.
0, FIG. 11 and FIG. 12 will be described.

【0075】図9は、全体処理に関するフローチャート
である。
FIG. 9 is a flowchart relating to the overall processing.

【0076】画像生成システムがリセットされると、ハ
ードウェアの初期化処理が行われる(ステップS1)。
そして、MODE(システムのメインモード)がATT
R(アトラクション)に設定される(ステップS2)。
When the image generation system is reset, hardware initialization processing is performed (step S1).
MODE (main mode of the system) is ATT
R (attraction) is set (step S2).

【0077】次に、フレーム開始の割り込みが発生した
か否かを判断し(ステップS3)、発生した場合には、
フレームバッファを切り替える(ステップS4)。即ち
前のフレームで画像を描画したフレームバッファを表示
用のフレームバッファに切り替え、前のフレームで画像
を表示したフレームバッファを描画用のフレームバッフ
ァに切り替える。
Next, it is determined whether or not a frame start interrupt has occurred (step S3).
The frame buffer is switched (step S4). That is, the frame buffer in which the image is drawn in the previous frame is switched to the frame buffer for display, and the frame buffer in which the image is displayed in the previous frame is switched to the frame buffer for drawing.

【0078】次に、MODEが、ATTR、INIT、
GAME、ENDINGのいずれに設定されているか否
かを判断する(ステップS5〜S8)。そして、ATT
R、INIT、GAME、ENDINGに設定されてい
た場合には、各々、アトラクション、ゲーム初期化、ゲ
ームメイン、エンディングの処理に移行する(ステップ
S9〜S12)。なお、MODEがOVERに設定され
ていた場合にはゲームオーバー処理に移行する(ステッ
プS13)。
Next, MODE is ATTR, INIT,
It is determined whether GAME or ENDING is set (steps S5 to S8). And ATT
When R, INIT, GAME, and ENDING have been set, the processing shifts to the processing of attraction, game initialization, game main, and ending (steps S9 to S12). If MODE is set to OVER, the process proceeds to a game over process (step S13).

【0079】そして、上記の処理の終了後、描画処理を
行う(ステップS14)。この場合に本実施形態では、
ムービーデータが含む奥行き値Z1や移動オブジェクト
の奥行き値Z2に基づいて、Zバッファを使用したZバ
ッファ法により、陰面消去を行う。
After the above processing is completed, a drawing processing is performed (step S14). In this case, in this embodiment,
Based on the depth value Z1 included in the movie data and the depth value Z2 of the moving object, hidden surface elimination is performed by a Z-buffer method using a Z-buffer.

【0080】図10は、図9のステップS11のゲーム
メイン処理のフローチャートである。
FIG. 10 is a flowchart of the game main process in step S11 in FIG.

【0081】まず、MODESUB(システムのサブモ
ード)が、SEL、INTRO、MOVIE、WINの
いずれに設定されているかを判断する(ステップS20
〜S23)。そして、SEL、INTRO、MOVI
E、WINに設定されていた場合には、各々、キャラク
タ選択、イントロダクション、ムービープレイ、勝利の
処理に移行する(ステップS24〜S27)。なお、M
ODESUBがLOSEに設定されていた場合には敗北
処理に移行する(S28)。
First, it is determined whether MODESUB (system sub mode) is set to SEL, INTRO, MOVIE, or WIN (step S20).
To S23). And SEL, INTRO, MOVI
If E and WIN have been set, respectively, the processing shifts to character selection, introduction, movie play, and victory processing (steps S24 to S27). Note that M
If ODESSUB is set to LOSE, the process proceeds to the defeat processing (S28).

【0082】図11は、図10のステップS26のムー
ビープレイ処理のフローチャートである。
FIG. 11 is a flowchart of the movie play processing in step S26 in FIG.

【0083】まず、図5で説明したムービーデータのス
トリームをメインメモリに読み込む(ステップS3
0)。そして、読み込んだムービーデータをワークバッ
ファに展開する(ステップS31)。より具体的には、
RGB、奥行き値Z1、ヒットエリアフラグHF、高さ
HH、移動経路MR、移動値MV、法線ベクトルNV、
音SDのデータを、各々、RGB、Z1、HF、HH、
MR、MV、NV、SDのワークバッファに展開する。
First, the movie data stream described with reference to FIG. 5 is read into the main memory (step S3).
0). Then, the read movie data is developed in the work buffer (step S31). More specifically,
RGB, depth value Z1, hit area flag HF, height HH, movement route MR, movement value MV, normal vector NV,
The data of the sound SD are respectively RGB, Z1, HF, HH,
Develop to work buffer of MR, MV, NV, SD.

【0084】次に、キャラクタ(プレーヤが操作するプ
レーヤキャラクタ)の移動処理を行い(ステップS3
2)、敵キャラクタの移動処理を行う(ステップS3
3)。そして、勝敗の判定処理を行う(ステップS3
4)。そして、プレーヤが勝利したか否かを判断し(ス
テップS35)、勝利した場合にはMODESUBにW
INを設定する(ステップS36)。一方、勝利しなか
った場合にはプレーヤが敗北したか否かを判断し(ステ
ップS37)、敗北した場合にはMODESUBにLO
SEを設定する(ステップS38)。
Next, movement processing of the character (player character operated by the player) is performed (step S3).
2) Perform enemy character movement processing (step S3)
3). Then, a win / loss determination process is performed (step S3).
4). Then, it is determined whether or not the player has won (step S35).
IN is set (step S36). On the other hand, when the player has not won, it is determined whether or not the player has lost (step S37).
The SE is set (step S38).

【0085】次に、ステップS31〜S34の処理結果
に基づいて、描画リスト(ポリゴンデータ、テクスチャ
データ、環境(光源、仮想カメラ)設定データなどのリ
スト)を作成する(ステップS39)。描画処理は、こ
の描画リストに基づいて行われることになる。
Next, a drawing list (a list of polygon data, texture data, environment (light source, virtual camera) setting data, etc.) is created based on the processing results of steps S31 to S34 (step S39). The drawing process is performed based on the drawing list.

【0086】図12は、図11のステップS32のキャ
ラクタ移動処理のフローチャートである。
FIG. 12 is a flowchart of the character moving process in step S32 in FIG.

【0087】まず、操作部(コントローラ)からの操作
データを取得する(ステップS40)。これにより、図
6(A)、(B)において、レバー70を倒した方向や
倒したタイミング、ボタン72を押したタイミングなど
を知ることができる。そして、取得した操作データに基
づいて、キャラクタの仮移動位置を計算する(ステップ
S41)。
First, operation data is obtained from the operation unit (controller) (step S40). 6A and 6B, it is possible to know the direction in which the lever 70 is tilted, the timing of tilting, the timing of pressing the button 72, and the like. Then, based on the obtained operation data, the temporary movement position of the character is calculated (step S41).

【0088】次に、図11のステップS31でMVワー
クバッファに展開された移動値MVに基づき、ステップ
S41で計算された仮移動位置を補正する(ステップS
42)。即ち、図7で説明したように、キャラクタがエ
スカレーターに乗った場合には、エスカレーターの動く
方向にキャラクタを移動させる。
Next, the tentative movement position calculated in step S41 is corrected based on the movement value MV developed in the MV work buffer in step S31 in FIG. 11 (step S31).
42). That is, as described in FIG. 7, when the character gets on the escalator, the character is moved in the direction in which the escalator moves.

【0089】次に、仮移動位置と、HFワークバッファ
からのヒットエリアフラグHFと、HHワークバッファ
からの高さHHとに基づき、ヒットチェック処理を行う
(ステップS43)。即ち、図6(B)で説明したよう
に、P(XP、YP)の仮移動位置が、ヒットエリアに
進入したか否かをヒットエリアフラグHFにより判断す
る。また、ジャンプのボタンを押した場合には、キャラ
クタが表示物を飛び越えることができるかを、ヒットエ
リアの高さHHのデータに基づき判断する。
Next, hit check processing is performed based on the temporary movement position, the hit area flag HF from the HF work buffer, and the height HH from the HH work buffer (step S43). That is, as described with reference to FIG. 6B, it is determined whether or not the tentative movement position of P (XP, YP) has entered the hit area by using the hit area flag HF. When the jump button is pressed, it is determined whether the character can jump over the display object based on the data of the height HH of the hit area.

【0090】次に、キャラクタがヒットエリアとヒット
したか否かを判断し(ステップS44)、ヒットしたと
判断した場合には、MRワークバッファからの移動経路
MRのデータに基づき、仮移動位置を補正する(ステッ
プS45)。即ち、図6(B)において、P(XP、Y
P)が、移動経路78、80、82のいずれかに沿って
移動するように、P(XP、YP)の仮移動位置を補正
する。
Next, it is determined whether or not the character has hit the hit area (step S44). If it is determined that the character has hit, the tentative movement position is determined based on the movement path MR data from the MR work buffer. Correction is performed (step S45). That is, in FIG. 6B, P (XP, Y
The provisional movement position of P (XP, YP) is corrected so that P) moves along any of the movement paths 78, 80, 82.

【0091】以上に説明した処理を、各フレーム毎に行
うことで、ムービーの奥行き値とキャラクタの奥行き値
に基づく陰面消去や、ムービーの中の表示物とキャラク
タとのヒットチェックなどが可能になる。
By performing the above-described processing for each frame, hidden surfaces can be eliminated based on the depth value of the movie and the depth value of the character, and a hit check between a display object in the movie and the character can be performed. .

【0092】4.ハードウェア構成 次に、本実施形態を実現できるハードウェアの構成の一
例について図13を用いて説明する。
[0092] 4. Hardware Configuration Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.

【0093】メインプロセッサ900は、CD982
(情報記憶媒体)に格納されたプログラム、通信インタ
ーフェース990を介して転送されたプログラム、或い
はROM950(情報記憶媒体の1つ)に格納されたプ
ログラムなどに基づき動作し、ゲーム処理、画像処理、
音処理などの種々の処理を実行する。
The main processor 900 is a CD982
(Information storage medium), a program transferred via the communication interface 990, or a program stored in the ROM 950 (one of the information storage media).
Various processes such as sound processing are executed.

【0094】コプロセッサ902は、メインプロセッサ
900の処理を補助するものであり、高速並列演算が可
能な積和算器や除算器を有し、マトリクス演算(ベクト
ル演算)を高速に実行する。例えば、オブジェクトを移
動させたり動作(モーション)させるための物理シミュ
レーションに、マトリクス演算などの処理が必要な場合
には、メインプロセッサ900上で動作するプログラム
が、その処理をコプロセッサ902に指示(依頼)す
る。
The coprocessor 902 assists the processing of the main processor 900, has a multiply-accumulate unit and a divider capable of high-speed parallel operation, and executes a matrix operation (vector operation) at high speed. For example, when a physical simulation for moving or moving an object requires processing such as matrix operation, a program operating on the main processor 900 instructs the coprocessor 902 to perform the processing (request ).

【0095】ジオメトリプロセッサ904は、座標変
換、透視変換、光源計算、曲面生成などのジオメトリ処
理を行うものであり、高速並列演算が可能な積和算器や
除算器を有し、マトリクス演算(ベクトル演算)を高速
に実行する。例えば、座標変換、透視変換、光源計算な
どの処理を行う場合には、メインプロセッサ900で動
作するプログラムが、その処理をジオメトリプロセッサ
904に指示する。
The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation. The geometry processor 904 includes a multiply-accumulate unit and a divider capable of high-speed parallel computation, Calculation) at high speed. For example, when performing processing such as coordinate transformation, perspective transformation, and light source calculation, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.

【0096】データ伸張プロセッサ906は、圧縮され
た画像データや音データを伸張するデコード処理を行っ
たり、メインプロセッサ900のデコード処理をアクセ
レートする処理を行う。これにより、オープニング画
面、インターミッション(幕間)画面、エンディング画
面、或いはゲーム画面などにおいて、MPEG方式等で
圧縮されたムービー(動画)を表示できるようになる。
なお、デコード処理の対象となる画像データや音データ
は、ROM950、CD982に格納されたり、或いは
通信インターフェース990を介して外部から転送され
る。
The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data, and performs a process for accelerating the decoding process of the main processor 900. As a result, a movie (moving image) compressed by the MPEG method or the like can be displayed on an opening screen, an intermission (intermission) screen, an ending screen, a game screen, or the like.
Note that image data and sound data to be decoded are stored in the ROM 950 and the CD 982, or transferred from the outside via the communication interface 990.

【0097】描画プロセッサ910は、ポリゴンや曲面
などのプリミティブ面で構成されるオブジェクトの描画
(レンダリング)処理を高速に実行するものである。オ
ブジェクトの描画の際には、メインプロセッサ900
は、DMAコントローラ970の機能を利用して、オブ
ジェクトデータを描画プロセッサ910に渡すと共に、
必要であればテクスチャ記憶部924にテクスチャを転
送する。すると、描画プロセッサ910は、これらのオ
ブジェクトデータやテクスチャに基づいて、Zバッファ
などを利用した陰面消去を行いながら、オブジェクトを
フレームバッファ922に高速に描画する。また、描画
プロセッサ910は、αブレンディング(半透明処
理)、デプスキューイング、ミップマッピング、フォグ
処理、トライリニア・フィルタリング、アンチエリアシ
ング、シェーディング処理なども行うことができる。そ
して、1フレーム分の画像がフレームバッファ922に
書き込まれると、その画像はディスプレイ912に表示
される。
The drawing processor 910 executes a high-speed drawing (rendering) process of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900
Uses the function of the DMA controller 970 to pass object data to the drawing processor 910,
If necessary, the texture is transferred to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and the texture. The drawing processor 910 can also perform α blending (translucent processing), depth queuing, mip mapping, fog processing, trilinear filtering, anti-aliasing, shading processing, and the like. Then, when an image for one frame is written to the frame buffer 922, the image is displayed on the display 912.

【0098】サウンドプロセッサ930は、多チャンネ
ルのADPCM音源などを内蔵し、BGM、効果音、音
声などの高品位のゲーム音を生成する。生成されたゲー
ム音は、スピーカ932から出力される。
The sound processor 930 incorporates a multi-channel ADPCM sound source or the like, and generates high-quality game sounds such as BGM, sound effects, and voices. The generated game sound is output from the speaker 932.

【0099】ゲームコントローラ942からの操作デー
タや、メモリカード944からのセーブデータ、個人デ
ータは、シリアルインターフェース940を介してデー
タ転送される。
Operation data from the game controller 942, save data and personal data from the memory card 944 are transferred via the serial interface 940.

【0100】ROM950にはシステムプログラムなど
が格納される。なお、業務用ゲームシステムの場合に
は、ROM950が情報記憶媒体として機能し、ROM
950に各種プログラムが格納されることになる。な
お、ROM950の代わりにハードディスクを利用する
ようにしてもよい。
The ROM 950 stores a system program and the like. In the case of the arcade game system, the ROM 950 functions as an information storage medium,
Various programs are stored in 950. Note that a hard disk may be used instead of the ROM 950.

【0101】RAM960は、各種プロセッサの作業領
域として用いられる。
The RAM 960 is used as a work area for various processors.

【0102】DMAコントローラ970は、プロセッ
サ、メモリ(RAM、VRAM、ROM等)間でのDM
A転送を制御するものである。
The DMA controller 970 is provided between the processor and the memory (RAM, VRAM, ROM, etc.).
A transfer is controlled.

【0103】CDドライブ980は、プログラム、画像
データ、或いは音データなどが格納されるCD982
(情報記憶媒体)を駆動し、これらのプログラム、デー
タへのアクセスを可能にする。
A CD drive 980 stores a CD 982 for storing programs, image data, sound data, and the like.
(Information storage medium) to enable access to these programs and data.

【0104】通信インターフェース990は、ネットワ
ークを介して外部との間でデータ転送を行うためのイン
ターフェースである。この場合に、通信インターフェー
ス990に接続されるネットワークとしては、通信回線
(アナログ電話回線、ISDN)、高速シリアルバスな
どを考えることができる。そして、通信回線を利用する
ことでインターネットを介したデータ転送が可能にな
る。また、高速シリアルバスを利用することで、他の画
像生成システム、他のゲームシステムとの間でのデータ
転送が可能になる。
The communication interface 990 is an interface for transferring data to and from the outside via a network. In this case, a network connected to the communication interface 990 may be a communication line (analog telephone line, ISDN), a high-speed serial bus, or the like. Then, data can be transferred via the Internet by using a communication line. Further, by using the high-speed serial bus, data transfer between another image generation system and another game system becomes possible.

【0105】なお、本発明の各手段は、その全てを、ハ
ードウェアのみにより実行してもよいし、情報記憶媒体
に格納されるプログラムや通信インターフェースを介し
て配信されるプログラムのみにより実行してもよい。或
いは、ハードウェアとプログラムの両方により実行して
もよい。
Each of the means of the present invention may be entirely executed by hardware only, or executed only by a program stored in an information storage medium or a program distributed via a communication interface. Is also good. Alternatively, it may be executed by both hardware and a program.

【0106】そして、本発明の各手段をハードウェアと
プログラムの両方により実行する場合には、情報記憶媒
体には、本発明の各手段をハードウェアを利用して実行
するためのプログラムが格納されることになる。より具
体的には、上記プログラムが、ハードウェアである各プ
ロセッサ902、904、906、910、930等に
処理を指示すると共に、必要であればデータを渡す。そ
して、各プロセッサ902、904、906、910、
930等は、その指示と渡されたデータとに基づいて、
本発明の各手段を実行することになる。
When each means of the present invention is executed by both hardware and a program, a program for executing each means of the present invention using hardware is stored in the information storage medium. Will be. More specifically, the program instructs the processors 902, 904, 906, 910, 930, etc., which are hardware, to perform processing, and passes data if necessary. Then, each processor 902, 904, 906, 910,
930 etc., based on the instruction and the passed data,
Each means of the present invention will be executed.

【0107】図14(A)に、本実施形態を業務用ゲー
ムシステムに適用した場合の例を示す。プレーヤは、デ
ィスプレイ1100上に映し出されたゲーム画像を見な
がら、レバー1102、ボタン1104等を操作してゲ
ームを楽しむ。内蔵されるシステムボード(サーキット
ボード)1106には、各種プロセッサ、各種メモリな
どが実装される。そして、本発明の各手段を実行するた
めの情報(プログラム又はデータ)は、システムボード
1106上の情報記憶媒体であるメモリ1108に格納
される。以下、この情報を格納情報と呼ぶ。
FIG. 14A shows an example in which the present embodiment is applied to an arcade game system. The player enjoys the game by operating the lever 1102, the button 1104, and the like while watching the game image projected on the display 1100. Various processors, various memories, and the like are mounted on a built-in system board (circuit board) 1106. Information (program or data) for executing each unit of the present invention is stored in a memory 1108 which is an information storage medium on the system board 1106. Hereinafter, this information is referred to as storage information.

【0108】図14(B)に、本実施形態を家庭用のゲ
ームシステムに適用した場合の例を示す。プレーヤはデ
ィスプレイ1200に映し出されたゲーム画像を見なが
ら、ゲームコントローラ1202、1204を操作して
ゲームを楽しむ。この場合、上記格納情報は、本体シス
テムに着脱自在な情報記憶媒体であるCD1206、或
いはメモリカード1208、1209等に格納されてい
る。
FIG. 14B shows an example in which the present embodiment is applied to a home game system. The player enjoys the game by operating the game controllers 1202 and 1204 while watching the game image projected on the display 1200. In this case, the storage information is stored in a CD 1206 or a memory card 1208, 1209, which is an information storage medium detachable from the main system.

【0109】図14(C)に、ホスト装置1300と、
このホスト装置1300とネットワーク1302(LA
Nのような小規模ネットワークや、インターネットのよ
うな広域ネットワーク)を介して接続される端末130
4-1〜1304-nとを含むシステムに本実施形態を適用
した場合の例を示す。この場合、上記格納情報は、例え
ばホスト装置1300が制御可能な磁気ディスク装置、
磁気テープ装置、メモリ等の情報記憶媒体1306に格
納されている。端末1304-1〜1304-nが、スタン
ドアロンでゲーム画像、ゲーム音を生成できるものであ
る場合には、ホスト装置1300からは、ゲーム画像、
ゲーム音を生成するためのゲームプログラム等が端末1
304-1〜1304-nに配送される。一方、スタンドア
ロンで生成できない場合には、ホスト装置1300がゲ
ーム画像、ゲーム音を生成し、これを端末1304-1〜
1304-nに伝送し端末において出力することになる。
FIG. 14C shows a host device 1300,
The host device 1300 and the network 1302 (LA
N or a wide area network such as the Internet).
An example in which the present embodiment is applied to a system including 4-1 to 1304-n will be described. In this case, the storage information is, for example, a magnetic disk device that can be controlled by the host device 1300,
It is stored in an information storage medium 1306 such as a magnetic tape device and a memory. If the terminals 1304-1 to 1304-n are capable of generating a game image and a game sound in a stand-alone manner, the host device 1300 outputs the game image and the game sound.
A game program or the like for generating game sounds is transmitted to the terminal 1.
It is delivered to 304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, and transmits them to the terminals 1304-1 to 1304-1.
1304-n and output at the terminal.

【0110】なお、図14(C)の構成の場合に、本発
明の各手段を、ホスト装置(サーバー)と端末とで分散
して実行するようにしてもよい。また、本発明の各手段
を実行するための上記格納情報を、ホスト装置(サーバ
ー)の情報記憶媒体と端末の情報記憶媒体に分散して格
納するようにしてもよい。
In the case of the configuration shown in FIG. 14C, each means of the present invention may be executed by distributing between a host device (server) and a terminal. Further, the storage information for executing each means of the present invention may be stored separately in an information storage medium of a host device (server) and an information storage medium of a terminal.

【0111】またネットワークに接続する端末は、家庭
用ゲームシステムであってもよいし業務用ゲームシステ
ムであってもよい。そして、業務用ゲームシステムをネ
ットワークに接続する場合には、業務用ゲームシステム
との間で情報のやり取りが可能であると共に家庭用ゲー
ムシステムとの間でも情報のやり取りが可能な携帯型情
報記憶装置(メモリカード、携帯型ゲーム装置)を用い
ることが望ましい。
The terminal connected to the network may be a home game system or an arcade game system. When the arcade game system is connected to a network, a portable information storage device capable of exchanging information with the arcade game system and exchanging information with the home game system. (Memory card, portable game device) is desirable.

【0112】なお本発明は、上記実施形態で説明したも
のに限らず、種々の変形実施が可能である。
The present invention is not limited to the embodiment described above, and various modifications can be made.

【0113】例えば、本発明のうち従属請求項に係る発
明においては、従属先の請求項の構成要件の一部を省略
する構成とすることもできる。また、本発明の1の独立
請求項に係る発明の要部を、他の独立請求項に従属させ
ることもできる。
For example, in the invention according to the dependent claims of the present invention, a configuration in which some of the constituent elements of the dependent claims are omitted may be adopted. In addition, a main part of the invention according to one independent claim of the present invention may be made dependent on another independent claim.

【0114】また本発明の移動オブジェクトは、格闘ゲ
ームやロールプレイングゲームなどに登場するキャラク
タであることが特に望ましいが、本発明の移動オブジェ
クトはこれに限定されない。
It is particularly desirable that the moving object of the present invention is a character that appears in a fighting game, a role playing game, or the like, but the moving object of the present invention is not limited to this.

【0115】またムービーデータのデータ構造は、図2
や図5で説明した構造が特に望ましいが、これに限定さ
れず、種々の変形実施が可能である。
The data structure of the movie data is shown in FIG.
5 and the structure described with reference to FIG. 5 are particularly desirable, but are not limited thereto, and various modifications can be made.

【0116】また、第1の奥行き値データ、ヒットエリ
アデータ、移動経路データ、移動データは、ムービーを
構成する各画像(フレーム画像)の全てのピクセルに設
定してもよいし、一部のピクセルにのみ設定してもよ
い。或いは、各画像に対して設定するようにしてもよ
い。
Further, the first depth value data, hit area data, moving route data, and moving data may be set for all pixels of each image (frame image) constituting the movie, or may be set for some pixels. May be set only for. Alternatively, it may be set for each image.

【0117】また、陰面消去の手法はZバッファ法であ
ることが特に望ましいが、それ以外の手法を採用しても
よい。
It is particularly desirable that the hidden surface elimination method be the Z-buffer method, but other methods may be employed.

【0118】また、第1、第2の奥行き値データ、ヒッ
トエリアデータ(ヒットエリアフラグ、高さ)、移動経
路データ、移動データ(移動値、移動エリアフラグ)
も、本実施形態で説明した形態のデータであることが特
に望ましいが、これに限定されるものではない。
Also, first and second depth value data, hit area data (hit area flag, height), moving route data, moving data (moving value, moving area flag)
Is particularly desirable in the form described in the present embodiment, but is not limited thereto.

【0119】また本発明は種々のゲーム(ロールプレイ
ングゲーム、アクションゲーム、シューティングゲー
ム、格闘ゲーム、ロボット対戦ゲーム、スポーツゲー
ム、競争ゲーム、音楽演奏ゲーム、ダンスゲーム等)に
適用できる。
The present invention can be applied to various games (role playing games, action games, shooting games, fighting games, robot fighting games, sports games, competition games, music playing games, dance games, etc.).

【0120】また本発明は、業務用ゲームシステム、家
庭用ゲームシステム、多数のプレーヤが参加する大型ア
トラクションシステム、シミュレータ、マルチメディア
端末、ゲーム画像を生成するシステムボード等の種々の
画像生成システムに適用できる。
The present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which many players participate, a simulator, a multimedia terminal, and a system board for generating a game image. it can.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態の画像生成システムのブロック図の
例である。
FIG. 1 is an example of a block diagram of an image generation system according to an embodiment.

【図2】本実施形態の手法について説明するための図で
ある。
FIG. 2 is a diagram for explaining a method of the present embodiment.

【図3】図3(A)は、本実施形態により生成される画
像の例であり、図3(B)は、比較例により生成される
画像の例である。
FIG. 3A is an example of an image generated by the present embodiment, and FIG. 3B is an example of an image generated by a comparative example.

【図4】ムービーデータとして実写映像を用いる場合に
おけるムービーデータの作成手法について説明するため
の図である。
FIG. 4 is a diagram for describing a method of creating movie data in the case of using a photographed video as movie data.

【図5】ムービーデータのデータ構造の他の例について
示す図である。
FIG. 5 is a diagram showing another example of the data structure of movie data.

【図6】図6(A)、(B)は、本実施形態のヒットチ
ェック手法について説明するための図である。
FIGS. 6A and 6B are views for explaining a hit check method according to the embodiment; FIG.

【図7】ムービーデータに含まれる移動値MVに基づい
てキャラクタを移動させる手法について説明するための
図である。
FIG. 7 is a diagram for describing a method of moving a character based on a movement value MV included in movie data.

【図8】ムービー再生の最終フレームの画像のデータに
含ませた奥行き値に基づいて陰面消去を行う手法につい
て説明するための図である。
FIG. 8 is a diagram for explaining a technique for performing hidden surface removal based on a depth value included in image data of the last frame of movie playback.

【図9】本実施形態の全体処理の例について示すフロー
チャートである。
FIG. 9 is a flowchart illustrating an example of overall processing according to the embodiment;

【図10】ゲームメイン処理の例について示すフローチ
ャートである。
FIG. 10 is a flowchart illustrating an example of a game main process.

【図11】ムービープレイ処理の例について示すフロー
チャートである。
FIG. 11 is a flowchart illustrating an example of a movie play process.

【図12】キャラクタ移動処理の例について示すフロー
チャートである。
FIG. 12 is a flowchart illustrating an example of a character moving process.

【図13】本実施形態を実現できるハードウェアの構成
の一例を示す図である。
FIG. 13 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.

【図14】図14(A)、(B)、(C)は、本実施形
態が適用される種々の形態のシステムの例を示す図であ
る。
FIGS. 14A, 14B, and 14C are diagrams showing examples of various types of systems to which the present embodiment is applied; FIGS.

【符号の説明】[Explanation of symbols]

10 キャラクタ 20 タンス 22 出入り口 24 窓 30 登場人物 31 机 32 椅子 33〜40 ターゲット(ピンポン玉) 50 撮影用のカメラ 52、54 位置測定用のカメラ 60 壁 70 レバー 72 ボタン 74 表示物 76 ヒットエリア 78、80、82 移動経路 84 エスカレーター 100 処理部 110 ゲーム処理部 112 移動・動作演算部 114 ヒットチェック部 130 画像生成部 132 ジオメトリ処理部 140 描画部 142 陰面消去部 150 音生成部 160 操作部 170 記憶部 172 ムービーデータ記憶部 174 Zバッファ 180 情報記憶媒体 190 表示部 192 音出力部 194 携帯型情報記憶装置 196 通信部 10 Character 20 Close 22 Doorway 24 Window 30 Character 31 Desk 32 Chair 33-40 Target (ping-pong ball) 50 Camera for shooting 52, 54 Camera for position measurement 60 Wall 70 Lever 72 Button 74 Display object 76 Hit area 78, 80, 82 travel route 84 escalator 100 processing unit 110 game processing unit 112 movement / motion calculation unit 114 hit check unit 130 image generation unit 132 geometry processing unit 140 drawing unit 142 hidden surface removal unit 150 sound generation unit 160 operation unit 170 storage unit 172 Movie data storage unit 174 Z buffer 180 Information storage medium 190 Display unit 192 Sound output unit 194 Portable information storage device 196 Communication unit

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 画像を生成するための画像生成システム
であって、 ムービー再生のためのデータであって奥行き値データを
含むムービーデータを記憶するムービーデータ記憶手段
と、 ムービーデータが含む第1の奥行き値データと移動オブ
ジェクトの第2の奥行き値データとに基づいて陰面消去
を行いながら、ムービーと移動オブジェクトとが合成さ
れた画像を描画する描画手段と、 を含むことを特徴とする画像生成システム。
1. An image generation system for generating an image, comprising: movie data storage means for storing movie data including data for reproducing a movie and including depth value data; Drawing means for drawing an image in which the movie and the moving object are combined while performing hidden surface removal based on the depth value data and the second depth value data of the moving object. .
【請求項2】 請求項1において、 前記ムービーデータ記憶手段に記憶されるムービーデー
タが、ヒットエリアを特定するためのヒットエリアデー
タを含み、 前記ヒットエリアデータに基づいて移動オブジェクトと
ヒットエリアとのヒットチェックを行う手段を含むこと
を特徴とする画像生成システム。
2. The movie data storage device according to claim 1, wherein the movie data stored in the movie data storage means includes hit area data for specifying a hit area, and a moving object and a hit area are identified based on the hit area data. An image generation system including means for performing a hit check.
【請求項3】 請求項2において、 前記ヒットエリアデータが、ヒットエリアに関する高さ
データを含むことを特徴とする画像生成システム。
3. The image generation system according to claim 2, wherein the hit area data includes height data on a hit area.
【請求項4】 請求項1乃至3のいずれかにおいて、 前記ムービーデータ記憶手段に記憶されるムービーデー
タが、移動オブジェクトの移動経路を決めるための移動
経路データを含み、 前記移動経路データに基づいて移動オブジェクトを移動
させる手段を含むことを特徴とする画像生成システム。
4. The movie data according to claim 1, wherein the movie data stored in the movie data storage means includes moving route data for determining a moving route of a moving object, and based on the moving route data. An image generation system, comprising: means for moving a moving object.
【請求項5】 請求項1乃至4のいずれかにおいて、 前記ムービーデータ記憶手段に記憶されるムービーデー
タが、移動オブジェクトを移動させるための移動データ
を含み、 前記移動データに基づいて移動オブジェクトを移動させ
る手段を含むことを特徴とする画像生成システム。
5. The moving object according to claim 1, wherein the movie data stored in the movie data storage unit includes moving data for moving a moving object, and moving the moving object based on the moving data. An image generation system comprising means for causing the image to be generated.
【請求項6】 請求項1乃至5のいずれかにおいて、 ムービーデータが含む前記第1の奥行き値データが、ム
ービーを構成する各画像の各ピクセルに対して設定され
ていることを特徴とする画像生成システム。
6. The image according to claim 1, wherein the first depth value data included in the movie data is set for each pixel of each image constituting the movie. Generation system.
【請求項7】 請求項1乃至6のいずれかにおいて、 ムービー再生の最終フレームの画像のデータが前記第1
の奥行き値データを含み、 前記描画手段が、 ムービー再生の最終フレームの画像のデータが含む第1
の奥行き値データと移動オブジェクトの第2の奥行き値
データとに基づいて陰面消去を行いながら、最終フレー
ムの画像と移動オブジェクトとが合成された画像を描画
することを特徴とする画像生成システム。
7. The method according to claim 1, wherein the data of the image of the last frame of the movie playback is the first frame.
The depth value data of the first frame included in the image data of the last frame of the movie playback.
An image generation system for drawing an image in which the image of the final frame and the moving object are synthesized while performing hidden surface removal based on the depth value data of the moving object and the second depth value data of the moving object.
【請求項8】 コンピュータが使用可能な情報記憶媒体
であって、 ムービー再生のためのデータであって奥行き値データを
含むムービーデータを記憶するムービーデータ記憶手段
と、 ムービーデータが含む第1の奥行き値データと移動オブ
ジェクトの第2の奥行き値データとに基づいて陰面消去
を行いながら、ムービーと移動オブジェクトとが合成さ
れた画像を描画する描画手段と、 を実現するためのプログラムを含むことを特徴とする情
報記憶媒体。
8. An information storage medium usable by a computer, comprising: movie data storage means for storing movie data including data for reproducing a movie and including depth value data; and a first depth included in the movie data. Drawing means for drawing an image in which the movie and the moving object are synthesized while performing hidden surface removal based on the value data and the second depth value data of the moving object; and a program for realizing Information storage medium.
【請求項9】 請求項8において、 前記ムービーデータ記憶手段に記憶されるムービーデー
タが、ヒットエリアを特定するためのヒットエリアデー
タを含み、 前記ヒットエリアデータに基づいて移動オブジェクトと
ヒットエリアとのヒットチェックを行う手段を実現する
ためのプログラム含むことを特徴とする情報記憶媒体。
9. The movie data according to claim 8, wherein the movie data stored in the movie data storage means includes hit area data for specifying a hit area, and a moving object and a hit area are identified based on the hit area data. An information storage medium comprising a program for realizing means for performing a hit check.
【請求項10】 請求項9において、 前記ヒットエリアデータが、ヒットエリアに関する高さ
データを含むことを特徴とする情報記憶媒体。
10. The information storage medium according to claim 9, wherein said hit area data includes height data relating to a hit area.
【請求項11】 請求項8乃至10のいずれかにおい
て、 前記ムービーデータ記憶手段に記憶されるムービーデー
タが、移動オブジェクトの移動経路を決めるための移動
経路データを含み、 前記移動経路データに基づいて移動オブジェクトを移動
させる手段を実現するためのプログラムを含むことを特
徴とする情報記憶媒体。
11. The movie data stored in the movie data storage means according to claim 8, wherein the movie data includes moving route data for determining a moving route of a moving object, and based on the moving route data. An information storage medium including a program for realizing means for moving a moving object.
【請求項12】 請求項8乃至11のいずれかにおい
て、 前記ムービーデータ記憶手段に記憶されるムービーデー
タが、移動オブジェクトを移動させるための移動データ
を含み、 前記移動データに基づいて移動オブジェクトを移動させ
る手段を実現するためのプログラムを含むことを特徴と
する情報記憶媒体。
12. The moving object according to claim 8, wherein the movie data stored in the movie data storage unit includes moving data for moving a moving object, and moving the moving object based on the moving data. An information storage medium including a program for realizing means for causing the information to be stored.
【請求項13】 請求項8乃至12のいずれかにおい
て、 ムービーデータが含む前記第1の奥行き値データが、ム
ービーを構成する各画像の各ピクセルに対して設定され
ていることを特徴とする情報記憶媒体。
13. The information according to claim 8, wherein the first depth value data included in the movie data is set for each pixel of each image constituting the movie. Storage medium.
【請求項14】 請求項8乃至13のいずれかにおい
て、 ムービー再生の最終フレームの画像のデータが前記第1
の奥行き値データを含み、 前記描画手段が、 ムービー再生の最終フレームの画像のデータが含む第1
の奥行き値データと移動オブジェクトの第2の奥行き値
データとに基づいて陰面消去を行いながら、最終フレー
ムの画像と移動オブジェクトとが合成された画像を描画
することを特徴とする情報記憶媒体。
14. The method according to claim 8, wherein the image data of the last frame of the movie playback is the first frame.
The depth value data of the first frame included in the image data of the last frame of the movie playback.
An information storage medium for drawing an image in which an image of a final frame and a moving object are synthesized while performing hidden surface removal based on the depth value data of the moving object and the second depth value data of the moving object.
JP36959599A 1999-12-27 1999-12-27 Image generating system and information storage medium Pending JP2001184523A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36959599A JP2001184523A (en) 1999-12-27 1999-12-27 Image generating system and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36959599A JP2001184523A (en) 1999-12-27 1999-12-27 Image generating system and information storage medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009164669A Division JP4758499B2 (en) 2009-07-13 2009-07-13 Image generation system and information storage medium

Publications (1)

Publication Number Publication Date
JP2001184523A true JP2001184523A (en) 2001-07-06

Family

ID=18494837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36959599A Pending JP2001184523A (en) 1999-12-27 1999-12-27 Image generating system and information storage medium

Country Status (1)

Country Link
JP (1) JP2001184523A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241868A (en) * 2006-03-10 2007-09-20 Namco Bandai Games Inc Program, information storage medium, and image generation system
WO2013058735A1 (en) * 2011-10-18 2013-04-25 Hewlett-Packard Development Company, L.P. Depth mask assisted video stabilization
US8717380B2 (en) 2008-07-04 2014-05-06 Canon Kabushiki Kaisha Image processing apparatus and control method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241868A (en) * 2006-03-10 2007-09-20 Namco Bandai Games Inc Program, information storage medium, and image generation system
US8717380B2 (en) 2008-07-04 2014-05-06 Canon Kabushiki Kaisha Image processing apparatus and control method thereof
WO2013058735A1 (en) * 2011-10-18 2013-04-25 Hewlett-Packard Development Company, L.P. Depth mask assisted video stabilization
US9100574B2 (en) 2011-10-18 2015-08-04 Hewlett-Packard Development Company, L.P. Depth mask assisted video stabilization

Similar Documents

Publication Publication Date Title
JP4758499B2 (en) Image generation system and information storage medium
US7922584B2 (en) Image generation method and information storage medium with program for video game in which operation of the controller beyond a predetermined angle causes a character to attack
EP1151770B1 (en) Video game apparatus, background sound output setting method in video game, and computer-readable recording medium storing background sound output setting program
JP3529138B2 (en) Image processing apparatus, image processing method, game apparatus using the same, and storage medium
JP4610747B2 (en) Image generation system, program, and information storage medium
JP2939230B1 (en) Image generation device and information storage medium
JP3707995B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
US6878065B2 (en) Video game system, character action control method, and readable storage medium storing character action control program
JP4707080B2 (en) Image generation system, program, and information storage medium
JP3990258B2 (en) Image generation system, program, and information storage medium
JP3280355B2 (en) Image generation system and information storage medium
JP2005246071A (en) Image forming system and information storage medium
JP4367810B2 (en) Image generation system and information storage medium
JP4447000B2 (en) Image generation system, program, and information storage medium
JP4651204B2 (en) Image generation system, program, and information storage medium
JP4223139B2 (en) Image generating apparatus and information storage medium
JP2002085845A (en) Game system and information storage medium
JP2000245963A (en) Game system and information storage medium
JP2001184523A (en) Image generating system and information storage medium
JP2005319107A (en) Program, information storage medium, and game system
JP4212015B2 (en) Image generating apparatus and information storage medium
JP4266121B2 (en) Image generation system, program, and information storage medium
JP2001187267A (en) Game system and information storage medium
JP2005209217A (en) Game system and information storage medium
JP2006318196A (en) Program, information storage medium and image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090513

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090819

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091216