JP2009238245A - Image generation system and information storage medium - Google Patents

Image generation system and information storage medium Download PDF

Info

Publication number
JP2009238245A
JP2009238245A JP2009164669A JP2009164669A JP2009238245A JP 2009238245 A JP2009238245 A JP 2009238245A JP 2009164669 A JP2009164669 A JP 2009164669A JP 2009164669 A JP2009164669 A JP 2009164669A JP 2009238245 A JP2009238245 A JP 2009238245A
Authority
JP
Japan
Prior art keywords
data
movie
image
depth value
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009164669A
Other languages
Japanese (ja)
Other versions
JP4758499B2 (en
Inventor
Chikara Nishikadoi
能 西角井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2009164669A priority Critical patent/JP4758499B2/en
Publication of JP2009238245A publication Critical patent/JP2009238245A/en
Application granted granted Critical
Publication of JP4758499B2 publication Critical patent/JP4758499B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image generation system and an information storage medium capable of performing hidden surface removal of a moving object by a movie by giving depth to the movie. <P>SOLUTION: Movie data for reproducing a movie are made to include a depth value Z1, and the hidden surface removal is performed based on this depth value Z1 and a depth value Z2 of a character 10. An image in which the movie and the character 10 are composited is rendered. The movie data are made to include hit area data (a hit area flag, and a height of the hit area) for specifying a hit area, and a hit check is performed between the character and the hit area based on the hit area data. The movie data are made to include moving pathway data and movement data, and the character is moved based on the moving pathway data and the movement data. The data of the last frame image in the movie reproduction are made to include the depth value Z1, and the hidden surface removal is performed based on the depth value Z1 and the depth value Z2 of the character to render an image in which the last frame image and the character are composited. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像生成システム及び情報記憶媒体に関する。   The present invention relates to an image generation system and an information storage medium.

従来より、仮想的な3次元空間であるオブジェクト空間内の所与の視点から見える画像を生成する画像生成システムが知られており、いわゆる仮想現実を体験できるものとして人気が高い。   2. Description of the Related Art Conventionally, an image generation system that generates an image that can be seen from a given viewpoint in an object space that is a virtual three-dimensional space is known, and is popular as being able to experience so-called virtual reality.

このような画像生成システムでは、ゲームのオープニング、幕間、エンディングなどにおいて、プレーヤのゲーム意欲を盛り上げたりプレーヤの感動を高めるために、いわゆるムービー(動画)と呼ばれるものが再生される。このムービーでは、CGツールにより制作されたCG映像や実写映像が再生されるため、ポリゴン(プリミティブ面)により構成された3次元オブジェクトをリアルタイムに動かすことで生成される画像に比べて、よりリアルで写実的な表現が可能になる。   In such an image generation system, what is called a movie (moving image) is reproduced in order to increase the player's motivation and increase the player's excitement at the opening, the intermission, and the ending of the game. In this movie, CG video and live-action video produced by the CG tool are played, so it is more realistic than an image generated by moving a 3D object composed of polygons (primitive surfaces) in real time. Realistic expression is possible.

しかしながら、これまでの画像生成システムでは、ムービー再生のためのデータであるムービーデータが、2次元画像データや音データしか含まなかった。従って、例えばムービーとキャラクタ(広義には移動オブジェクト)が合成された画像を生成しようとすると、キャラクタがムービーの手前に常に表示されるようになり、リアル感に欠ける画像が生成されてしまう。   However, in conventional image generation systems, movie data that is data for movie playback includes only two-dimensional image data and sound data. Therefore, for example, if an image in which a movie and a character (moving object in a broad sense) are combined is generated, the character is always displayed in front of the movie, and an image lacking realism is generated.

特開平8−212379号公報JP-A-8-212379

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、ムービーに奥行きを持たせて、ムービーによる移動オブジェクトの陰面消去を可能にする画像生成システム及び情報記憶媒体を提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an image generation system and an information storage that can remove a hidden surface of a moving object by a movie by adding depth to the movie. To provide a medium.

上記課題を解決するために、本発明は、画像を生成するための画像生成システムであって、ムービー再生のためのデータであって奥行き値データを含むムービーデータを記憶するムービーデータ記憶手段と、ムービーデータが含む第1の奥行き値データと移動オブジェクトの第2の奥行き値データとに基づいて陰面消去を行いながら、ムービーと移動オブジェクトとが合成された画像を描画する描画手段とを含むことを特徴とする。また本発明に係る情報記憶媒体は、コンピュータにより使用可能な情報記憶媒体であって、上記手段を実現(実行)するためのプログラムを含むことを特徴とする。また本発明に係るプログラムは、コンピュータにより使用可能なプログラム(搬送波に具現化されるプログラムを含む)であって、上記手段を実現(実行)するための処理ルーチンを含むことを特徴とする。   In order to solve the above-mentioned problems, the present invention is an image generation system for generating an image, and movie data storage means for storing movie data that is data for movie playback and includes depth value data; And drawing means for drawing an image in which the movie and the moving object are combined while performing hidden surface removal based on the first depth value data included in the movie data and the second depth value data of the moving object. Features. The information storage medium according to the present invention is an information storage medium that can be used by a computer, and includes a program for realizing (executing) the above means. A program according to the present invention is a program (including a program embodied in a carrier wave) usable by a computer, and includes a processing routine for realizing (executing) the above means.

本発明によれば、ムービー再生のためのデータであるムービーデータ(CG映像、実写映像等)が、第1の奥行き値データを含む。そして、この第1の奥行き値データと移動オブジェクト(キャラクタ等)の第2の奥行き値データとに基づいて陰面消去が行われる。これにより、ムービーを構成する表示物の物陰に移動オブジェクトが隠れるなどの画像表現が可能になる。従って、2次元映像であるムービーにあたかも奥行きがあるかのように、プレーヤを錯覚させることができ、プレーヤの仮想現実感を高めることができる。しかも、背景などをムービーで表現すれば、背景をポリゴン(プリミティブ面)で表現する場合に比べて、よりリアルで写実的な画像表現が可能になると共に、製品の低コスト化や開発期間の短縮化を図れる。   According to the present invention, movie data (CG video, live-action video, etc.) that is data for movie playback includes first depth value data. Then, hidden surface removal is performed based on the first depth value data and the second depth value data of the moving object (such as a character). As a result, it is possible to express an image such as a moving object hidden behind a display object constituting the movie. Therefore, it is possible to make the player have an illusion as if the movie, which is a two-dimensional image, has a depth, and to increase the virtual reality of the player. In addition, if the background is represented by a movie, a more realistic and realistic image can be represented, and the cost of the product can be reduced and the development period can be shortened compared to the case where the background is represented by a polygon (primitive surface). Can be realized.

なお、第1、第2の奥行き値データに基づく陰面消去は、Zバッファを用いたZバッファ法により行うことが望ましい。また移動オブジェクトは、複数のプリミティブ面(ポリゴン、曲面等)により構成することが望ましい。   The hidden surface removal based on the first and second depth value data is preferably performed by a Z buffer method using a Z buffer. The moving object is preferably composed of a plurality of primitive surfaces (polygons, curved surfaces, etc.).

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、前記ムービーデータ記憶手段に記憶されるムービーデータが、ヒットエリアを特定するためのヒットエリアデータを含み、前記ヒットエリアデータに基づいて移動オブジェクトとヒットエリアとのヒットチェックを行う手段(該手段を実現するためのプログラム、処理ルーチン)を含むことを特徴とする。このようすることで、ムービーの中の表示物と移動オブジェクトとの間のヒットチェックが可能になる。従って、ムービーの中の表示物が障害となって移動オブジェクトが移動できないなどのゲーム状況を作り出すことができる。これにより、ムービーの中の表示物がポリゴン等で構成されているかのような錯覚を、プレーヤに与えることが可能になり、プレーヤの仮想現実感を高めることができる。   The image generation system, information storage medium, and program according to the present invention may be configured such that the movie data stored in the movie data storage means includes hit area data for specifying a hit area, and moves based on the hit area data. It includes means for performing a hit check between an object and a hit area (a program and a processing routine for realizing the means). This makes it possible to perform a hit check between the display object in the movie and the moving object. Accordingly, it is possible to create a game situation in which a moving object cannot move due to an obstacle in a display in the movie. This makes it possible to give the player the illusion that the display object in the movie is composed of polygons or the like, thereby enhancing the player's virtual reality.

なお、ヒットチェック処理においては、ムービーに登場する表示物の底面をヒットエリアとし、このヒットエリアと、移動オブジェクトの最下部に設定された代表点との間で、ヒットチェックを行うことが望ましい。   In the hit check process, it is preferable to perform a hit check between the hit area and the representative point set at the bottom of the moving object, using the bottom surface of the display object appearing in the movie as a hit area.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、前記ヒットエリアデータが、ヒットエリアに関する高さデータを含むことを特徴とする。このようにすることで、ムービーの中の表示物の高さも考慮したヒットチェック処理などが可能になる。   The image generation system, information storage medium, and program according to the present invention are characterized in that the hit area data includes height data related to the hit area. By doing so, it becomes possible to perform a hit check process in consideration of the height of the display object in the movie.

なお、ヒットエリアデータとしては、この高さデータの他にも、画像の各ピクセルがヒットエリアか否かを示すヒットエリアフラグなどを考えることができる。   As hit area data, in addition to the height data, a hit area flag indicating whether each pixel of the image is a hit area can be considered.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、前記ムービーデータ記憶手段に記憶されるムービーデータが、移動オブジェクトの移動経路を決めるための移動経路データを含み、前記移動経路データに基づいて移動オブジェクトを移動させる手段(該手段を実現するためのプログラム、処理ルーチン)を含むことを特徴とする。このようにすれば、ムービーの中の表示物の存在により、移動オブジェクトの移動経路を変更するなどの処理が可能になり、表示物を避けるように移動オブジェクトを移動させることが可能になる。   The image generation system, information storage medium, and program according to the present invention may be configured such that the movie data stored in the movie data storage unit includes movement path data for determining a movement path of a moving object, and is based on the movement path data. And a means for moving the moving object (a program for realizing the means, a processing routine). In this way, processing such as changing the moving path of the moving object can be performed due to the presence of the display object in the movie, and the moving object can be moved so as to avoid the display object.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、前記ムービーデータ記憶手段に記憶されるムービーデータが、移動オブジェクトを移動させるための移動データを含み、前記移動データに基づいて移動オブジェクトを移動させる手段(該手段を実現するためのプログラム、処理ルーチン)を含むことを特徴とする。このようにすれば、ムービーの中の表示物の動きに連動させて移動オブジェクトを移動させたり、ムービー全体の動きに連動させて、移動オブジェクトを移動させることなどが可能になる。   The image generation system, information storage medium, and program according to the present invention may be configured such that the movie data stored in the movie data storage means includes movement data for moving a moving object, and the moving object is stored based on the movement data. It includes a means for moving (a program for realizing the means, a processing routine). In this way, it is possible to move the moving object in conjunction with the movement of the display object in the movie, or to move the moving object in conjunction with the movement of the entire movie.

なお、移動データとしては、移動量を表す移動値や、移動エリアを特定するための移動エリアフラグなどを考えることができる。   As the movement data, a movement value indicating a movement amount, a movement area flag for specifying a movement area, and the like can be considered.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、ムービーデータが含む前記第1の奥行き値データが、ムービーを構成する各画像の各ピクセルに対して設定されていることを特徴とする。このように各画像(フレーム画像)の各ピクセルに対して第1の奥行き値データを設定することで、より精密で正確な陰面消去が可能になる。   The image generation system, information storage medium, and program according to the present invention are characterized in that the first depth value data included in movie data is set for each pixel of each image constituting the movie. . Thus, by setting the first depth value data for each pixel of each image (frame image), it is possible to perform more precise and accurate hidden surface removal.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、ムービー再生の最終フレームの画像のデータが前記第1の奥行き値データを含み、前記描画手段が、ムービー再生の最終フレームの画像のデータが含む第1の奥行き値データと移動オブジェクトの第2の奥行き値データとに基づいて陰面消去を行いながら、最終フレームの画像と移動オブジェクトとが合成された画像を描画することを特徴とする。このようにすれば、オープニング用ムービーや幕間用ムービーの再生の後、切れ目無くゲームを開始できるようになり、プレーヤは、自然にゲーム世界に入り込むことができるようになる。   In the image generation system, information storage medium, and program according to the present invention, the image data of the final frame of the movie reproduction includes the first depth value data, and the drawing unit stores the image data of the final frame of the movie reproduction. An image obtained by combining the image of the final frame and the moving object is drawn while performing hidden surface removal based on the first depth value data included in the image and the second depth value data of the moving object. In this way, the game can be started without any breaks after the opening movie or the intermission movie is played, and the player can naturally enter the game world.

本実施形態の画像生成システムのブロック図の例である。It is an example of the block diagram of the image generation system of this embodiment. 本実施形態の手法について説明するための図である。It is a figure for demonstrating the method of this embodiment. 図3(A)は、本実施形態により生成される画像の例であり、図3(B)は、比較例により生成される画像の例である。FIG. 3A is an example of an image generated by the present embodiment, and FIG. 3B is an example of an image generated by a comparative example. ムービーデータとして実写映像を用いる場合におけるムービーデータの作成手法について説明するための図である。It is a figure for demonstrating the production method of the movie data in the case of using a real image | video as movie data. ムービーデータのデータ構造の他の例について示す図である。It is a figure shown about the other example of the data structure of movie data. 図6(A)、(B)は、本実施形態のヒットチェック手法について説明するための図である。6A and 6B are diagrams for explaining the hit check method according to the present embodiment. ムービーデータに含まれる移動値MVに基づいてキャラクタを移動させる手法について説明するための図である。It is a figure for demonstrating the method of moving a character based on the movement value MV contained in movie data. ムービー再生の最終フレームの画像のデータに含ませた奥行き値に基づいて陰面消去を行う手法について説明するための図である。It is a figure for demonstrating the method of performing hidden surface deletion based on the depth value included in the image data of the last frame of movie reproduction. 本実施形態の全体処理の例について示すフローチャートである。It is a flowchart shown about the example of the whole process of this embodiment. ゲームメイン処理の例について示すフローチャートである。It is a flowchart shown about the example of a game main process. ムービープレイ処理の例について示すフローチャートである。It is a flowchart shown about the example of a movie play process. キャラクタ移動処理の例について示すフローチャートである。It is a flowchart shown about the example of a character movement process. 本実施形態を実現できるハードウェアの構成の一例を示す図である。It is a figure which shows an example of the structure of the hardware which can implement | achieve this embodiment. 図14(A)、(B)、(C)は、本実施形態が適用される種々の形態のシステムの例を示す図である。FIGS. 14A, 14 </ b> B, and 14 </ b> C are diagrams illustrating examples of various types of systems to which the present embodiment is applied.

以下、本発明の好適な実施形態について図面を用いて説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

1.構成
図1に、本実施形態のブロック図の一例を示す。なお同図において本実施形態は、少なくとも処理部100を含めばよく(或いは処理部100と記憶部170、或いは処理部100と記憶部170と情報記憶媒体180を含めばよく)、それ以外のブロック(例えば操作部160、表示部190、音出力部192、携帯型情報記憶装置194、通信部196)については、任意の構成要素とすることができる。
1. Configuration FIG. 1 shows an example of a block diagram of the present embodiment. In this figure, the present embodiment may include at least the processing unit 100 (or may include the processing unit 100 and the storage unit 170, or the processing unit 100, the storage unit 170, and the information storage medium 180), and other blocks. (For example, the operation unit 160, the display unit 190, the sound output unit 192, the portable information storage device 194, and the communication unit 196) can be arbitrary constituent elements.

ここで処理部100は、システム全体の制御、システム内の各ブロックへの命令の指示、ゲーム処理、画像処理、音処理などの各種の処理を行うものであり、その機能は、各種プロセッサ(CPU、DSP等)、或いはASIC(ゲートアレイ等)などのハードウェアや、所与のプログラム(ゲームプログラム)により実現できる。   Here, the processing unit 100 performs various processes such as control of the entire system, instruction instruction to each block in the system, game processing, image processing, sound processing, and the like. , DSP, etc.) or ASIC (gate array, etc.) or a given program (game program).

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、筺体などのハードウェアにより実現できる。   The operation unit 160 is for a player to input operation data, and the function can be realized by hardware such as a lever, a button, and a housing.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAMなどのハードウェアにより実現できる。   The storage unit 170 serves as a work area such as the processing unit 100 or the communication unit 196, and its function can be realized by hardware such as a RAM.

情報記憶媒体(コンピュータにより使用可能な記憶媒体)180は、プログラムやデータなどの情報を格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などのハードウェアにより実現できる。処理部100は、この情報記憶媒体180に格納される情報に基づいて本発明(本実施形態)の種々の処理を行う。即ち情報記憶媒体180には、本発明(本実施形態)の手段(特に処理部100に含まれるブロック)を実行(実現)するための情報(プログラム或いはデータ)が格納される。   An information storage medium (storage medium usable by a computer) 180 stores information such as programs and data, and functions thereof are an optical disk (CD, DVD), a magneto-optical disk (MO), a magnetic disk, and a hard disk. It can be realized by hardware such as a magnetic tape or a memory (ROM). The processing unit 100 performs various processes of the present invention (this embodiment) based on information stored in the information storage medium 180. That is, the information storage medium 180 stores information (program or data) for executing (implementing) the means (particularly, the blocks included in the processing unit 100) of the present invention (this embodiment).

なお、情報記憶媒体180に格納される情報の一部又は全部は、システムへの電源投入時等に記憶部170に転送されることになる。また情報記憶媒体180に記憶される情報は、本発明の処理を行うためのプログラムコード、画像データ、音データ、表示物の形状データ、テーブルデータ、リストデータ、本発明の処理を指示するための情報、その指示に従って処理を行うための情報等の少なくとも1つを含むものである。   Part or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the system is powered on. Information stored in the information storage medium 180 includes program code, image data, sound data, display object shape data, table data, list data, and instructions for processing of the present invention. It includes at least one of information, information for performing processing according to the instruction, and the like.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、或いはHMD(ヘッドマウントディスプレイ)などのハードウェアにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and the function thereof can be realized by hardware such as a CRT, LCD, or HMD (head mounted display).

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカなどのハードウェアにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by hardware such as a speaker.

携帯型情報記憶装置194は、プレーヤの個人データやセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などを考えることができる。   The portable information storage device 194 stores player personal data, save data, and the like. As the portable information storage device 194, a memory card, a portable game device, and the like can be considered.

通信部196は、外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種の制御を行うものであり、その機能は、各種プロセッサ、或いは通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions as hardware such as various processors or a communication ASIC. Or by a program.

なお本発明(本実施形態)の手段を実行するためのプログラム或いはデータは、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180に配信するようにしてもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含まれる。   The program or data for executing the means of the present invention (this embodiment) may be distributed from the information storage medium of the host device (server) to the information storage medium 180 via the network and the communication unit 196. Good. Use of such an information storage medium of the host device (server) is also included in the scope of the present invention.

処理部100は、ゲーム処理部110、画像生成部130、音生成部150を含む。   The processing unit 100 includes a game processing unit 110, an image generation unit 130, and a sound generation unit 150.

ここでゲーム処理部110は、コイン(代価)の受け付け処理、各種モードの設定処理、ゲームの進行処理、選択画面の設定処理、オブジェクト(1又は複数のプリミティブ面)の位置や回転角度(X、Y又はZ軸回り回転角度)を求める処理、オブジェクトを動作させる処理(モーション処理)、視点の位置(仮想カメラの位置)や視線角度(仮想カメラの回転角度)を求める処理、マップオブジェクトなどのオブジェクトをオブジェクト空間へ配置する処理、ヒットチェック処理、ゲーム結果(成果、成績)を演算する処理、複数のプレーヤが共通のゲーム空間でプレイするための処理、或いはゲームオーバー処理などの種々のゲーム処理を、操作部160からの操作データや、携帯型情報記憶装置194からの個人データ、保存データや、ゲームプログラムなどに基づいて行う。   Here, the game processing unit 110 receives a coin (price) reception process, various mode setting processes, a game progress process, a selection screen setting process, the position and rotation angle (X, Processing to obtain the rotation angle around the Y or Z axis), processing to move the object (motion processing), processing to obtain the viewpoint position (virtual camera position) and line-of-sight angle (virtual camera rotation angle), objects such as map objects Various game processes, such as a process for placing a game in an object space, a hit check process, a process for calculating game results (results, results), a process for multiple players to play in a common game space, or a game over process , Operation data from the operation unit 160, personal data from the portable information storage device 194, storage data , Carried out on the basis of a game program.

画像生成部130は、ゲーム処理部110からの指示等にしたがって各種の画像処理を行い、例えばオブジェクト空間内で仮想カメラ(視点)から見える画像を生成して、表示部190に出力する。また、音生成部150は、ゲーム処理部110からの指示等にしたがって各種の音処理を行い、BGM、効果音、音声などの音を生成し、音出力部192に出力する。   The image generation unit 130 performs various types of image processing in accordance with instructions from the game processing unit 110, for example, generates an image that can be seen from a virtual camera (viewpoint) in the object space, and outputs the generated image to the display unit 190. In addition, the sound generation unit 150 performs various types of sound processing in accordance with instructions from the game processing unit 110, generates sounds such as BGM, sound effects, and voices, and outputs them to the sound output unit 192.

なお、ゲーム処理部110、画像生成部130、音生成部150の機能は、その全てをハードウェアにより実現してもよいし、その全てをプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   Note that all of the functions of the game processing unit 110, the image generation unit 130, and the sound generation unit 150 may be realized by hardware, or all of them may be realized by a program. Alternatively, it may be realized by both hardware and a program.

ゲーム処理部110は、移動・動作演算部112、ヒットチェック部114を含む。   The game processing unit 110 includes a movement / motion calculation unit 112 and a hit check unit 114.

ここで移動・動作演算部112は、キャラクタなどの移動オブジェクトの移動情報(位置データ、回転角度データ)や動作情報(移動オブジェクトの各パーツの位置データ、回転角度データ)を演算するものであり、例えば、操作部160によりプレーヤが入力した操作データやゲームプログラムなどに基づいて、移動オブジェクトを移動させたり動作させたりする処理を行う。   Here, the movement / motion calculation unit 112 calculates movement information (position data, rotation angle data) and movement information (position data of each part of the moving object, rotation angle data) of a moving object such as a character, For example, a process of moving or moving the moving object is performed based on operation data input by the player through the operation unit 160, a game program, or the like.

より具体的には、移動・動作演算部114は、移動オブジェクトの位置や回転角度を例えば1フレーム(1/60秒)毎に求める処理を行う。例えば(k−1)フレームでの移動オブジェクトの位置をPMk-1、速度をVMk-1、加速度をAMk-1、1フレームの時間を△tとする。するとkフレームでの移動オブジェクトの位置PMk、速度VMkは例えば下式(1)、(2)のように求められる。   More specifically, the movement / motion calculation unit 114 performs a process of obtaining the position and rotation angle of the moving object every frame (1/60 seconds), for example. For example, assume that the position of the moving object in the (k−1) frame is PMk−1, the velocity is VMk−1, the acceleration is AMk−1, and the time of one frame is Δt. Then, the position PMk and the speed VMk of the moving object in the k frame are obtained, for example, by the following equations (1) and (2).

PMk=PMk-1+VMk-1×△t (1)
VMk=VMk-1+AMk-1×△t (2)
ヒットチェック部114は、ヒットエリアやショット(矢、弾丸等)と、移動オブジェクトとの間のヒットチェック処理を行う。より具体的には本実施形態では、ムービーデータ記憶部172に記憶されるムービーデータが、ヒットエリアを特定するためのヒットエリアデータ(ヒットエリアフラグ、ヒットエリアの高さ等)を含む。そして、ヒットチェック部114は、このヒットエリアデータと、移動オブジェクトの位置や方向とに基づいてヒットチェック処理を行う。そして、移動オブジェクトがヒットエリアにヒットした(進入した)と判断されると、移動オブジェクトの移動経路が補正される。
PMk = PMk-1 + VMk-1 * .DELTA.t (1)
VMk = VMk-1 + AMk-1 * .DELTA.t (2)
The hit check unit 114 performs hit check processing between a hit area or a shot (arrow, bullet, etc.) and a moving object. More specifically, in the present embodiment, the movie data stored in the movie data storage unit 172 includes hit area data (hit area flag, hit area height, etc.) for specifying a hit area. The hit check unit 114 performs hit check processing based on the hit area data and the position and direction of the moving object. When it is determined that the moving object has hit (entered) the hit area, the moving path of the moving object is corrected.

なお、ムービーデータ記憶部172に記憶されるムービーデータが移動経路データや移動データ(移動値、移動エリアフラグ等)を含む場合には、移動・動作演算部112は、これらの移動経路データや移動データに基づいて、移動オブジェクトを移動させる処理を行うことになる。   When the movie data stored in the movie data storage unit 172 includes movement route data and movement data (movement value, movement area flag, etc.), the movement / motion calculation unit 112 determines the movement route data and movement data. A process of moving the moving object is performed based on the data.

画像生成部130は、ジオメトリ処理部132(3次元演算部)、描画部140(レンダリング部)を含む。   The image generation unit 130 includes a geometry processing unit 132 (three-dimensional calculation unit) and a drawing unit 140 (rendering unit).

ここで、ジオメトリ処理部132は、座標変換、クリッピング処理、透視変換、或いは光源計算などの種々のジオメトリ処理(3次元演算)を行う。   Here, the geometry processing unit 132 performs various types of geometry processing (three-dimensional calculation) such as coordinate transformation, clipping processing, perspective transformation, or light source calculation.

描画部140は、オブジェクトやテクスチャのデータなどに基づいて、オブジェクト空間において仮想カメラから見える画像を描画する処理を行う。そして、本実施形態の描画部140は、ムービーデータ記憶部172に記憶されるムービーデータが含む奥行き値Z1とキャラクタなどの移動オブジェクトの奥行き値Z2とに基づいて陰面消去を行いながら、ムービーと移動オブジェクトとが合成された画像を描画する。この場合、描画部140が含む陰面消去部142が、例えば、奥行き値が格納されるZバッファ174を用いてZバッファ法のアルゴリズムにしたがった陰面消去を行うことになる。   The drawing unit 140 performs a process of drawing an image that can be seen from the virtual camera in the object space, based on the object and texture data. Then, the drawing unit 140 according to the present embodiment performs movie and moving while performing hidden surface removal based on the depth value Z1 included in the movie data stored in the movie data storage unit 172 and the depth value Z2 of the moving object such as a character. Draws an image that is combined with the object. In this case, the hidden surface removal unit 142 included in the drawing unit 140 performs hidden surface removal according to the algorithm of the Z buffer method using, for example, the Z buffer 174 in which the depth value is stored.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、このようなシングルプレーヤモードのみならず、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or not only the single player mode but also a multiplayer mode in which a plurality of players can play. The system may also be provided.

また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末を用いて生成してもよい。   Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated using a plurality of terminals.

2.本実施形態の特徴
本実施形態では、ムービー再生のためのデータであるムービーデータに奥行き値Z1を含ませている。そして、この奥行き値Z1とキャラクタ(広義には移動オブジェクト)の奥行き値Z2とに基づいて陰面消去を行いながら、ムービーとキャラクタが合成された画像を生成している。
2. Features of this embodiment In this embodiment, a depth value Z1 is included in movie data, which is data for movie playback. An image in which the movie and the character are combined is generated while performing hidden surface removal based on the depth value Z1 and the depth value Z2 of the character (moving object in a broad sense).

より具体的には例えば図2に示すように、ムービーを構成する各フレーム画像の各ピクセルに対して、画像データ(RGB)の他に、奥行き値Z1のデータを含ませる。そして、このZ1とキャラクタのZ2とを比較し、Zバッファ法などのアルゴリズムにしたがって陰面消去を行い、ムービーとキャラクタが合成された画像を生成する。   More specifically, for example, as shown in FIG. 2, each pixel of each frame image constituting the movie includes data of a depth value Z1 in addition to image data (RGB). Then, Z1 is compared with Z2 of the character, and hidden surface removal is performed in accordance with an algorithm such as a Z buffer method to generate an image in which the movie and the character are combined.

このようにすることで図3(A)に示すように、ムービーの絵の中にキャラクタを割り込ませることができるようになる。即ち、ムービーで表現されるタンス20(表示物)の物陰にキャラクタ10が隠れたり、ムービーで表現される出入り口22からキャラクタが出て行くなどの画像表現が可能になる。或いは、ムービーで表現される窓24の向こう側からキャラクタ10が覗き込むなどの画像表現も可能になる。   In this way, as shown in FIG. 3A, a character can be interrupted in a movie picture. In other words, it is possible to display images such as the character 10 hidden behind the chest 20 (display object) expressed in a movie or the character going out from the entrance 22 expressed in a movie. Alternatively, it is possible to perform image expression such as the character 10 looking into the window 24 from the other side of the window 24.

即ち、これまでのムービーでは、ムービーデータが画像データや音データしか含まず、奥行き値のデータを含まなかった。従って、ムービーとキャラクタの合成画像を生成しようとすると、図3(B)に示すようにキャラクタ10が常に手前に表示されるようになってしまい、リアルが画像を生成できなかった。   In other words, in movies so far, movie data includes only image data and sound data, and does not include depth value data. Therefore, when a composite image of a movie and a character is to be generated, the character 10 is always displayed in front as shown in FIG. 3B, and the real image cannot be generated.

本実施形態によれば、図3(A)に示すように、キャラクタ10の奥行き値Z2の大きさに応じて、キャラクタ10がムービーの中の表示物の物陰に隠れたり、隠れなかったりするようになるため、よりリアルで臨場感溢れる画像を生成できる。   According to the present embodiment, as shown in FIG. 3A, the character 10 may or may not be hidden behind the display object in the movie according to the depth value Z2 of the character 10. Therefore, a more realistic and realistic image can be generated.

なお、本実施形態におけるムービーは、CGツールで制作した一連のセル画像により構成されるCG映像でもよいし、カメラにより撮影した実写映像でもよい。   Note that the movie in the present embodiment may be a CG video composed of a series of cell images produced by a CG tool, or a live-action video shot by a camera.

ムービーとしてCG映像を用いる場合には、CGの作成時に生じた各ピクセルの奥行き値のデータを破棄せずにムービーデータの中に含ませるようにする。即ち、CGツールのZバッファに記憶される最終的な奥行き値のデータは、通常は破棄されるが、これを破棄せずに、画像データ(RGB)と共にムービーデータの中に含ませるようにする。このようにすることで、奥行き値のデータを含むムービーデータを、それほど手間をかけることなく用意することができるようになる。   When a CG video is used as a movie, the depth value data of each pixel generated when the CG is created is included in the movie data without being discarded. That is, the final depth value data stored in the Z buffer of the CG tool is normally discarded, but is not discarded, but is included in the movie data together with the image data (RGB). . In this way, movie data including depth value data can be prepared without much effort.

一方、ムービーとして実写映像を用いる場合には以下のようにする。   On the other hand, when a live-action video is used as a movie, the following is performed.

例えば図4に示すように、被写体となる人物30、机31、椅子32等を撮影用のカメラ50で撮影する際に、複数台の位置測定用のカメラ52、54を用いて人物30、机31、椅子32を異なる方向から撮影する。そして、得られた画像を用いて数値計算を行い、三角測量の原理で人物30、机31、椅子32の奥行き値(位置)を求める。そして、求められた奥行き値を、撮影用のカメラ50により得られたムービーデータ(実写映像データ)の中に含ませるようにする。   For example, as shown in FIG. 4, when photographing a person 30, a desk 31, a chair 32, or the like as a subject with a photographing camera 50, the person 30, the desk is used by using a plurality of position measuring cameras 52, 54. 31 and the chair 32 are photographed from different directions. Then, numerical calculation is performed using the obtained image, and depth values (positions) of the person 30, the desk 31, and the chair 32 are obtained by the principle of triangulation. Then, the obtained depth value is included in the movie data (actual video data) obtained by the camera 50 for photographing.

なお、人物30、机31、椅子32のおおよその奥行き値がわかれば十分である場合には、即ち、キャラクタが、人物30、机31、椅子32の手前に位置するか後ろに隠れるかが判別できれば十分である場合には、次のようにすればよい。即ち、これらの被写体の代表点にピンポン玉などのターゲット33〜40を取り付け、これらターゲット33〜40の位置をカメラ52、54で測定することで、被写体の奥行き値を特定する。   If it is sufficient to know the approximate depth values of the person 30, the desk 31, and the chair 32, that is, whether the character is positioned in front of the person 30, the desk 31, and the chair 32 or hidden behind it. If it is sufficient, you can do the following: That is, by attaching targets 33 to 40 such as ping-pong balls to the representative points of these subjects and measuring the positions of these targets 33 to 40 with the cameras 52 and 54, the depth value of the subject is specified.

なお、この場合、ターゲット33〜40は、撮影用のカメラ50から見えない位置に取り付けることが望ましい。例えば人物30の場合には、人物30の後頭部や背中にターゲットを取り付ける。そして、位置測定用のカメラ52、54を人物30の後方や頭上に設置して人物30を撮影し、人物30の奥行き値を特定する。   In this case, it is desirable that the targets 33 to 40 are attached at positions where they cannot be seen from the camera 50 for photographing. For example, in the case of the person 30, the target is attached to the back of the person 30 and the back. Then, the position measurement cameras 52 and 54 are installed behind or above the person 30 to photograph the person 30 and specify the depth value of the person 30.

また、カメラ50により撮影する際に、壁60を青色にし(ブルーバック)、別に用意された背景と、人物30、机31、椅子32とを、クロマキー合成するようにしてもよい。この場合に、別に用意された背景の奥行き値は例えば無限大に設定し、人物30、机31、椅子32の奥行き値は、カメラ52、54による測定で得られた値を設定する。このようにすれば、より正確な奥行き値を設定できる。   Further, when shooting with the camera 50, the wall 60 may be blue (blue back), and the background prepared separately and the person 30, the desk 31, and the chair 32 may be chroma key-combined. In this case, the depth value of the background prepared separately is set to infinity, for example, and the depth values of the person 30, the desk 31, and the chair 32 are set to values obtained by measurement by the cameras 52 and 54. In this way, a more accurate depth value can be set.

また、カメラ52、54を用いる代わりに、超音波や電磁波とそれを受信する受信機を用いて奥行き値を求めてもよい。例えば、ターゲットから超音波や電磁波を発信して、ターゲットとは別の位置に設置された1又は複数の受信機で受信する。そして、受信機への超音波や電磁波の到達時間や、複数の受信機への到達時間や位相の差に基づいて、奥行き値(位置)を求めるようにする。   Further, instead of using the cameras 52 and 54, the depth value may be obtained using ultrasonic waves or electromagnetic waves and a receiver that receives the ultrasonic waves or electromagnetic waves. For example, ultrasonic waves or electromagnetic waves are transmitted from the target and received by one or a plurality of receivers installed at positions different from the target. Then, the depth value (position) is obtained based on arrival times of ultrasonic waves and electromagnetic waves to the receiver, arrival times to the plurality of receivers, and phase differences.

なお、奥行き値は、全てのフレーム画像に設定しもよいし、一部のフレーム画像にのみ設定しもよい。また、奥行き値は、ムービーを構成するフレーム画像の全てのピクセルに対して設定しもよいし、一部のピクセルにのみ設定してもよい。また、奥行き値データを圧縮してムービーデータに含ませるようにしてもよい。   Note that the depth value may be set for all frame images, or only for some frame images. Further, the depth value may be set for all the pixels of the frame image constituting the movie, or may be set only for some pixels. Further, the depth value data may be compressed and included in the movie data.

また、ムービーは、図3(A)のように背景として用いてもよいが、敵ボス(移動オブジェクト)などの表現に用いてもよい。この場合には例えば、ムービー表示のための仮想的なスクリーンを用意し、この仮想スクリーンに、敵ボスのムービーを投影するようにする。或いは、ムービー表示のためのポリゴン(プリミティブ面)を用意し、ムービーをテクスチャとしてこのポリゴンにマッピングするようにしてもよい。   Further, the movie may be used as a background as shown in FIG. 3A, or may be used to express an enemy boss (moving object) or the like. In this case, for example, a virtual screen for movie display is prepared, and an enemy boss movie is projected onto the virtual screen. Alternatively, a polygon (primitive surface) for movie display may be prepared, and the movie may be mapped to the polygon as a texture.

さて、ムービーデータに含ませるデータとしては、奥行き値Z1以外にも種々のデータを考えることができる。   Various data other than the depth value Z1 can be considered as data included in the movie data.

例えば図5では、ムービーデータに対して、画像データ(RGB)や奥行き値Z1の他に、ヒットエリアフラグHF、高さHH(ヒットエリアの高さ)、移動経路MR、移動値MV(移動データ)、法線ベクトルNVのデータを含ませている。   For example, in FIG. 5, in addition to the image data (RGB) and the depth value Z1, in addition to the image data (RGB), the hit area flag HF, the height HH (the height of the hit area), the movement route MR, the movement value MV (movement data) ), Data of the normal vector NV is included.

ムービーデータの中に、ヒットエリアフラグHF、高さHHなどのデータを含ませることで、キャラクタとヒットエリアとのヒットチェックが可能になる。   By including data such as the hit area flag HF and the height HH in the movie data, it is possible to perform a hit check between the character and the hit area.

即ち図6(A)では、レバー70やボタン72を用いてプレーヤが操作するキャラクタ10が、ムービーで表現される表示物(障害物)74の方に向かって歩いている。この場合に、表示物74の底面がヒットエリア76と定義され、このヒットエリア76の位置や大きさが、ヒットエリアフラグHFにより特定される。例えば、HF=1と設定されるピクセルは、ヒットエリア76内のピクセルであると判断され、HF=0と設定されるピクセルは、ヒットエリア76外のピクセルであると判断される。   That is, in FIG. 6A, the character 10 operated by the player using the lever 70 and the button 72 is walking toward the display object (obstacle) 74 expressed in the movie. In this case, the bottom surface of the display object 74 is defined as the hit area 76, and the position and size of the hit area 76 are specified by the hit area flag HF. For example, a pixel set with HF = 1 is determined to be a pixel within the hit area 76, and a pixel set with HF = 0 is determined to be a pixel outside the hit area 76.

そして、キャラクタ10の足下などに設定された代表点P(XP、YP)と、ヒットエリア76とのヒットチェックが行われる。そして、代表点Pがヒットエリア76にヒットした(進入した)と判断された場合には、キャラクタ10の移動経路を補正したり、キャラクタ10の移動を制限するようにする。   Then, a hit check between the representative point P (XP, YP) set at the foot of the character 10 and the hit area 76 is performed. When it is determined that the representative point P has hit (entered) the hit area 76, the movement path of the character 10 is corrected or the movement of the character 10 is restricted.

なお、より高度なヒットチェックを行う場合には、ヒットエリア76の高さHHも用いるようにする。そして、キャラクタ10がヒットエリア76にヒットした時にプレーヤがジャンプを指示するボタン72を押した場合には、この高さHHに基づいて、キャラクタ10が表示物74の上に飛び乗れるか否かを判断するようにする。   When performing a more advanced hit check, the height HH of the hit area 76 is also used. When the player hits the jump button 72 when the character 10 hits the hit area 76, whether or not the character 10 can jump on the display object 74 is determined based on the height HH. Try to judge.

また、ムービーデータに移動経路MRのデータを含ませることで、ヒットエリア76へのヒット後のキャラクタ10の移動を簡易に制御できるようになる。例えば、キャラクタ10がヒットエリア76にヒットした後に、プレーヤがレバー70を奥側に倒した場合には、キャラクタ10を、移動経路78に沿って移動させる。また、ヒット後に、プレーヤがレバー70を右側に倒すと共にジャンプのボタン72を押した場合には、キャラクタ10を移動経路80に沿って移動させる。また、ヒット後に、プレーヤがレバー70を手前側に倒した場合には、キャラクタ10を移動経路82に沿って移動させる。   Also, by including the data of the movement route MR in the movie data, the movement of the character 10 after the hit to the hit area 76 can be easily controlled. For example, after the character 10 hits the hit area 76, when the player tilts the lever 70 to the back side, the character 10 is moved along the movement path 78. Further, after the hit, when the player tilts the lever 70 to the right side and presses the jump button 72, the character 10 is moved along the movement path 80. Further, after the hit, when the player tilts the lever 70 toward the front side, the character 10 is moved along the movement path 82.

この場合に、移動経路78、80、82を特定するためのデータ(移動経路の方向データ等)を、移動経路MRとしてムービーデータに含ませるようにする。このようにすることで、表示物74の形状に応じた最適な移動経路でキャラクタ10を移動させることができるようになる。   In this case, data for specifying the movement paths 78, 80, and 82 (movement path direction data and the like) is included in the movie data as the movement path MR. By doing so, the character 10 can be moved along an optimal movement route according to the shape of the display object 74.

また、ムービーデータに移動値MVのデータ(広義には移動データ)を含ませることで、ムービーの中の表示物の動きや、ムービー全体の動きに合わせて、キャラクタ(移動オブジェクト)を移動させることが可能になる。   Also, by including movement value MV data (moving data in a broad sense) in the movie data, the character (moving object) can be moved in accordance with the movement of the display object in the movie and the movement of the entire movie. Is possible.

例えば図7では、キャラクタ10が、ムービーで表現されるエスカレーター84の上に乗っている。この場合には、キャラクタ10の足下などに設定された代表点P(XP、YP)の位置(ピクセル)における移動値MV(移動量、移動ベクトル成分等)を取得する。そして、取得された移動値MVに基づいて、キャラクタ10を移動させる。このようにすることで、ムービーの中の表示物であるエスカレーター84の動きに連動して、キャラクタ10も移動するようになる。従って、キャラクタの画像とムービーが、より自然に合成されて見えるようになり、これまでにないリアルな画像を少ない処理負担で生成できる。   For example, in FIG. 7, the character 10 is on the escalator 84 expressed in a movie. In this case, the movement value MV (movement amount, movement vector component, etc.) at the position (pixel) of the representative point P (XP, YP) set at the foot of the character 10 or the like is acquired. Then, the character 10 is moved based on the acquired movement value MV. By doing so, the character 10 also moves in conjunction with the movement of the escalator 84 that is a display object in the movie. Therefore, the character image and the movie appear to be synthesized more naturally, and an unprecedented real image can be generated with a small processing load.

なお、ムービーデータに含ませる移動データとしては、移動値MVの他に、移動エリアを特定するための移動エリアフラグなども考えることができる。即ち、キャラクタが移動エリアに位置するか否かを、キャラクタの代表点P(XP、YP)の位置(ピクセル)に設定された移動エリアフラグにより判断する。そして、その位置での移動エリアフラグが例えば1ならば、キャラクタを移動させる処理を行う。そして、ムービーデータが移動値MVを含む場合には、移動値MVに応じた移動量だけキャラクタを移動させるようにする。   As the movement data included in the movie data, a movement area flag for specifying a movement area can be considered in addition to the movement value MV. That is, whether or not the character is located in the moving area is determined by the moving area flag set at the position (pixel) of the representative point P (XP, YP) of the character. If the moving area flag at that position is 1, for example, processing for moving the character is performed. When the movie data includes the movement value MV, the character is moved by the movement amount according to the movement value MV.

また、ムービーで表される背景がスクロールする場合など、ムービー全体が動く場合にも、移動値MVを用いてキャラクタを移動させるようにしてもよい。例えば、ムービーで表現される背景が左方向にスクロールした場合には、そのスクロールに合わせて、キャラクタを画面上で右方向に移動させる。なお、この場合には、移動値MVを、ピクセル単位ではなく画像単位で持たせてもよい。   Also, the character may be moved using the movement value MV even when the entire movie moves, such as when the background represented by the movie scrolls. For example, when the background represented by the movie scrolls to the left, the character is moved to the right on the screen in accordance with the scroll. In this case, the movement value MV may be given in image units instead of pixel units.

さて、本実施形態では、ムービー再生の最終フレームの画像のデータ(ムービーデータの一種)に奥行き値Z1を含ませ、この奥行き値Z1とキャラクタの奥行き値Z2とに基づいて陰面消去を行うようにしてもよい。   In the present embodiment, the depth data Z1 is included in the image data of the final frame of movie playback (a kind of movie data), and hidden surface erasure is performed based on the depth value Z1 and the character depth value Z2. May be.

例えば図8に示すように、ゲームのオープニングや幕間などにおいて、予め用意されたオープニング用ムービーや幕間用ムービーを再生する。そして、ムービー再生の最終フレームの画像86(静止画像)の各ピクセルに対して奥行き値Z1を設定しておく。そして、この最終フレーム画像86を背景として用いると共に、最終フレーム画像86の奥行き値Z1とキャラクタ10の奥行き値Z2とを比較しながら陰面消去を行い、画像を描画する。   For example, as shown in FIG. 8, an opening movie or a curtain movie prepared in advance is played at a game opening or curtain. Then, a depth value Z1 is set for each pixel of the image 86 (still image) of the final frame of movie playback. The final frame image 86 is used as a background, and hidden surface erasure is performed while comparing the depth value Z1 of the final frame image 86 with the depth value Z2 of the character 10, thereby drawing an image.

このようにすることで、一連のムービーの再生の後、切れ目無くゲームが開始するようになる。従って、オープニングや幕間のムービーによりゲーム意欲が盛り上がったプレーヤは、その盛り上がったゲーム意欲を維持したまま、自然にゲーム世界に入り込むことができるようになる。これにより、プレーヤの仮想現実感を飛躍的に高めることができる。   In this way, the game starts without a break after a series of movies are played. Therefore, a player whose game motivation is excited by the opening or the movie between the curtains can naturally enter the game world while maintaining the game motivation. As a result, the virtual reality of the player can be dramatically improved.

3.本実施形態の処理
次に、本実施形態の処理の詳細例について、図9、図10、図11、図12のフローチャートを用いて説明する。
3. Processing of this embodiment Next, a detailed example of the processing of this embodiment will be described with reference to the flowcharts of FIGS. 9, 10, 11, and 12.

図9は、全体処理に関するフローチャートである。   FIG. 9 is a flowchart relating to the overall processing.

画像生成システムがリセットされると、ハードウェアの初期化処理が行われる(ステップS1)。そして、MODE(システムのメインモード)がATTR(アトラクション)に設定される(ステップS2)。   When the image generation system is reset, hardware initialization processing is performed (step S1). Then, MODE (system main mode) is set to ATTR (attraction) (step S2).

次に、フレーム開始の割り込みが発生したか否かを判断し(ステップS3)、発生した場合には、フレームバッファを切り替える(ステップS4)。即ち前のフレームで画像を描画したフレームバッファを表示用のフレームバッファに切り替え、前のフレームで画像を表示したフレームバッファを描画用のフレームバッファに切り替える。   Next, it is determined whether or not a frame start interrupt has occurred (step S3). If it has occurred, the frame buffer is switched (step S4). That is, the frame buffer in which the image is drawn in the previous frame is switched to the display frame buffer, and the frame buffer in which the image is displayed in the previous frame is switched to the drawing frame buffer.

次に、MODEが、ATTR、INIT、GAME、ENDINGのいずれに設定されているか否かを判断する(ステップS5〜S8)。そして、ATTR、INIT、GAME、ENDINGに設定されていた場合には、各々、アトラクション、ゲーム初期化、ゲームメイン、エンディングの処理に移行する(ステップS9〜S12)。なお、MODEがOVERに設定されていた場合にはゲームオーバー処理に移行する(ステップS13)。   Next, it is determined whether MODE is set to ATTR, INIT, GAME, or ENDING (steps S5 to S8). If ATTR, INIT, GAME, and ENDING are set, the process proceeds to attraction, game initialization, game main, and ending, respectively (steps S9 to S12). If MODE is set to OVER, the process proceeds to game over processing (step S13).

そして、上記の処理の終了後、描画処理を行う(ステップS14)。この場合に本実施形態では、ムービーデータが含む奥行き値Z1や移動オブジェクトの奥行き値Z2に基づいて、Zバッファを使用したZバッファ法により、陰面消去を行う。   Then, after the above process ends, a drawing process is performed (step S14). In this case, in this embodiment, hidden surface removal is performed by the Z buffer method using the Z buffer based on the depth value Z1 included in the movie data and the depth value Z2 of the moving object.

図10は、図9のステップS11のゲームメイン処理のフローチャートである。   FIG. 10 is a flowchart of the game main process in step S11 of FIG.

まず、MODESUB(システムのサブモード)が、SEL、INTRO、MOVIE、WINのいずれに設定されているかを判断する(ステップS20〜S23)。そして、SEL、INTRO、MOVIE、WINに設定されていた場合には、各々、キャラクタ選択、イントロダクション、ムービープレイ、勝利の処理に移行する(ステップS24〜S27)。なお、MODESUBがLOSEに設定されていた場合には敗北処理に移行する(S28)。   First, it is determined whether MODESUB (system submode) is set to SEL, INTRO, MOVIE, or WIN (steps S20 to S23). If SEL, INTRO, MOVIE, and WIN are set, the process proceeds to character selection, introduction, movie play, and victory, respectively (steps S24 to S27). If MODESUB is set to LOSE, the process proceeds to defeat processing (S28).

図11は、図10のステップS26のムービープレイ処理のフローチャートである。   FIG. 11 is a flowchart of the movie play process in step S26 of FIG.

まず、図5で説明したムービーデータのストリームをメインメモリに読み込む(ステップS30)。そして、読み込んだムービーデータをワークバッファに展開する(ステップS31)。より具体的には、RGB、奥行き値Z1、ヒットエリアフラグHF、高さHH、移動経路MR、移動値MV、法線ベクトルNV、音SDのデータを、各々、RGB、Z1、HF、HH、MR、MV、NV、SDのワークバッファに展開する。   First, the movie data stream described with reference to FIG. 5 is read into the main memory (step S30). Then, the read movie data is developed in the work buffer (step S31). More specifically, RGB, depth value Z1, hit area flag HF, height HH, movement path MR, movement value MV, normal vector NV, and sound SD data are respectively RGB, Z1, HF, HH, Expand to MR, MV, NV, SD work buffers.

次に、キャラクタ(プレーヤが操作するプレーヤキャラクタ)の移動処理を行い(ステップS32)、敵キャラクタの移動処理を行う(ステップS33)。そして、勝敗の判定処理を行う(ステップS34)。そして、プレーヤが勝利したか否かを判断し(ステップS35)、勝利した場合にはMODESUBにWINを設定する(ステップS36)。一方、勝利しなかった場合にはプレーヤが敗北したか否かを判断し(ステップS37)、敗北した場合にはMODESUBにLOSEを設定する(ステップS38)。   Next, a movement process of the character (player character operated by the player) is performed (step S32), and an enemy character movement process is performed (step S33). Then, a win / loss determination process is performed (step S34). Then, it is determined whether or not the player has won (step S35). If the player has won, WIN is set in MODESUB (step S36). On the other hand, if the player has not won, it is determined whether or not the player has lost (step S37). If the player has lost, MODESUB is set to LOSE (step S38).

次に、ステップS31〜S34の処理結果に基づいて、描画リスト(ポリゴンデータ、テクスチャデータ、環境(光源、仮想カメラ)設定データなどのリスト)を作成する(ステップS39)。描画処理は、この描画リストに基づいて行われることになる。   Next, a drawing list (a list of polygon data, texture data, environment (light source, virtual camera) setting data, etc.) is created based on the processing results of steps S31 to S34 (step S39). The drawing process is performed based on this drawing list.

図12は、図11のステップS32のキャラクタ移動処理のフローチャートである。   FIG. 12 is a flowchart of the character movement process in step S32 of FIG.

まず、操作部(コントローラ)からの操作データを取得する(ステップS40)。これにより、図6(A)、(B)において、レバー70を倒した方向や倒したタイミング、ボタン72を押したタイミングなどを知ることができる。そして、取得した操作データに基づいて、キャラクタの仮移動位置を計算する(ステップS41)。   First, operation data from the operation unit (controller) is acquired (step S40). 6A and 6B, it is possible to know the direction in which the lever 70 is tilted, the timing when the lever 70 is tilted, the timing when the button 72 is pressed, and the like. Based on the acquired operation data, the temporary movement position of the character is calculated (step S41).

次に、図11のステップS31でMVワークバッファに展開された移動値MVに基づき、ステップS41で計算された仮移動位置を補正する(ステップS42)。即ち、図7で説明したように、キャラクタがエスカレーターに乗った場合には、エスカレーターの動く方向にキャラクタを移動させる。   Next, the temporary movement position calculated in step S41 is corrected based on the movement value MV developed in the MV work buffer in step S31 of FIG. 11 (step S42). That is, as described with reference to FIG. 7, when the character gets on the escalator, the character is moved in the direction in which the escalator moves.

次に、仮移動位置と、HFワークバッファからのヒットエリアフラグHFと、HHワークバッファからの高さHHとに基づき、ヒットチェック処理を行う(ステップS43)。即ち、図6(B)で説明したように、P(XP、YP)の仮移動位置が、ヒットエリアに進入したか否かをヒットエリアフラグHFにより判断する。また、ジャンプのボタンを押した場合には、キャラクタが表示物を飛び越えることができるかを、ヒットエリアの高さHHのデータに基づき判断する。   Next, hit check processing is performed based on the temporary movement position, the hit area flag HF from the HF work buffer, and the height HH from the HH work buffer (step S43). That is, as described with reference to FIG. 6B, it is determined by the hit area flag HF whether or not the temporary movement position of P (XP, YP) has entered the hit area. When the jump button is pressed, it is determined based on the data of the hit area height HH whether the character can jump over the display.

次に、キャラクタがヒットエリアとヒットしたか否かを判断し(ステップS44)、ヒットしたと判断した場合には、MRワークバッファからの移動経路MRのデータに基づき、仮移動位置を補正する(ステップS45)。即ち、図6(B)において、P(XP、YP)が、移動経路78、80、82のいずれかに沿って移動するように、P(XP、YP)の仮移動位置を補正する。   Next, it is determined whether or not the character has hit the hit area (step S44). If it is determined that the character has hit, the temporary movement position is corrected based on the data of the movement route MR from the MR work buffer ( Step S45). That is, in FIG. 6B, the temporary movement position of P (XP, YP) is corrected so that P (XP, YP) moves along one of the movement paths 78, 80, 82.

以上に説明した処理を、各フレーム毎に行うことで、ムービーの奥行き値とキャラクタの奥行き値に基づく陰面消去や、ムービーの中の表示物とキャラクタとのヒットチェックなどが可能になる。   By performing the processing described above for each frame, hidden surface removal based on the depth value of the movie and the depth value of the character, hit check between the display object and the character in the movie, and the like can be performed.

4.ハードウェア構成
次に、本実施形態を実現できるハードウェアの構成の一例について図13を用いて説明する。
4). Hardware Configuration Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.

メインプロセッサ900は、CD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介して転送されたプログラム、或いはROM950(情報記憶媒体の1つ)に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などの種々の処理を実行する。   The main processor 900 operates based on a program stored in the CD 982 (information storage medium), a program transferred via the communication interface 990, or a program stored in the ROM 950 (one of information storage media). Various processes such as processing, image processing, and sound processing are executed.

コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、高速並列演算が可能な積和算器や除算器を有し、マトリクス演算(ベクトル演算)を高速に実行する。例えば、オブジェクトを移動させたり動作(モーション)させるための物理シミュレーションに、マトリクス演算などの処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。   The coprocessor 902 assists the processing of the main processor 900, has a product-sum calculator and a divider capable of high-speed parallel calculation, and executes matrix calculation (vector calculation) at high speed. For example, if a physical simulation for moving or moving an object requires processing such as matrix operation, a program operating on the main processor 900 instructs (requests) the processing to the coprocessor 902. )

ジオメトリプロセッサ904は、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、高速並列演算が可能な積和算器や除算器を有し、マトリクス演算(ベクトル演算)を高速に実行する。例えば、座標変換、透視変換、光源計算などの処理を行う場合には、メインプロセッサ900で動作するプログラムが、その処理をジオメトリプロセッサ904に指示する。   The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation, has a product-sum calculator and a divider capable of high-speed parallel computation, and performs matrix computation (vector computation). Run fast. For example, when processing such as coordinate transformation, perspective transformation, and light source calculation is performed, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.

データ伸張プロセッサ906は、圧縮された画像データや音データを伸張するデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする処理を行う。これにより、オープニング画面、インターミッション(幕間)画面、エンディング画面、或いはゲーム画面などにおいて、MPEG方式等で圧縮されたムービー(動画)を表示できるようになる。なお、デコード処理の対象となる画像データや音データは、ROM950、CD982に格納されたり、或いは通信インターフェース990を介して外部から転送される。   The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data, and a process for accelerating the decoding process of the main processor 900. As a result, a movie (moving image) compressed by the MPEG method or the like can be displayed on an opening screen, an intermission screen, an ending screen, or a game screen. Note that the image data and sound data to be decoded are stored in the ROM 950 and the CD 982 or transferred from the outside via the communication interface 990.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を高速に実行するものである。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970の機能を利用して、オブジェクトデータを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると、描画プロセッサ910は、これらのオブジェクトデータやテクスチャに基づいて、Zバッファなどを利用した陰面消去を行いながら、オブジェクトをフレームバッファ922に高速に描画する。また、描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行うことができる。そして、1フレーム分の画像がフレームバッファ922に書き込まれると、その画像はディスプレイ912に表示される。   The drawing processor 910 performs drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces at high speed. When drawing an object, the main processor 900 uses the function of the DMA controller 970 to pass the object data to the drawing processor 910 and transfer the texture to the texture storage unit 924 if necessary. Then, the rendering processor 910 renders the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and texture. The drawing processor 910 can also perform α blending (translucent processing), depth cueing, mip mapping, fog processing, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などの高品位のゲーム音を生成する。生成されたゲーム音は、スピーカ932から出力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, and generates high-quality game sounds such as BGM, sound effects, and sounds. The generated game sound is output from the speaker 932.

ゲームコントローラ942からの操作データや、メモリカード944からのセーブデータ、個人データは、シリアルインターフェース940を介してデータ転送される。   Operation data from the game controller 942, save data from the memory card 944, and personal data are transferred via the serial interface 940.

ROM950にはシステムプログラムなどが格納される。なお、業務用ゲームシステムの場合には、ROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納されることになる。なお、ROM950の代わりにハードディスクを利用するようにしてもよい。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950.

RAM960は、各種プロセッサの作業領域として用いられる。   The RAM 960 is used as a work area for various processors.

DMAコントローラ970は、プロセッサ、メモリ(RAM、VRAM、ROM等)間でのDMA転送を制御するものである。   The DMA controller 970 controls DMA transfer between the processor and memory (RAM, VRAM, ROM, etc.).

CDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるCD982(情報記憶媒体)を駆動し、これらのプログラム、データへのアクセスを可能にする。   The CD drive 980 drives a CD 982 (information storage medium) in which programs, image data, sound data, and the like are stored, and enables access to these programs and data.

通信インターフェース990は、ネットワークを介して外部との間でデータ転送を行うためのインターフェースである。この場合に、通信インターフェース990に接続されるネットワークとしては、通信回線(アナログ電話回線、ISDN)、高速シリアルバスなどを考えることができる。そして、通信回線を利用することでインターネットを介したデータ転送が可能になる。また、高速シリアルバスを利用することで、他の画像生成システム、他のゲームシステムとの間でのデータ転送が可能になる。   The communication interface 990 is an interface for transferring data to and from the outside via a network. In this case, as a network connected to the communication interface 990, a communication line (analog telephone line, ISDN), a high-speed serial bus, or the like can be considered. By using a communication line, data transfer via the Internet becomes possible. Further, by using the high-speed serial bus, data transfer between other image generation systems and other game systems becomes possible.

なお、本発明の各手段は、その全てを、ハードウェアのみにより実行してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムのみにより実行してもよい。或いは、ハードウェアとプログラムの両方により実行してもよい。   All of the means of the present invention may be executed by hardware alone, or may be executed only by a program stored in an information storage medium or a program distributed via a communication interface. Alternatively, it may be executed by both hardware and a program.

そして、本発明の各手段をハードウェアとプログラムの両方により実行する場合には、情報記憶媒体には、本発明の各手段をハードウェアを利用して実行するためのプログラムが格納されることになる。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930等に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930等は、その指示と渡されたデータとに基づいて、本発明の各手段を実行することになる。   When each means of the present invention is executed by both hardware and a program, a program for executing each means of the present invention using hardware is stored in the information storage medium. Become. More specifically, the program instructs each processor 902, 904, 906, 910, 930, etc., which is hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930, etc. executes each means of the present invention based on the instruction and the passed data.

図14(A)に、本実施形態を業務用ゲームシステムに適用した場合の例を示す。プレーヤは、ディスプレイ1100上に映し出されたゲーム画像を見ながら、レバー1102、ボタン1104等を操作してゲームを楽しむ。内蔵されるシステムボード(サーキットボード)1106には、各種プロセッサ、各種メモリなどが実装される。そして、本発明の各手段を実行するための情報(プログラム又はデータ)は、システムボード1106上の情報記憶媒体であるメモリ1108に格納される。以下、この情報を格納情報と呼ぶ。   FIG. 14A shows an example in which the present embodiment is applied to an arcade game system. The player enjoys the game by operating the lever 1102, the button 1104, and the like while viewing the game image displayed on the display 1100. Various processors and various memories are mounted on the built-in system board (circuit board) 1106. Information (program or data) for executing each means of the present invention is stored in a memory 1108 which is an information storage medium on the system board 1106. Hereinafter, this information is referred to as storage information.

図14(B)に、本実施形態を家庭用のゲームシステムに適用した場合の例を示す。プレーヤはディスプレイ1200に映し出されたゲーム画像を見ながら、ゲームコントローラ1202、1204を操作してゲームを楽しむ。この場合、上記格納情報は、本体システムに着脱自在な情報記憶媒体であるCD1206、或いはメモリカード1208、1209等に格納されている。   FIG. 14B shows an example in which the present embodiment is applied to a home game system. The player enjoys the game by operating the game controllers 1202 and 1204 while viewing the game image displayed on the display 1200. In this case, the stored information is stored in the CD 1206, which is an information storage medium that is detachable from the main system, or in the memory cards 1208, 1209, and the like.

図14(C)に、ホスト装置1300と、このホスト装置1300とネットワーク1302(LANのような小規模ネットワークや、インターネットのような広域ネットワーク)を介して接続される端末1304-1〜1304-nとを含むシステムに本実施形態を適用した場合の例を示す。この場合、上記格納情報は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、メモリ等の情報記憶媒体1306に格納されている。端末1304-1〜1304-nが、スタンドアロンでゲーム画像、ゲーム音を生成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を生成するためのゲームプログラム等が端末1304-1〜1304-nに配送される。一方、スタンドアロンで生成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を生成し、これを端末1304-1〜1304-nに伝送し端末において出力することになる。   FIG. 14C shows a host apparatus 1300 and terminals 1304-1 to 1304-n connected to the host apparatus 1300 via a network 1302 (a small-scale network such as a LAN or a wide area network such as the Internet). An example of applying this embodiment to a system including In this case, the storage information is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300, for example. When the terminals 1304-1 to 1304-n can generate game images and game sounds stand-alone, the host device 1300 receives a game program and the like for generating game images and game sounds from the terminal 1304-. 1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, which is transmitted to the terminals 1304-1 to 1304-n and output at the terminal.

なお、図14(C)の構成の場合に、本発明の各手段を、ホスト装置(サーバー)と端末とで分散して実行するようにしてもよい。また、本発明の各手段を実行するための上記格納情報を、ホスト装置(サーバー)の情報記憶媒体と端末の情報記憶媒体に分散して格納するようにしてもよい。   In the case of the configuration shown in FIG. 14C, each unit of the present invention may be executed in a distributed manner between the host device (server) and the terminal. The storage information for executing each means of the present invention may be distributed and stored in the information storage medium of the host device (server) and the information storage medium of the terminal.

またネットワークに接続する端末は、家庭用ゲームシステムであってもよいし業務用ゲームシステムであってもよい。そして、業務用ゲームシステムをネットワークに接続する場合には、業務用ゲームシステムとの間で情報のやり取りが可能であると共に家庭用ゲームシステムとの間でも情報のやり取りが可能な携帯型情報記憶装置(メモリカード、携帯型ゲーム装置)を用いることが望ましい。   The terminal connected to the network may be a home game system or an arcade game system. A portable information storage device capable of exchanging information with the arcade game system and exchanging information with the arcade game system when the arcade game system is connected to the network. It is desirable to use (memory card, portable game device).

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。   The present invention is not limited to that described in the above embodiment, and various modifications can be made.

例えば、本発明のうち従属請求項に係る発明においては、従属先の請求項の構成要件の一部を省略する構成とすることもできる。また、本発明の1の独立請求項に係る発明の要部を、他の独立請求項に従属させることもできる。   For example, in the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted. Moreover, the principal part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.

また本発明の移動オブジェクトは、格闘ゲームやロールプレイングゲームなどに登場するキャラクタであることが特に望ましいが、本発明の移動オブジェクトはこれに限定されない。   The moving object of the present invention is particularly preferably a character appearing in a fighting game, a role playing game, or the like, but the moving object of the present invention is not limited to this.

またムービーデータのデータ構造は、図2や図5で説明した構造が特に望ましいが、これに限定されず、種々の変形実施が可能である。   The data structure of the movie data is particularly preferably the structure described with reference to FIGS. 2 and 5, but is not limited to this, and various modifications can be made.

また、第1の奥行き値データ、ヒットエリアデータ、移動経路データ、移動データは、ムービーを構成する各画像(フレーム画像)の全てのピクセルに設定してもよいし、一部のピクセルにのみ設定してもよい。或いは、各画像に対して設定するようにしてもよい。   Further, the first depth value data, hit area data, movement path data, and movement data may be set for all pixels of each image (frame image) constituting the movie, or only for some pixels. May be. Or you may make it set with respect to each image.

また、陰面消去の手法はZバッファ法であることが特に望ましいが、それ以外の手法を採用してもよい。   The hidden surface removal method is particularly preferably the Z buffer method, but other methods may be adopted.

また、第1、第2の奥行き値データ、ヒットエリアデータ(ヒットエリアフラグ、高さ)、移動経路データ、移動データ(移動値、移動エリアフラグ)も、本実施形態で説明した形態のデータであることが特に望ましいが、これに限定されるものではない。   The first and second depth value data, hit area data (hit area flag, height), movement route data, and movement data (movement value, movement area flag) are also data in the form described in this embodiment. Although it is particularly desirable, there is no limitation to this.

また本発明は種々のゲーム(ロールプレイングゲーム、アクションゲーム、シューティングゲーム、格闘ゲーム、ロボット対戦ゲーム、スポーツゲーム、競争ゲーム、音楽演奏ゲーム、ダンスゲーム等)に適用できる。   Further, the present invention can be applied to various games (role playing game, action game, shooting game, fighting game, robot battle game, sports game, competition game, music performance game, dance game, etc.).

また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード等の種々の画像生成システムに適用できる。   Further, the present invention can be applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, and a system board for generating game images.

10 キャラクタ
20 タンス
22 出入り口
24 窓
30 登場人物
31 机
32 椅子
33〜40 ターゲット(ピンポン玉)
50 撮影用のカメラ
52、54 位置測定用のカメラ
60 壁
70 レバー
72 ボタン
74 表示物
76 ヒットエリア
78、80、82 移動経路
84 エスカレーター
100 処理部
110 ゲーム処理部
112 移動・動作演算部
114 ヒットチェック部
130 画像生成部
132 ジオメトリ処理部
140 描画部
142 陰面消去部
150 音生成部
160 操作部
170 記憶部
172 ムービーデータ記憶部
174 Zバッファ
180 情報記憶媒体
190 表示部
192 音出力部
194 携帯型情報記憶装置
196 通信部
10 character 20 stance 22 doorway 24 window 30 character 31 desk 32 chair 33-40 target (ping-pong ball)
50 Cameras 52 and 54 Cameras for Positioning 60 Wall 70 Lever 72 Button 74 Display Object 76 Hit Area 78, 80, 82 Movement Path 84 Escalator 100 Processing Unit 110 Game Processing Unit 112 Movement / Motion Calculation Unit 114 Hit Check Unit 130 image generation unit 132 geometry processing unit 140 drawing unit 142 hidden surface removal unit 150 sound generation unit 160 operation unit 170 storage unit 172 movie data storage unit 174 Z buffer 180 information storage medium 190 display unit 192 sound output unit 194 portable information storage Device 196 communication unit

Claims (14)

画像を生成するための画像生成システムであって、
ムービー再生のためのデータであって奥行き値データを含むムービーデータを記憶するムービーデータ記憶手段と、
ムービーデータが含む第1の奥行き値データと移動オブジェクトの第2の奥行き値データとに基づいて陰面消去を行いながら、ムービーと移動オブジェクトとが合成された画像を描画する描画手段と、
を含むことを特徴とする画像生成システム。
An image generation system for generating an image,
Movie data storage means for storing movie data that is data for movie playback and includes depth value data;
Rendering means for rendering an image in which the movie and the moving object are combined while performing hidden surface removal based on the first depth value data included in the movie data and the second depth value data of the moving object;
An image generation system comprising:
請求項1において、
前記ムービーデータ記憶手段に記憶されるムービーデータが、ヒットエリアを特定するためのヒットエリアデータを含み、
前記ヒットエリアデータに基づいて移動オブジェクトとヒットエリアとのヒットチェックを行う手段を含むことを特徴とする画像生成システム。
In claim 1,
Movie data stored in the movie data storage means includes hit area data for specifying a hit area,
An image generation system comprising means for performing a hit check between a moving object and a hit area based on the hit area data.
請求項2において、
前記ヒットエリアデータが、ヒットエリアに関する高さデータを含むことを特徴とする画像生成システム。
In claim 2,
The image generation system, wherein the hit area data includes height data related to the hit area.
請求項1乃至3のいずれかにおいて、
前記ムービーデータ記憶手段に記憶されるムービーデータが、移動オブジェクトの移動経路を決めるための移動経路データを含み、
前記移動経路データに基づいて移動オブジェクトを移動させる手段を含むことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 3,
Movie data stored in the movie data storage means includes movement path data for determining a movement path of a moving object,
An image generation system comprising means for moving a moving object based on the moving path data.
請求項1乃至4のいずれかにおいて、
前記ムービーデータ記憶手段に記憶されるムービーデータが、移動オブジェクトを移動させるための移動データを含み、
前記移動データに基づいて移動オブジェクトを移動させる手段を含むことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 4,
Movie data stored in the movie data storage means includes movement data for moving a moving object,
An image generation system comprising means for moving a moving object based on the movement data.
請求項1乃至5のいずれかにおいて、
ムービーデータが含む前記第1の奥行き値データが、ムービーを構成する各画像の各ピクセルに対して設定されていることを特徴とする画像生成システム。
In any one of Claims 1 thru | or 5,
The image generation system according to claim 1, wherein the first depth value data included in the movie data is set for each pixel of each image constituting the movie.
請求項1乃至6のいずれかにおいて、
ムービー再生の最終フレームの画像のデータが前記第1の奥行き値データを含み、
前記描画手段が、
ムービー再生の最終フレームの画像のデータが含む第1の奥行き値データと移動オブジェクトの第2の奥行き値データとに基づいて陰面消去を行いながら、最終フレームの画像と移動オブジェクトとが合成された画像を描画することを特徴とする画像生成システム。
In any one of Claims 1 thru | or 6.
The image data of the last frame of the movie playback includes the first depth value data,
The drawing means;
An image in which the image of the final frame and the moving object are combined while performing hidden surface removal based on the first depth value data included in the image data of the final frame of movie playback and the second depth value data of the moving object. An image generation system characterized by drawing.
コンピュータが使用可能な情報記憶媒体であって、
ムービー再生のためのデータであって奥行き値データを含むムービーデータを記憶するムービーデータ記憶手段と、
ムービーデータが含む第1の奥行き値データと移動オブジェクトの第2の奥行き値データとに基づいて陰面消去を行いながら、ムービーと移動オブジェクトとが合成された画像を描画する描画手段と、
を実現するためのプログラムを含むことを特徴とする情報記憶媒体。
An information storage medium usable by a computer,
Movie data storage means for storing movie data including depth value data that is data for movie playback;
Drawing means for drawing an image in which the movie and the moving object are combined while performing hidden surface removal based on the first depth value data included in the movie data and the second depth value data of the moving object;
An information storage medium comprising a program for realizing the above.
請求項8において、
前記ムービーデータ記憶手段に記憶されるムービーデータが、ヒットエリアを特定するためのヒットエリアデータを含み、
前記ヒットエリアデータに基づいて移動オブジェクトとヒットエリアとのヒットチェックを行う手段を実現するためのプログラム含むことを特徴とする情報記憶媒体。
In claim 8,
Movie data stored in the movie data storage means includes hit area data for specifying a hit area,
An information storage medium comprising a program for realizing means for performing a hit check between a moving object and a hit area based on the hit area data.
請求項9において、
前記ヒットエリアデータが、ヒットエリアに関する高さデータを含むことを特徴とする情報記憶媒体。
In claim 9,
The information storage medium, wherein the hit area data includes height data related to the hit area.
請求項8乃至10のいずれかにおいて、
前記ムービーデータ記憶手段に記憶されるムービーデータが、移動オブジェクトの移動経路を決めるための移動経路データを含み、
前記移動経路データに基づいて移動オブジェクトを移動させる手段を実現するためのプログラムを含むことを特徴とする情報記憶媒体。
In any one of Claims 8 thru | or 10.
Movie data stored in the movie data storage means includes movement path data for determining a movement path of a moving object,
An information storage medium comprising a program for realizing means for moving a moving object based on the moving route data.
請求項8乃至11のいずれかにおいて、
前記ムービーデータ記憶手段に記憶されるムービーデータが、移動オブジェクトを移動させるための移動データを含み、
前記移動データに基づいて移動オブジェクトを移動させる手段を実現するためのプログラムを含むことを特徴とする情報記憶媒体。
In any of claims 8 to 11,
Movie data stored in the movie data storage means includes movement data for moving a moving object,
An information storage medium comprising a program for realizing means for moving a moving object based on the movement data.
請求項8乃至12のいずれかにおいて、
ムービーデータが含む前記第1の奥行き値データが、ムービーを構成する各画像の各ピクセルに対して設定されていることを特徴とする情報記憶媒体。
In any one of Claims 8 thru | or 12.
An information storage medium, wherein the first depth value data included in movie data is set for each pixel of each image constituting the movie.
請求項8乃至13のいずれかにおいて、
ムービー再生の最終フレームの画像のデータが前記第1の奥行き値データを含み、
前記描画手段が、
ムービー再生の最終フレームの画像のデータが含む第1の奥行き値データと移動オブジェクトの第2の奥行き値データとに基づいて陰面消去を行いながら、最終フレームの画像と移動オブジェクトとが合成された画像を描画することを特徴とする情報記憶媒体。
In any one of Claims 8 thru | or 13.
The image data of the last frame of the movie playback includes the first depth value data,
The drawing means;
An image in which the image of the final frame and the moving object are combined while performing hidden surface removal based on the first depth value data included in the image data of the final frame of movie playback and the second depth value data of the moving object. An information storage medium characterized by drawing.
JP2009164669A 2009-07-13 2009-07-13 Image generation system and information storage medium Expired - Lifetime JP4758499B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009164669A JP4758499B2 (en) 2009-07-13 2009-07-13 Image generation system and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009164669A JP4758499B2 (en) 2009-07-13 2009-07-13 Image generation system and information storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP36959599A Division JP2001184523A (en) 1999-12-27 1999-12-27 Image generating system and information storage medium

Publications (2)

Publication Number Publication Date
JP2009238245A true JP2009238245A (en) 2009-10-15
JP4758499B2 JP4758499B2 (en) 2011-08-31

Family

ID=41252016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009164669A Expired - Lifetime JP4758499B2 (en) 2009-07-13 2009-07-13 Image generation system and information storage medium

Country Status (1)

Country Link
JP (1) JP4758499B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012088777A (en) * 2010-10-15 2012-05-10 Nintendo Co Ltd Image processing program, image processing device, image processing system, and image processing method
JP2012088782A (en) * 2010-10-15 2012-05-10 Nintendo Co Ltd Image processing program, image processing device, image processing system, and image processing method
JPWO2011093031A1 (en) * 2010-02-01 2013-05-30 日本電気株式会社 Mobile terminal, action history description method, and action history description system
JP2014068746A (en) * 2012-09-28 2014-04-21 Copcom Co Ltd Computer program and game system
JP2015127977A (en) * 2015-03-05 2015-07-09 セイコーエプソン株式会社 Collision detection system, robot system and collision detection method
WO2017120915A1 (en) * 2016-01-15 2017-07-20 邓娟 Data collecting method of surrounding movement monitoring technique and head-mounted virtual reality device
JP2021051537A (en) * 2019-09-25 2021-04-01 ミストウォーカー・コーポレーション Image display system, method, and program
US11051002B2 (en) 2009-06-17 2021-06-29 3Shape A/S Focus scanning apparatus
US11701208B2 (en) 2014-02-07 2023-07-18 3Shape A/S Detecting tooth shade

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10341374A (en) * 1997-04-07 1998-12-22 Sony Corp Method and device for processing image
JPH11339068A (en) * 1998-05-25 1999-12-10 Fujitsu Ltd Three dimensional image display device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10341374A (en) * 1997-04-07 1998-12-22 Sony Corp Method and device for processing image
JPH11339068A (en) * 1998-05-25 1999-12-10 Fujitsu Ltd Three dimensional image display device

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11051002B2 (en) 2009-06-17 2021-06-29 3Shape A/S Focus scanning apparatus
US11671582B2 (en) 2009-06-17 2023-06-06 3Shape A/S Intraoral scanning apparatus
US11622102B2 (en) 2009-06-17 2023-04-04 3Shape A/S Intraoral scanning apparatus
US11539937B2 (en) 2009-06-17 2022-12-27 3Shape A/S Intraoral scanning apparatus
US11368667B2 (en) 2009-06-17 2022-06-21 3Shape A/S Intraoral scanning apparatus
US11831815B2 (en) 2009-06-17 2023-11-28 3Shape A/S Intraoral scanning apparatus
US11076146B1 (en) 2009-06-17 2021-07-27 3Shape A/S Focus scanning apparatus
JPWO2011093031A1 (en) * 2010-02-01 2013-05-30 日本電気株式会社 Mobile terminal, action history description method, and action history description system
JP2012088777A (en) * 2010-10-15 2012-05-10 Nintendo Co Ltd Image processing program, image processing device, image processing system, and image processing method
US9737814B2 (en) 2010-10-15 2017-08-22 Nintendo Co., Ltd. Computer readable medium storing image processing program of synthesizing images
US9196078B2 (en) 2010-10-15 2015-11-24 Nintendo Co., Ltd. System and methods for displaying virtual space including a silhouette image
JP2012088782A (en) * 2010-10-15 2012-05-10 Nintendo Co Ltd Image processing program, image processing device, image processing system, and image processing method
JP2014068746A (en) * 2012-09-28 2014-04-21 Copcom Co Ltd Computer program and game system
US11723759B2 (en) 2014-02-07 2023-08-15 3Shape A/S Detecting tooth shade
US11707347B2 (en) 2014-02-07 2023-07-25 3Shape A/S Detecting tooth shade
US11701208B2 (en) 2014-02-07 2023-07-18 3Shape A/S Detecting tooth shade
JP2015127977A (en) * 2015-03-05 2015-07-09 セイコーエプソン株式会社 Collision detection system, robot system and collision detection method
WO2017120915A1 (en) * 2016-01-15 2017-07-20 邓娟 Data collecting method of surrounding movement monitoring technique and head-mounted virtual reality device
JP2021051537A (en) * 2019-09-25 2021-04-01 ミストウォーカー・コーポレーション Image display system, method, and program

Also Published As

Publication number Publication date
JP4758499B2 (en) 2011-08-31

Similar Documents

Publication Publication Date Title
JP4758499B2 (en) Image generation system and information storage medium
JP3990252B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4610747B2 (en) Image generation system, program, and information storage medium
JP4187182B2 (en) Image generation system, program, and information storage medium
JP2005319029A (en) Program, information storage medium, and image generating system
JP2007105499A (en) Game system, program and information storage medium
JP3990258B2 (en) Image generation system, program, and information storage medium
JP3280355B2 (en) Image generation system and information storage medium
JP2005246071A (en) Image forming system and information storage medium
JP4367810B2 (en) Image generation system and information storage medium
JP4447000B2 (en) Image generation system, program, and information storage medium
JP4651204B2 (en) Image generation system, program, and information storage medium
JP2006277722A (en) Program, information storage medium, and image generation system
JP4223139B2 (en) Image generating apparatus and information storage medium
JP2005209217A (en) Game system and information storage medium
JP4266121B2 (en) Image generation system, program, and information storage medium
JP4245356B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4544555B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4212015B2 (en) Image generating apparatus and information storage medium
JP2006277352A (en) Program, information storage medium, and image generation system
JP2001184523A (en) Image generating system and information storage medium
JP2006318196A (en) Program, information storage medium and image generation system
JP2004057797A (en) Game system, program, and information storage medium
JP2006263321A (en) Program, information storage medium, and image generation system
JP4803909B2 (en) Image generation system, program, and information storage medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090807

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110525

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110602

R150 Certificate of patent or registration of utility model

Ref document number: 4758499

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term