JP2003051032A - Game information, information storage medium and game device - Google Patents

Game information, information storage medium and game device

Info

Publication number
JP2003051032A
JP2003051032A JP2001237090A JP2001237090A JP2003051032A JP 2003051032 A JP2003051032 A JP 2003051032A JP 2001237090 A JP2001237090 A JP 2001237090A JP 2001237090 A JP2001237090 A JP 2001237090A JP 2003051032 A JP2003051032 A JP 2003051032A
Authority
JP
Japan
Prior art keywords
image
extracted
extraction
game
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001237090A
Other languages
Japanese (ja)
Other versions
JP3643796B2 (en
Inventor
Kazushi Ueda
一志 植田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2001237090A priority Critical patent/JP3643796B2/en
Publication of JP2003051032A publication Critical patent/JP2003051032A/en
Application granted granted Critical
Publication of JP3643796B2 publication Critical patent/JP3643796B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a replay function with a high performance effect without requiring any high-grade processing. SOLUTION: The display area of an object to be displayed on a replay screen is set by a display control part 224. The image of the object is extracted from a display image by an image extracting part 222. First of all, an object area is determined on the basis of the position or size of the object on the display image. Next, the image of the object is extracted by determining an extraction area corresponding to the aspect ratio of the display area. Further, the image extracted on the basis of the size of the display area is expanded/reduced and stored in an extracted image storage part 540 after the size is changed. The replay screen is produced by controlling the display of the extracted image stored in this extracted image storage part 540 by the display control part 224.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、ゲーム情報、該ゲ
ーム情報を記憶した情報記憶媒体、及びゲーム装置に関
する。
TECHNICAL FIELD The present invention relates to game information, an information storage medium storing the game information, and a game device.

【0002】[0002]

【従来の技術】現在、様々な種類のゲームが提供されて
いるが、特に、スポーツゲームや格闘ゲーム、或いはレ
ースゲーム等において、ゲーム画面を再現するリプレイ
の機能を備えたものが知られている。このリプレイの機
能は、ゲーム進行時のゲームデータを保存し、ゴールシ
ーン等の得点シーンやKOシーン等のハイライトシーン
を、当該シーンに係るゲームデータを参照することによ
り再現するものである。さらに、リプレイの機能とし
て、ゲーム進行時における視点とは異なる視点からの画
像を生成する機能を備えたゲーム装置も知られている。
2. Description of the Related Art Currently, various kinds of games are provided, and in particular, it is known that a game screen has a replay function for reproducing a game screen, such as a sports game, a fighting game, or a racing game. . This replay function saves game data during game progress and reproduces a score scene such as a goal scene or a highlight scene such as a KO scene by referring to the game data related to the scene. Furthermore, as a replay function, there is also known a game device having a function of generating an image from a viewpoint different from the viewpoint at the time of progress of the game.

【0003】[0003]

【発明が解決しようとする課題】ところで、リプレイの
機能は、次のプレイに活かすための参考用の他、プレイ
を振り返るという点においては、ドラマティックな演出
が好まれる。また、コンピュータやゲーム装置のハード
ウェアの進歩により高度な処理が実現可能となっている
ため、演出効果を一層高めることは、よりリアリスティ
ックな画像を提供することであるとする傾向にあった。
本発明は、他の手法、即ち、高度な処理を必要とせず
に、演出効果の高いリプレイの機能を提供することを目
的とする。
By the way, the replay function is not only used as a reference for making the best use of the next play, but also in terms of looking back on the play, a dramatic effect is preferred. Further, since advanced processing can be realized due to the progress of hardware of computers and game devices, there has been a tendency to further enhance the effect of presentation by providing more realistic images.
It is an object of the present invention to provide a replay function having a high effect of presentation without using another method, that is, a high-level processing.

【0004】[0004]

【課題を解決するための手段】以上の課題を解決するた
め、請求項1記載の発明は、プロセッサによる演算・制
御により、該プロセッサを有する装置に対して、所与の
視点に基づく仮想空間の画像を生成する生成手段(例え
ば、図4に示す画像生成部240)を機能させるための
ゲーム情報であって、前記生成手段により生成された画
像をフレーム画像(例えば、発明の実施の形態における
表示画像)として記憶する第1の記憶手段(例えば、図
4に示すフレームバッファ520)と、前記フレーム画
像の中から抽出領域を決定し、当該抽出領域の画像を抽
出する抽出手段(例えば、図4に示す画像抽出部22
2)と、前記抽出手段により抽出された抽出画像を記憶
する第2の記憶手段(例えば、図4に示す抽出画像記憶
部540)と、前記第2の記憶手段に記憶された抽出画
像を含む、ゲームの再現画像を生成する再現手段(例え
ば、図4に示す表示制御部224)と、を前記装置に機
能させるための情報を含むことを特徴とする。
In order to solve the above-mentioned problems, the present invention according to claim 1 provides a virtual space based on a given viewpoint to a device having the processor by calculation / control by the processor. Game information for causing a generation unit that generates an image (for example, the image generation unit 240 shown in FIG. 4) to function, and an image generated by the generation unit is a frame image (for example, a display in the embodiment of the invention. A first storage unit (for example, the frame buffer 520 shown in FIG. 4) that stores the image as an image, and an extraction unit that determines an extraction region from the frame image and extracts the image of the extraction region (for example, FIG. 4). Image extraction unit 22 shown in
2), a second storage unit that stores the extracted image extracted by the extraction unit (for example, the extracted image storage unit 540 shown in FIG. 4), and the extracted image stored in the second storage unit. , Reproduction information generating a reproduction image of the game (for example, the display control unit 224 shown in FIG. 4), and information for causing the device to function.

【0005】また、請求項12記載の発明は、所与の視
点に基づく仮想空間の画像を生成する生成手段(例え
ば、図4に示す画像生成部240)を備えるゲーム装置
であって、前記生成手段により生成された画像をフレー
ム画像として記憶する第1の記憶手段(例えば、図4に
示すフレームバッファ520)と、前記フレーム画像の
中から抽出領域を決定し、当該抽出領域の画像を抽出す
る抽出手段(例えば、図4に示す画像抽出部222)
と、前記抽出手段により抽出された抽出画像を記憶する
第2の記憶手段(例えば、図4に示す抽出画像記憶部5
40)と、前記第2の記憶手段に記憶された抽出画像を
含む、ゲームの再現画像を生成する再現手段(例えば、
図4に示す表示制御部224)と、を備えることを特徴
とする。
According to a twelfth aspect of the present invention, there is provided a game device including a generation unit (for example, an image generation unit 240 shown in FIG. 4) which generates an image of a virtual space based on a given viewpoint, and the generation is performed. A first storage unit (for example, the frame buffer 520 shown in FIG. 4) that stores the image generated by the unit as a frame image, an extraction region is determined from the frame image, and the image of the extraction region is extracted. Extraction means (for example, the image extraction unit 222 shown in FIG. 4)
And a second storage unit (for example, the extracted image storage unit 5 shown in FIG. 4) that stores the extracted image extracted by the extraction unit.
40) and the extraction image stored in the second storage unit, and reproduction means for generating a reproduction image of the game (for example,
The display control part 224) shown in FIG. 4 is provided.

【0006】この請求項1または12記載の発明によれ
ば、第1の記憶手段に記憶されるフレーム画像の任意の
領域の画像を抽出し、抽出した抽出画像を第2の記憶手
段に保存しておくことにより、フレーム画像における抽
出領域の画像を再現する。即ち、第1の記憶手段に記憶
されるフレーム画像から、必要な領域の画像を第2の記
憶手段に退避させることにより、当該フレーム画像にお
ける抽出領域の画像を再現することができる。例えば、
ゲームにおける任意の場面のリプレイを、フレーム画像
から抽出した画像を用いて実現することができる。
According to the invention of claim 1 or 12, the image of an arbitrary region of the frame image stored in the first storage means is extracted, and the extracted image thus extracted is stored in the second storage means. The image of the extraction area in the frame image is reproduced by setting the above. That is, by saving the image of the required area from the frame image stored in the first storage means to the second storage means, the image of the extraction area in the frame image can be reproduced. For example,
Replay of an arbitrary scene in a game can be realized using an image extracted from a frame image.

【0007】また、請求項2記載のゲーム情報は、請求
項1において、被写体(例えば、発明の実施の形態にお
ける自キャラクタ)を設定する設定手段(例えば、図4
に示すゲーム演算部220)を前記装置に機能させるた
めの情報と、前記仮想空間中の被写体の位置に対応す
る、前記フレーム画像中の被写体の位置を、前記視点に
基づく座標変換により算出する算出手段(例えば、図4
に示す画像抽出部222)を前記装置に機能させるため
の情報と、前記抽出手段が、前記算出手段による算出結
果に基づいて抽出領域を決定するための情報と、を含む
ことを特徴とする。
Further, the game information according to claim 2 is the setting means according to claim 1 for setting a subject (for example, a self character in the embodiment of the invention) (for example, FIG. 4).
Calculation for calculating the position of the object in the frame image corresponding to the position of the object in the virtual space and the information for causing the game operation unit 220) shown in FIG. Means (eg, FIG. 4)
The information for causing the device to function as the image extracting unit 222) and the information for the extraction unit to determine the extraction region based on the calculation result by the calculation unit are included.

【0008】この請求項2記載の発明によれば、記憶す
る被写体として、例えば、仮想空間に配置されるオブジ
ェクトを指定し、この被写体の画像を第2の記憶手段に
保存することができる。また、被写体の画像を抽出する
際、フレーム画像中の被写体の位置を、仮想空間に設置
される視点の位置に基づく座標変換により決定する。こ
れによれば、仮想空間に存在する他のオブジェクトが障
害となる等の理由で、実際にはフレーム画像に被写体が
描画されない場合においても、フレーム画像における前
記視点に基づく被写体の位置となる領域を抽出すること
ができる。
According to the second aspect of the present invention, for example, an object placed in the virtual space can be designated as the subject to be stored, and the image of the subject can be stored in the second storage means. Further, when extracting the image of the subject, the position of the subject in the frame image is determined by coordinate conversion based on the position of the viewpoint set in the virtual space. According to this, even when the object is not actually drawn in the frame image due to the reason that another object existing in the virtual space becomes an obstacle, etc., the area which becomes the position of the object based on the viewpoint in the frame image is determined. Can be extracted.

【0009】さらに、この場合、請求項3記載のゲーム
情報のように、請求項2において、前記抽出手段が、前
記フレーム画像中の前記被写体の大きさに応じて、抽出
領域を決定するための情報を含むこととしてもよい。
Further, in this case, as in the game information according to claim 3, in claim 2, the extracting means determines the extraction region according to the size of the subject in the frame image. Information may be included.

【0010】この請求項3記載の発明によれば、フレー
ム画像中の被写体の大きさに関わらず、抽出画像中の被
写体の割合を一定にすることができる。これによれば、
フレーム画像から、被写体が丁度収まるような領域を抽
出することができる。
According to the third aspect of the invention, the ratio of the subject in the extracted image can be made constant regardless of the size of the subject in the frame image. According to this
It is possible to extract a region in which the subject is just fit from the frame image.

【0011】請求項4記載のゲーム情報は、請求項2又
は3において、前記第2の記憶手段に記憶する抽出画像
のサイズを設定するサイズ設定手段(例えば、図4に示
す画像抽出部222)を前記装置に機能させるための情
報と、前記抽出手段が、前記サイズ設定手段により設定
された抽出画像のサイズの縦横比に基づいて抽出領域の
縦横比を決定するための情報と、を含むことを特徴とす
る。
The game information according to a fourth aspect is the size setting means for setting the size of the extracted image stored in the second storage means according to the second or third aspect (for example, the image extracting section 222 shown in FIG. 4). For causing the device to function, and the extraction means includes information for determining the aspect ratio of the extraction region based on the aspect ratio of the size of the extracted image set by the size setting means. Is characterized by.

【0012】この請求項4記載の発明によれば、第2の
記憶手段に記憶される抽出画像のサイズを予め設定し、
この抽出画像のサイズの縦横比に基づいて抽出領域の縦
横比を設定するので、抽出画像のサイズと、フレーム画
像における抽出領域の縦横比を一定にすることができ
る。
According to the invention of claim 4, the size of the extracted image stored in the second storage means is set in advance,
Since the aspect ratio of the extraction area is set based on the aspect ratio of the size of the extracted image, the size of the extraction image and the aspect ratio of the extraction area in the frame image can be made constant.

【0013】さらに、この場合、請求項5記載のゲーム
情報のように、請求項4において、前記サイズ設定手段
が、前記抽出画像の縦サイズを前記フレーム画像の縦サ
イズの整数分の1とする、及び/又は、前記抽出画像の
横サイズを前記フレーム画像の横サイズの整数分の1と
する、ための情報を含むこととしてもよい。
Further, in this case, as in the game information according to claim 5, in the claim 4, the size setting means sets the vertical size of the extracted image to an integer fraction of the vertical size of the frame image. And / or information for setting the lateral size of the extracted image to be an integral fraction of the lateral size of the frame image may be included.

【0014】この請求項5記載の発明によれば、抽出画
像のサイズ決定する際に、この抽出画像のサイズをフレ
ーム画像のサイズ、即ち、表示画面のサイズに応じて決
定することができる。即ち、抽出画像のサイズを表示す
る画面のアスペクト比に基づいて決定することが可能と
なる。
According to the fifth aspect of the invention, when determining the size of the extracted image, the size of the extracted image can be determined according to the size of the frame image, that is, the size of the display screen. That is, it is possible to determine the size of the extracted image based on the aspect ratio of the screen displaying the image.

【0015】請求項6記載のゲーム情報は、請求項1〜
5の何れかにおいて、前記抽出手段により抽出された抽
出画像を所与の大きさに拡縮する拡縮手段(例えば、図
4に示す画像抽出部222)を前記装置に機能させるた
めの情報と、前記第2の記憶手段が、前記拡縮手段によ
り拡縮された抽出画像を記憶するように機能させるため
の情報と、を含むことを特徴とする。
The game information according to claim 6 is the game information according to claim 1.
5, information for causing the device to function as a scaling unit (for example, the image extracting unit 222 shown in FIG. 4) that scales the extracted image extracted by the extracting unit to a given size; The second storage means includes information for causing the extracted image scaled by the scaling means to function to be stored.

【0016】この請求項6記載の発明によれば、抽出し
た抽出画像のサイズを、サイズ設定手段により設定され
る所与のサイズに従って拡大、或いは縮小して変更す
る。従って、この抽出画像のサイズを再現する際に必要
とするサイズに応じて設定することにより、抽出画像を
使用して再現画像を生成する際、特別な処理を必要とし
ない。
According to the sixth aspect of the invention, the size of the extracted image extracted is enlarged or reduced according to a given size set by the size setting means. Therefore, by setting the size of the extracted image according to the size required when reproducing the extracted image, no special process is required when generating the reproduced image using the extracted image.

【0017】また、請求項7記載のゲーム情報は、請求
項1〜6の何れかにおいて、抽出する時期を設定する抽
出時期設定手段(例えば、図4に示すゲーム演算部22
0)を前記装置に機能させるための情報と、前記抽出手
段が、前記抽出時期設定手段により設定された時期に対
応するフレーム画像から抽出画像を抽出するための情報
と、を含むことを特徴とする。
The game information according to claim 7 is, in any one of claims 1 to 6, extraction time setting means for setting the extraction time (for example, the game calculation section 22 shown in FIG. 4).
0) to cause the device to function, and the extraction means includes information for extracting the extracted image from the frame image corresponding to the time set by the extraction time setting means. To do.

【0018】この請求項7記載の発明によれば、フレー
ム画像から画像を抽出する際の条件を設定することが可
能となり、当該条件を満たす被写体のみを抽出すること
ができる。抽出条件としては、例えば、画像を抽出する
タイミングや、予め設定されるパラメータ等を判定す
る。このパラメータには、被写体に設定される、当該被
写体の特性、状態等の情報が含まれる。具体的には、例
えば、人オブジェクトを被写体として指定するととも
に、当該人オブジェクトに喜怒哀楽のパラメータを設定
して、このパラメータを抽出の条件として設定すること
ができる。これによれば、表示画像に表示される被写体
の表情に応じて抽出処理を行うことができる。
According to the seventh aspect of the invention, it becomes possible to set the conditions for extracting the image from the frame image, and it is possible to extract only the subject satisfying the condition. As the extraction condition, for example, the timing of extracting an image, a preset parameter, or the like is determined. This parameter includes information such as the characteristics and state of the subject, which is set for the subject. Specifically, for example, it is possible to specify a human object as a subject, set a parameter of emotions and feelings for the human object, and set this parameter as an extraction condition. According to this, the extraction process can be performed according to the facial expression of the subject displayed in the display image.

【0019】さらに、請求項8記載のゲーム情報は、請
求項1〜7の何れかにおいて、前記第2の記憶手段が、
前記抽出手段により抽出された抽出画像を累積記憶する
ための情報と、前記再現手段が、前記第2の記憶手段に
記憶された抽出画像複数を配設する再現画像を生成する
ための情報と、を含むことを特徴とする。
Further, the game information according to claim 8 is the game information according to any one of claims 1 to 7, wherein:
Information for cumulatively storing the extracted images extracted by the extracting means, and information for generating the reproduced image in which the reproducing means arranges the plurality of extracted images stored in the second storing means, It is characterized by including.

【0020】この請求項8記載の発明によれば、被写体
の画像を蓄積していくので、例えば、仮想空間内を移動
するキャラクタ等を被写体として指定すれば、この被写
体の動作を記録することができる。これにより、必要に
応じて、この被写体の動作を再現することが可能とな
る。また、この際、第2の記憶手段に記憶される抽出画
像を読み出すだけでよいので、特別な処理を必要とせず
に被写体の動作を再現することができる。これによれ
ば、第2の記憶手段に記憶された複数の抽出画像を配列
する際の配列順序等を制御することにより、生成した再
現画像において、被写体の動作のリプレイ、逆回し等を
実現する事ができる。さらに、再現画像を生成する際に
は、記憶される複数の抽出画像を予め設定される時間差
に基づいて順次コマ送りで表示したり、表示画面を分割
して複数の抽出画像を1画面に表示する等、再現画像を
演出することができる。
According to the eighth aspect of the present invention, since the image of the subject is accumulated, if, for example, a character or the like moving in the virtual space is designated as the subject, the motion of the subject can be recorded. it can. This makes it possible to reproduce the motion of the subject, if necessary. Further, at this time, since it is only necessary to read out the extracted image stored in the second storage means, it is possible to reproduce the motion of the subject without requiring special processing. According to this, by controlling the arrangement order or the like when arranging the plurality of extracted images stored in the second storage unit, replay of the motion of the subject, reverse rotation, etc. are realized in the generated reproduced image. I can do things. Furthermore, when generating a reproduction image, a plurality of stored extracted images are sequentially displayed in frame advance based on a preset time difference, or the display screen is divided to display a plurality of extracted images on one screen. It is possible to produce a reproduced image.

【0021】また、この場合、請求項9記載のゲーム情
報のように、請求項8において、前記再現手段が、前記
第2の記憶手段に記憶された複数の抽出画像の中から再
現画像に含める抽出画像を選出するための情報を含むこ
ととしてもよい。
Further, in this case, as in the game information according to claim 9, in claim 8, the reproduction means includes the reproduction image from the plurality of extracted images stored in the second storage means. Information for selecting the extracted image may be included.

【0022】この請求項9記載の発明によれば、第2の
記憶手段に記憶される複数の抽出画像の中から、再現画
像を生成するために適当な画像を選択することができ
る。
According to the ninth aspect of the invention, it is possible to select an appropriate image for generating the reproduced image from the plurality of extracted images stored in the second storage means.

【0023】また、請求項10記載のゲーム情報は、請
求項1〜9の何れかにおいて、前記第2の記憶手段が前
記抽出画像を記憶する際に、当該抽出画像に所与のフィ
ルターを施して記憶するための情報を含むことを特徴と
する。
The game information according to a tenth aspect of the present invention is the game information according to any one of the first to ninth aspects, wherein when the second storage means stores the extracted image, the extracted image is subjected to a given filter. It is characterized in that it includes information to be stored.

【0024】ここで、フィルターとは、第2の記憶手段
に記憶される抽出画像に対して何等かの加工を施すもの
であり、具体的には、例えば、抽出画像に対するぼか
し、ノイズの付加、明度の変更、α値の設定等の処理
や、回転やゆがみ等による抽出画像の変形処理等を含
む。
Here, the filter is to apply some processing to the extracted image stored in the second storage means, and specifically, for example, blurring of the extracted image, addition of noise, This includes processing such as changing the brightness and setting the α value, and processing for deforming the extracted image due to rotation and distortion.

【0025】この請求項10記載の発明によれば、所与
のフィルターを通した抽出画像が第2の記憶手段に記憶
される。さらに、第2の記憶手段に対して抽出画像を累
積記憶する場合においては、それぞれのフィルターに設
定されるフィルターパラメータを抽出画像によって変化
させて格納することができる。従って、当該パラメータ
に基づいて抽出画像を配設することにより、例えば、フ
ェイドイン或いはフェイドアウト等により再現画像を演
出することができる。尚、フィルターパラメータとは、
例えば、α値や、各画素のRGB値に乗算する係数とい
ったフィルターを施す際に設定される値や、当該フィル
ターのオプション指定のための値のことである。
According to the tenth aspect of the present invention, the extracted image that has passed through the given filter is stored in the second storage means. Further, when the extracted images are cumulatively stored in the second storage unit, the filter parameters set for the respective filters can be changed and stored according to the extracted images. Therefore, by arranging the extracted image based on the parameter, for example, a reproduced image can be rendered by fade-in or fade-out. The filter parameters are
For example, it is a value set when applying a filter such as an α value or a coefficient by which the RGB value of each pixel is multiplied, or a value for specifying an option of the filter.

【0026】さらに、請求項11記載の情報記憶媒体の
ように、請求項1〜10の何れか記載のゲーム情報を記
憶することとしてもよい。
Furthermore, the game information according to any one of claims 1 to 10 may be stored as in the information storage medium according to claim 11.

【0027】この請求項11記載の発明によれば、請求
項1〜10の何れか記載の発明と同様の効果を奏する情
報記憶媒体を実現することができる。
According to the eleventh aspect of the present invention, it is possible to realize an information storage medium having the same effects as those of the invention according to any one of the first to tenth aspects.

【0028】[0028]

【発明の実施の形態】以下、図を参照して本発明を適用
したゲーム装置について図面を参照して詳細に説明す
る。尚、以下においては、本発明をテニスゲームに適用
する場合を例にとって説明するが、本発明が適用される
ものはこれに限られるものではない。また、テニスゲー
ムは、プレーヤが制御するキャラクタ(以下、自キャラ
クタという。)の対戦相手となる相手キャラクタを、コ
ンピュータ制御により動作させることにより対戦を実現
させることとする。
DETAILED DESCRIPTION OF THE INVENTION A game machine to which the present invention is applied will be described in detail below with reference to the drawings. In the following, a case where the present invention is applied to a tennis game will be described as an example, but the present invention is not limited to this. Further, in the tennis game, a battle is realized by operating, by computer control, an opponent character, which is an opponent of a character controlled by the player (hereinafter, referred to as own character).

【0029】図1に、テニスゲームのプレー画面の一例
を示す。図1において、プレーヤは、コート手前側でプ
レーする自キャラクタ2を制御し、コート奥側でプレー
する相手キャラクタ4と対戦してテニスゲームを楽し
む。
FIG. 1 shows an example of a play screen of a tennis game. In FIG. 1, the player controls the player character 2 playing on the front side of the court and plays a tennis game by playing against the opponent character 4 playing on the back side of the court.

【0030】図2に、得点後に、当該得点場面を再現す
るために表示されるリプレイ画面の一例を示す。図2に
おいて、リプレイ画面は、リアルタイム表示領域P1
と、リプレイ表示領域RP1、RP2、・・・、RP1
2と、から構成される。ここで、リアルタイム表示領域
P1には、例えば、プレー画面や解説画面等の任意の動
画像が表示される。また、リプレイ表示領域RP1、R
P2、・・・、RP12には、得点場面の自キャラクタ
2の動作が左上から時計回りに12の静止画像によって
表示されている。また、このリプレイ表示領域RP1、
RP2、・・・、RP12に表示される自キャラクタ2
の画像は、表示される際、左上のリプレイ表示領域RP
1から順に所定の時間間隔をもってコマ送りで表示され
る。
FIG. 2 shows an example of a replay screen displayed for reproducing the scored scene after scoring. In FIG. 2, the replay screen is a real-time display area P1.
, And the replay display areas RP1, RP2, ..., RP1
2 and. Here, in the real-time display area P1, for example, an arbitrary moving image such as a play screen or a comment screen is displayed. Also, the replay display areas RP1 and R
On P2, ..., RP12, the motion of the player character 2 in the scoring scene is displayed as 12 still images clockwise from the upper left. In addition, this replay display area RP1,
Own character 2 displayed on RP2, ..., RP12
When the image is displayed, the replay display area RP at the upper left is displayed.
The frames are sequentially displayed from 1 at a predetermined time interval.

【0031】本発明は、例えば、仮想3次元空間内に配
置されるオブジェクトや、仮想3次元空間の任意の領域
等を被写体とし、フレームバッファに1インター毎に格
納される画像データから指定された被写体の画像を抽出
して別途記録するとともに、任意の表示タイミングにお
いて、記録した被写体の画像を表示するものである。本
実施形態においては、被写体を自キャラクタ2とし、リ
プレイ時に被写体を表示する表示領域を図2に示すリプ
レイ表示領域RP1、RP2、・・・、RP12とし
て、得点後の表示画面において、記録された自キャラク
タ2の画像を各リプレイ表示領域RP1、RP2、・・
・、RP12にそれぞれ表示することにより、自キャラ
クタ2の得点場面を再現する。
According to the present invention, for example, an object arranged in the virtual three-dimensional space, an arbitrary area of the virtual three-dimensional space, or the like is used as a subject, and the object is designated from the image data stored in the frame buffer for each inter. The image of the subject is extracted and separately recorded, and the recorded image of the subject is displayed at an arbitrary display timing. In the present embodiment, the subject is the own character 2 and the display regions for displaying the subject during replay are recorded as replay display regions RP1, RP2, ..., RP12 shown in FIG. 2 on the scored display screen. Replay display areas RP1, RP2, ...
, And the score scene of the player character 2 is reproduced by displaying on the RP 12.

【0032】図3に、自キャラクタ2がコート奥側でプ
レーする際のリプレイ画面の一例を示す。図3に示すよ
うに、リアルタイム表示領域P1に表示されるプレー画
面において、コート奥側で自キャラクタ2がプレーして
いる画像が表示されている。そして、リプレイ表示領域
RP1、RP2、・・・、RP12には、得点場面にお
ける自キャラクタ2の画像がそれぞれ表示されている。
FIG. 3 shows an example of a replay screen when the player character 2 plays behind the court. As shown in FIG. 3, on the play screen displayed in the real-time display area P1, an image of the player character 2 playing on the back side of the court is displayed. Then, in the replay display areas RP1, RP2, ..., RP12, the images of the player character 2 in the scoring scene are displayed.

【0033】図2、及び図3に示すように、自キャラク
タ2がプレーする場所、即ち、プレー画面における自キ
ャラクタ2の位置や大きさに関わらず、得点場面におけ
る自キャラクタ2の画像が、各リプレイ表示領域RP
1、RP2、・・・、RP12に収まるように表示され
ている。さらに、自キャラクタ2のプレー位置が移動し
ていても、各リプレイ表示領域RP1、RP2、・・
・、RP12の中央に自キャラクタ2の画像が表示され
ている。
As shown in FIGS. 2 and 3, the images of the player character 2 in the scoring scene are different regardless of the place where the player character 2 plays, that is, the position and size of the player character 2 on the play screen. Replay display area RP
1, RP2, ..., RP12 are displayed. Further, even if the play position of the player character 2 is moved, each replay display area RP1, RP2, ...
, The image of the player character 2 is displayed in the center of the RP 12.

【0034】図4は、本実施形態におけるゲーム装置1
の機能ブロックの一例を示す図である。同図において、
機能ブロックは、操作部100と、処理部200と、表
示部300と、記憶部400と、一時記憶部500と、
から構成される。
FIG. 4 shows a game device 1 according to this embodiment.
It is a figure which shows an example of the functional block of. In the figure,
The functional blocks include an operation unit 100, a processing unit 200, a display unit 300, a storage unit 400, a temporary storage unit 500,
Composed of.

【0035】操作部100は、プレーヤが操作データを
入力するためのものであり、プレーヤによる操作に応じ
た操作信号を処理部200に出力する。この操作部10
0の機能は、レバー、ボタン、筐体等のハードウェアに
より実現できる。
The operation section 100 is for the player to input operation data, and outputs an operation signal according to the operation by the player to the processing section 200. This operation unit 10
The function of 0 can be realized by hardware such as a lever, a button, and a housing.

【0036】処理部200は、ゲーム装置1全体の制
御、ゲーム装置1内の各機能部への指示、ゲームの進行
処理、画像処理、音処理等の各種処理を行うものであ
り、特に、仮想3次元空間の設定処理、該仮想3次元空
間における仮想カメラの位置や視線方向の設定処理、こ
の仮想カメラから見た仮想3次元空間の画像(以下、表
示画像という。)を生成する処理等を、記憶部400に
格納されるゲームプログラム420に従って実行する。
この処理部200の機能は、各種プロセッサ(CPU、
DSP等)、或いはASIC(ゲートアレイ等)等のハ
ードウェアや、所与のプログラムにより実現可能であ
る。
The processing section 200 controls the entire game apparatus 1, gives instructions to each functional section in the game apparatus 1, performs various processing such as game progress processing, image processing, and sound processing, and in particular, virtual processing. Three-dimensional space setting processing, virtual camera position and line-of-sight direction setting processing in the virtual three-dimensional space, processing for generating an image of the virtual three-dimensional space viewed from the virtual camera (hereinafter referred to as display image), and the like. , According to the game program 420 stored in the storage unit 400.
The function of this processing unit 200 is that various processors (CPU,
This can be realized by hardware such as DSP) or ASIC (gate array etc.) or a given program.

【0037】また、処理部200は、主な機能部とし
て、ゲーム演算部220と、画像生成部240とを含
む。ここで、ゲーム画像の生成に係る、処理部200の
動作について図5を参照して説明する。
The processing section 200 also includes a game calculation section 220 and an image generation section 240 as main functional sections. Here, the operation of the processing unit 200 relating to the generation of the game image will be described with reference to FIG.

【0038】図5は、表示画像の生成処理を説明するた
めの図である。図5に示すように、仮想3次元空間に、
オブジェクト600及び視点(仮想カメラ)610が設
定されている。また、このオブジェクト600は、オブ
ジェクトデータとして形状や色、質感等が定義されてい
る。ゲーム演算部220は、このオブジェクト600に
係るオブジェクトデータに従い、オブジェクト600を
構成する各ポリゴンの位置情報や方向情報に基づいて、
ワールド座標系(Xw、Yw、Zw)におけるオブジェ
クト600の座標値を設定する。続いて、このワールド
座標系(Xw、Yw、Zw)に、視点610の位置や視
線の方向を設定し、クリッピング処理によりビューボリ
ューム620を決定する。そして、このビューボリュー
ム620に含まれる各ポリゴンを、視点610を基準と
した視点座標系(Xv、Yv、Zv)の座標値に変換
し、次いで、決定した視点座標系(Xv、Yv、Zv)
の座標値に基づいて2次元のスクリーン座標系(Xs、
Ys)の座標値に変換する処理を行う。
FIG. 5 is a diagram for explaining the display image generation processing. As shown in FIG. 5, in a virtual three-dimensional space,
An object 600 and a viewpoint (virtual camera) 610 are set. Further, the object 600 has the shape, color, texture, etc. defined as object data. The game calculation section 220 follows the object data relating to the object 600, based on the position information and the direction information of each polygon forming the object 600,
The coordinate value of the object 600 in the world coordinate system (Xw, Yw, Zw) is set. Subsequently, the position of the viewpoint 610 and the direction of the line of sight are set in the world coordinate system (Xw, Yw, Zw), and the view volume 620 is determined by clipping processing. Then, each polygon included in this view volume 620 is converted into a coordinate value of a viewpoint coordinate system (Xv, Yv, Zv) with respect to the viewpoint 610, and then, the determined viewpoint coordinate system (Xv, Yv, Zv).
2D screen coordinate system (Xs,
Ys) coordinate values are converted.

【0039】画像生成部240は、このゲーム演算部2
20における処理結果に基づいて、表示画像を生成す
る。具体的には、スクリーン630に投影されるオブジ
ェクト600に対して、当該オブジェクト600に定義
される色や質感等に係る情報に基づいて、色補間処理、
陰面消去処理等のレンダリング処理を行う。これによ
り、視点610の延長上に置かれるスクリーン630に
オブジェクト600が投影され、表示画像がスクリーン
630に描画される。そして、フレームバッファ520
にこの表示画像データを書き込み、1インター時間(例
えば、1/60秒)に係る1フレーム分の表示画像デー
タを生成する。
The image generation unit 240 uses the game calculation unit 2
A display image is generated based on the processing result of 20. Specifically, for the object 600 projected on the screen 630, color interpolation processing based on information related to the color, texture, etc. defined in the object 600,
Rendering processing such as hidden surface removal processing is performed. As a result, the object 600 is projected on the screen 630 placed on the extension of the viewpoint 610, and the display image is drawn on the screen 630. Then, the frame buffer 520
This display image data is written to generate display image data for one frame for one inter time (for example, 1/60 second).

【0040】また、本発明を実現するため、ゲーム演算
部220は、特に、画像抽出部222と、表示制御部2
24とを含む。
Further, in order to realize the present invention, the game calculation section 220 includes, in particular, the image extraction section 222 and the display control section 2.
24 and 24.

【0041】画像抽出部222は、画像抽出プログラム
422に従って処理を実行し、フレームバッファ520
に格納されている画像データから、予め指定された被写
体の画像を抽出し、当該被写体画像を抽出画像記憶部5
40に格納する処理を行う。また、この際、被写体画像
を表示する表示領域のサイズに応じて被写体の画像を抽
出及び拡縮する。
The image extraction unit 222 executes processing according to the image extraction program 422, and the frame buffer 520
An image of a previously designated subject is extracted from the image data stored in the image data storage unit 5 and the subject image is extracted.
The process of storing in 40 is performed. At this time, the image of the subject is extracted and scaled up or down according to the size of the display area for displaying the subject image.

【0042】表示制御部224は、表示制御プログラム
424に従って処理を実行し、後述する画像抽出部22
2による抽出処理が行われる前に、被写体画像の表示領
域のサイズ(例えば、図2或いは図3に示すリプレイ表
示領域RP1、RP2、・・・RP12)を設定する。
この際、この被写体画像の表示領域のサイズは、表示画
面の縦横比に基づいて設定されるようになっている。こ
の表示領域のサイズは任意であるが、上述したように、
画像抽出部222は、この表示領域のサイズに従って被
写体の画像を抽出するとともに、抽出画像記憶部540
に格納する。
The display control unit 224 executes processing according to the display control program 424, and the image extraction unit 22 described later.
Before the extraction process by 2 is performed, the size of the display area of the subject image (for example, the replay display areas RP1, RP2, ... RP12 shown in FIG. 2 or 3) is set.
At this time, the size of the display area of the subject image is set based on the aspect ratio of the display screen. The size of this display area is arbitrary, but as described above,
The image extraction unit 222 extracts the image of the subject according to the size of the display area, and the extracted image storage unit 540.
To store.

【0043】また、表示制御部224は、抽出画像記憶
部540に記憶された画像を表示画面に表示する際に、
当該画像の表示を制御する処理を行う。
Further, the display control unit 224, when displaying the image stored in the extracted image storage unit 540 on the display screen,
A process for controlling the display of the image is performed.

【0044】次に、本発明を実現するための処理部20
0の動作について、図6を参照して説明する。図6は、
本実施形態における処理の流れの一例を示すフローチャ
ートである。同図に示すように、先ず、ゲーム演算部2
20が、仮想3次元空間を構成するオブジェクトを配置
することにより、当該仮想3次元空間を設定する(ステ
ップS10)。さらに、ゲーム演算部220は、ステッ
プS10においてワールド座標系(Xw、Yw、Zw)
で設定される仮想3次元空間に、仮想カメラを配置し、
この仮想カメラによる視点、及び視点からの視線の方向
等を制御する。
Next, the processing unit 20 for realizing the present invention.
The operation of 0 will be described with reference to FIG. Figure 6
It is a flow chart which shows an example of a flow of processing in this embodiment. As shown in the figure, first, the game calculation unit 2
20 arranges the objects forming the virtual three-dimensional space to set the virtual three-dimensional space (step S10). Furthermore, the game calculation unit 220 determines the world coordinate system (Xw, Yw, Zw) in step S10.
Place a virtual camera in the virtual three-dimensional space set by
The viewpoint of this virtual camera and the direction of the line of sight from the viewpoint are controlled.

【0045】次に、ゲーム演算部220は、クリッピン
グ処理を行ってビューボリュームを決定し、当該ビュー
ボリューム内に位置するポリゴンを、仮想カメラの視点
を中心とする視点座標系(Xv、Yv、Zv)における
座標値に変換するとともに決定した視点座標系(Xv、
Yv、Zv)の座標値に基づいて2次元のスクリーン座
標系(Xs、Ys)における座標値に変換する処理を行
う(ステップS20)。
Next, the game calculation section 220 performs clipping processing to determine the view volume, and sets the polygons located in the view volume to the viewpoint coordinate system (Xv, Yv, Zv) centered on the viewpoint of the virtual camera. ), The viewpoint coordinate system (Xv,
Based on the coordinate values of Yv, Zv), processing for converting into coordinate values in the two-dimensional screen coordinate system (Xs, Ys) is performed (step S20).

【0046】続いて、ゲーム演算部220によるステッ
プS10及びステップS20における処理結果に基づい
て、画像生成部240が、当該スクリーン座標系(X
s、Ys)におけるオブジェクトの座標値等のデータ
や、各オブジェクトに係るオブジェクトデータに基づい
て種々のレンダリング処理を実行することにより、スク
リーンに投影されるオブジェクトに対する描画処理を行
い、表示画像を生成する(ステップS30)。また、こ
の際、生成した表示画像の画素情報をフレームバッファ
520へ書き込む。また、この画素情報は、処理部20
0により、当該画素情報に対応する表示画像の表示タイ
ミングに合わせて画像信号に変換されて、表示部300
に出力される。
Then, based on the processing results of the game calculation unit 220 in steps S10 and S20, the image generation unit 240 causes the screen coordinate system (X
(s, Ys), such as the coordinate value of the object in (s, Ys) and various rendering processes based on the object data of each object, thereby performing the drawing process on the object projected on the screen and generating the display image. (Step S30). At this time, the pixel information of the generated display image is written in the frame buffer 520. Further, this pixel information is processed by the processing unit 20.
0, it is converted into an image signal in accordance with the display timing of the display image corresponding to the pixel information, and the display unit 300
Is output to.

【0047】次に、画像抽出部222が、画像抽出処理
を実行する(ステップS40)。画像抽出部222は、
予め指定された被写体の画像を表示画像から抽出する処
理を行う。ここで、この画像抽出部222の機能につい
て、図7〜図9を参照して説明する。
Next, the image extracting section 222 executes an image extracting process (step S40). The image extraction unit 222
A process of extracting an image of a subject designated in advance from the display image is performed. Here, the function of the image extracting unit 222 will be described with reference to FIGS. 7 to 9.

【0048】図7(a)に、仮想3次元空間の斜視図の
一例を示す。図7(a)に示すように、仮想3次元空間
には、直方体オブジェクト72と、机オブジェクト74
とが配置され、直方体オブジェクト72は、机オブジェ
クト74の上に配置されている。さらに、この直方体オ
ブジェクト72と机オブジェクト74とを撮影するよう
に仮想カメラ76が設置されている。また、図7(b)
に、仮想3次元空間に配置される直方体オブジェクト7
2を示している。ここで、以下、この直方体オブジェク
ト72を被写体に指定し、表示画像から直方体オブジェ
クト72の画像を抽出する場合を例に、画像抽出部22
2における処理について説明する。
FIG. 7A shows an example of a perspective view of a virtual three-dimensional space. As shown in FIG. 7A, in the virtual three-dimensional space, a rectangular parallelepiped object 72 and a desk object 74 are included.
Are placed, and the rectangular parallelepiped object 72 is placed on the desk object 74. Further, a virtual camera 76 is installed so as to photograph the rectangular parallelepiped object 72 and the desk object 74. In addition, FIG.
A rectangular parallelepiped object 7 placed in a virtual three-dimensional space
2 is shown. Here, hereinafter, the image extraction unit 22 will be described as an example in which the rectangular parallelepiped object 72 is designated as a subject and the image of the rectangular parallelepiped object 72 is extracted from the display image.
The process in 2 will be described.

【0049】画像抽出部222は、図7(a)に示す仮
想3次元空間に配置される被写体である直方体オブジェ
クト72のみを対象に、スクリーン座標系(Xs、Y
s)に座標変換する処理を行う。そして、スクリーン座
標系(Xs、Ys)に変換された直方体オブジェクト7
2の各頂点の座標値を参照して、当該スクリーンにおけ
る直方体オブジェクト72の位置、即ち、表示画像にお
ける直方体オブジェクト72の位置を取得する。
The image extraction unit 222 targets only the rectangular parallelepiped object 72, which is the subject arranged in the virtual three-dimensional space shown in FIG. 7A, on the screen coordinate system (Xs, Y).
s) is converted into coordinates. Then, the rectangular parallelepiped object 7 converted into the screen coordinate system (Xs, Ys)
The position of the rectangular parallelepiped object 72 on the screen, that is, the position of the rectangular parallelepiped object 72 in the display image is acquired by referring to the coordinate value of each vertex of 2.

【0050】図8は、直方体オブジェクト72の画像を
抽出する際の、抽出領域の決定処理を説明するための図
である。図8(a)は、直方体オブジェクト72をスク
リーン座標系(Xs、Ys)の座標値に変換した際の、
スクリーン80における直方体オブジェクト72を示す
図である。画像抽出部222は、先ず、スクリーン座標
系(Xs、Ys)に変換された直方体オブジェクト72
の頂点の座標値に基づいて、スクリーン80における直
方体オブジェクト72の領域(以下、被写体領域とい
う。)82を決定する。具体的には、スクリーン座標系
(Xs、Ys)における直方体オブジェクト72の各頂
点の座標値のうち、上端、下端、左端、右端となる座標
値、例えば、頂点86及び88の座標値を取得する。そ
して、この座標値に基づいて、直方体オブジェクト72
が含まれるように被写体領域82を決定する。
FIG. 8 is a diagram for explaining the extraction region determination processing when extracting the image of the rectangular parallelepiped object 72. FIG. 8A shows a case where the rectangular parallelepiped object 72 is converted into the coordinate values of the screen coordinate system (Xs, Ys).
It is a figure which shows the rectangular parallelepiped object 72 in the screen 80. The image extracting unit 222 firstly converts the rectangular parallelepiped object 72 into the screen coordinate system (Xs, Ys).
A region (hereinafter, referred to as a subject region) 82 of the rectangular parallelepiped object 72 on the screen 80 is determined based on the coordinate values of the vertices of. Specifically, among the coordinate values of the vertices of the rectangular parallelepiped object 72 in the screen coordinate system (Xs, Ys), the coordinate values at the upper end, the lower end, the left end, and the right end, for example, the coordinate values of the vertices 86 and 88 are acquired. . Then, based on these coordinate values, the rectangular parallelepiped object 72
The subject area 82 is determined so as to include.

【0051】以上説明したように被写体領域82を決定
することによれば、例えば、仮想カメラ76にとって被
写体となる直方体オブジェクト72の手前に他のオブジ
ェクトが存在するなどの理由で表示画像に被写体の画像
が描画されない、或いは一部しか描画されない場合にお
いても、直方体オブジェクト72が投影される位置の領
域を被写体領域82として指定することができる。ま
た、被写体領域82は、直方体オブジェクト72の大き
さに基づいて決定されるため、この直方体オブジェクト
72が、丁度収まるような領域を抽出領域とすることが
できる。
According to the determination of the subject area 82 as described above, the image of the subject is displayed on the display image because, for example, another object is present in front of the rectangular parallelepiped object 72 which is the subject for the virtual camera 76. Even if is not drawn, or is only partially drawn, the area at the position where the rectangular parallelepiped object 72 is projected can be designated as the subject area 82. Further, since the subject area 82 is determined based on the size of the rectangular parallelepiped object 72, the area in which the rectangular parallelepiped object 72 can be exactly set can be the extraction area.

【0052】次に、画像抽出部222は、実際に表示画
像から抽出する領域(以下、抽出領域という。)84
を、被写体を表示するリプレイ表示領域RPのサイズに
基づいて決定する。図8(b)に、被写体を表示するリ
プレイ表示領域RPの一例を示す。上述したように、抽
出する被写体の画像を表示するリプレイ表示領域RP
は、表示制御部224において、抽出処理が行われる前
に設定される。
Next, the image extracting section 222 extracts a region actually extracted from the display image (hereinafter referred to as an extraction region) 84.
Is determined based on the size of the replay display area RP for displaying the subject. FIG. 8B shows an example of the replay display area RP for displaying a subject. As described above, the replay display area RP that displays the image of the subject to be extracted
Is set in the display control unit 224 before the extraction processing is performed.

【0053】ここでは、例として、図8(b)に示すよ
うに、リプレイ表示領域RPがa×2a、即ち、縦横の
長さの比が1:2の比で表される場合を例に、抽出領域
84を決定する場合を説明する。先ず、被写体領域82
における縦と横の長さを比較する。そして、その長さの
長い方を基準として、リプレイ表示領域PRの縦横比に
従い抽出領域84を決定する。ここで、被写体領域82
は縦長であるので、この縦の長さbを基準にして被写体
領域82の縦の長さの2倍の長さを横の長さとし、抽出
領域84のサイズをb×2bに決定する。そして、決定
した抽出領域84の座標値を一時記憶部500に保存す
る。
Here, as an example, as shown in FIG. 8B, the case where the replay display area RP is represented by a × 2a, that is, the ratio of the length and the width is represented by the ratio of 1: 2 is taken as an example. The case of determining the extraction area 84 will be described. First, the subject area 82
Compare the vertical and horizontal lengths in. Then, the extraction area 84 is determined according to the aspect ratio of the replay display area PR with the longer one as a reference. Here, the subject area 82
Is vertical, the horizontal length is twice the vertical length of the subject area 82 with reference to this vertical length b, and the size of the extraction area 84 is determined to be b × 2b. Then, the determined coordinate values of the extraction area 84 are stored in the temporary storage unit 500.

【0054】画像抽出部222は、以上のように決定し
た抽出領域84に従って、フレームバッファ520に格
納される表示画像における抽出領域84に対応する領域
を抽出する。図9は、抽出領域84の画像を抽出する処
理を説明するための図である。図9(a)に、フレーム
バッファ520に格納される表示画像の一例を示す。図
9(a)に示す表示画像において、上述のようにスクリ
ーン座標系(Xs、Ys)の座標値に従って決定した抽
出領域84に対応する領域の画像(以下、抽出画像とい
う。)90を抽出する。
The image extraction unit 222 extracts the area corresponding to the extraction area 84 in the display image stored in the frame buffer 520 according to the extraction area 84 determined as described above. FIG. 9 is a diagram for explaining the process of extracting the image of the extraction region 84. FIG. 9A shows an example of the display image stored in the frame buffer 520. In the display image shown in FIG. 9A, an image (hereinafter referred to as an extracted image) 90 of an area corresponding to the extracted area 84 determined according to the coordinate values of the screen coordinate system (Xs, Ys) as described above is extracted. .

【0055】そして、画像抽出部222は、抽出した抽
出画像90を、表示するリプレイ表示領域RPのサイズ
に合わせてサイズ変更して抽出画像記憶部540に格納
する。図9(b)に、抽出画像記憶部540に記憶され
る抽出画像90の一例を示す。図9(b)に示す抽出画
像90のサイズは、図8(b)に示すリプレイ表示領域
RPのサイズと同等である。即ち、抽出画像90を抽出
画像記憶部540に記憶する際、この抽出画像90のサ
イズを、リプレイ表示領域RPのサイズに合わせて拡
大、或いは縮小する処理を行う。
Then, the image extracting section 222 resizes the extracted image 90 to match the size of the replay display area RP to be displayed and stores it in the extracted image storage section 540. FIG. 9B shows an example of the extracted image 90 stored in the extracted image storage unit 540. The size of the extracted image 90 shown in FIG. 9B is equal to the size of the replay display area RP shown in FIG. 8B. That is, when the extracted image 90 is stored in the extracted image storage unit 540, the size of the extracted image 90 is enlarged or reduced according to the size of the replay display area RP.

【0056】尚、抽出画像90をリプレイ表示領域RP
に合わせてサイズ変更する際に、バイリニア・フィルタ
リングの画素データの補間機能を利用した画像平滑化処
理により、縮小画像或いは拡大画像の生成を行うことと
してもよい。ゲーム装置等の画像生成装置においては、
再近隣内挿法や共一次内挿法(いわゆるバイリニア・フ
ィルタリング)、三次畳み込み内挿法(いわゆるトライ
リニア・フィルタリング)といった内挿画素データ演算
処理が、ハードウェアの機能として実現されている場合
があり、このような場合には、上記画像平滑化処理をよ
り高速に実現することが可能である。
The extracted image 90 is displayed in the replay display area RP.
When the size is changed according to the above, the reduced image or the enlarged image may be generated by the image smoothing process using the interpolation function of the pixel data of the bilinear filtering. In an image generation device such as a game device,
Interpolation pixel data arithmetic processing such as the nearest neighbor interpolation method, the bilinear interpolation method (so-called bilinear filtering), and the cubic convolution interpolation method (so-called trilinear filtering) may be realized as a hardware function. In such a case, the image smoothing process can be realized at a higher speed.

【0057】ここで、バイリニア・フィルタリングにつ
いて説明する。図10は、既存の画素(T1、T2、T
3、及びT4)と、バイリニア・フィルタリングにより
内挿される画素(P)との関係を示す図である。図10
(a)に示すように、内挿される画素(サンプリング
点)Pの色CPは、Pの周りの画素T1〜T4の色を補
間した色となる。
Here, bilinear filtering will be described. FIG. 10 shows existing pixels (T1, T2, T
3 and T4) and a pixel (P) interpolated by bilinear filtering. Figure 10
As shown in (a), the color CP of the pixel (sampling point) P to be interpolated is a color obtained by interpolating the colors of the pixels T1 to T4 around P.

【0058】具体的には、T1〜T4の座標とPの座標
とに基づき、x軸方向の座標比β:1−β(0≦β≦
1)と、y軸方向の座標比γ:1−γ(0≦γ≦1)
と、を求める。このPの色CP(バイリニア・フィルタ
リングでの出力色)は、次式で示すことができる。 CP=(1−β)×(1−γ)×CT1+β×(1−γ)×CT2 +(1−β)×γ×CT3+β×γ×CT4 ・・・(1)
Specifically, based on the coordinates of T1 to T4 and the coordinates of P, the coordinate ratio β: 1-β (0≤β≤
1) and the y-axis coordinate ratio γ: 1-γ (0 ≦ γ ≦ 1)
And ask. The color CP of P (output color in bilinear filtering) can be expressed by the following equation. CP = (1-β) × (1-γ) × CT1 + β × (1-γ) × CT2 + (1-β) × γ × CT3 + β × γ × CT4 (1)

【0059】また、図10(b)に示すように、β=γ
=1/2となる場合には、内挿される画素Pの色CP
は、次式のようになる。 CP=(CT1+CT2+CT3+CT4)/4 ・・・(2)
Further, as shown in FIG. 10B, β = γ
= 1/2, the color CP of the pixel P to be interpolated
Is as follows: CP = (CT1 + CT2 + CT3 + CT4) / 4 (2)

【0060】画像抽出部222は、リプレイ表示領域R
Pのサイズに合わせて拡大、或いは縮小した抽出画像9
0を、抽出画像記憶部540に格納する。図11は、抽
出画像90を抽出画像記憶部540へ格納する際の格納
方法の一例を説明するための図である。図11(a)
は、1/60秒毎に生成され、フレームバッファ520
に順次格納される表示画像を示したものであり、フレー
ムバッファ520は、第1フレームF1から順に、1/
60秒毎に生成される表示画像により上書きされる。生
成した表示画像における抽出画像90は、図11(b)
に示す抽出画像記憶部540に記憶される。
The image extracting section 222 uses the replay display area R.
Extracted image 9 enlarged or reduced according to the size of P
0 is stored in the extracted image storage unit 540. FIG. 11 is a diagram for explaining an example of a storage method when storing the extracted image 90 in the extracted image storage unit 540. FIG. 11 (a)
Is generated every 1/60 second and the frame buffer 520
The display images sequentially stored in the frame buffer 520 are shown in FIG.
It is overwritten by the display image generated every 60 seconds. The extracted image 90 in the generated display image is shown in FIG.
The extracted image storage unit 540 shown in FIG.

【0061】後述するが、本実施形態においては、被写
体の画像を、1/60秒毎に生成される画像のうち、例
えば、3フレーム毎に被写体画像を抽出することとす
る。図11(b)に示すように、抽出画像記憶部540
には、記憶領域1から順に、3フレーム毎に抽出される
抽出画像90が格納される。即ち、第1フレームF1に
おける抽出画像90を領域1に、第4フレームF4にお
ける抽出画像90を領域2に、というように順次格納し
ていく。また、この図11における例では、抽出画像記
憶部540の記憶領域は、32個分の抽出画像90を格
納する領域が確保されている。この32個の記憶領域全
てに抽出画像90が格納された場合には、領域1から順
に上書きしていくこととする。尚、抽出画像記憶部54
0への抽出画像の格納方法はこれに限られるものではな
く、例えば図2、或いは図3に示すように、リプレイ表
示領域として12個の表示領域が設定される際には、抽
出画像12枚分のデータを確保し、表示可能な画像のみ
を保存することとしてもよい。
As will be described later, in the present embodiment, a subject image is extracted every three frames, for example, of the images generated every 1/60 seconds. As shown in FIG. 11B, the extracted image storage unit 540
In, the extracted images 90 extracted every three frames are stored in order from the storage area 1. That is, the extracted image 90 in the first frame F1 is stored in the area 1, the extracted image 90 in the fourth frame F4 is stored in the area 2, and so on. Further, in the example in FIG. 11, the storage area of the extracted image storage unit 540 is an area for storing 32 extracted images 90. When the extracted image 90 is stored in all of these 32 storage areas, the area 1 is overwritten in order. The extracted image storage unit 54
The method of storing the extracted images in 0 is not limited to this. For example, when 12 display areas are set as the replay display areas as shown in FIG. 2 or FIG. Minute data may be secured and only displayable images may be stored.

【0062】以上説明した機能を有する画像抽出部22
2は、画像抽出プログラム422に従って処理を実行す
るものであり、この画像抽出部222の動作は、図12
に示すフローチャートに従う。即ち、先ず、ビューボリ
ューム内に被写体(例えば、図7(b)に示す直方体オ
ブジェクト72)が存在するか否かを判定する(ステッ
プS41)。このステップS41において、被写体がビ
ューボリューム内に存在しないと判断する場合は、本画
像抽出を終了する。
The image extraction unit 22 having the functions described above
2 executes processing according to the image extraction program 422, and the operation of the image extraction unit 222 is as shown in FIG.
Follow the flowchart shown in. That is, first, it is determined whether or not a subject (for example, a rectangular parallelepiped object 72 shown in FIG. 7B) exists in the view volume (step S41). If it is determined in step S41 that the subject does not exist in the view volume, the main image extraction ends.

【0063】ステップS41において、被写体がビュー
ボリューム内に存在すると判断する場合には、予め設定
される抽出条件に従って、当該被写体の画像を表示画像
から抽出するか否かを判定する(ステップS42)。本
実施形態においては、例えば、抽出条件として、3フレ
ーム毎に表示画像から被写体画像を抽出するように設定
することとする。尚、抽出条件はこれに限定されるもの
ではなく、抽出タイミングを設定し、このタイミングを
判定することにより抽出することとしてもよい。また、
この判定処理を行わず、毎フレーム抽出することとして
も勿論構わない。このステップS42において、抽出処
理を行わないと判断する場合は、本画像抽出を終了す
る。
When it is determined in step S41 that the subject is present in the view volume, it is determined whether or not the image of the subject is extracted from the display image according to preset extraction conditions (step S42). In the present embodiment, for example, the extraction condition is set to extract the subject image from the display image every three frames. The extraction condition is not limited to this, and extraction may be performed by setting an extraction timing and determining this timing. Also,
It is of course possible to extract each frame without performing this determination processing. When it is determined in step S42 that the extraction process is not performed, the main image extraction is ended.

【0064】ステップS42において、抽出処理を行う
と判断する場合、画像抽出部222は、被写体の座標値
をスクリーン座標系(Xs、Ys)の座標値に変換する
処理を行う(ステップS43)。
When it is determined in step S42 that the extraction process is to be performed, the image extraction unit 222 performs the process of converting the coordinate value of the subject into the coordinate value of the screen coordinate system (Xs, Ys) (step S43).

【0065】次に、画像抽出部222は、スクリーン座
標系(Xs、Ys)に変換された被写体の、スクリーン
における上端、下端、左端、右端の座標値を参照して被
写体領域を決定するとともに、この被写体を表示する表
示領域の縦横比に従って抽出領域を決定する(ステップ
S44)。
Next, the image extraction section 222 determines the subject area by referring to the coordinate values of the upper end, lower end, left end and right end of the screen of the subject converted into the screen coordinate system (Xs, Ys). The extraction area is determined according to the aspect ratio of the display area for displaying the subject (step S44).

【0066】次に、画像抽出部222は、フレームバッ
ファ520に格納される表示画像データから、ステップ
S44において決定される抽出領域に対応する領域を抽
出する(ステップS45)。そして、抽出した抽出画像
のサイズを表示領域に合わせてサイズ変更する(ステッ
プS46)。即ち、表示領域のサイズよりも抽出画像の
サイズが小さい場合は当該抽出画像を拡大し、また、表
示領域のサイズよりも抽出画像のサイズが大きい場合に
は当該抽出画像を縮小して、抽出画像のサイズを変更す
る。
Next, the image extraction unit 222 extracts the area corresponding to the extraction area determined in step S44 from the display image data stored in the frame buffer 520 (step S45). Then, the size of the extracted extracted image is changed according to the display area (step S46). That is, when the size of the extracted image is smaller than the size of the display area, the extracted image is enlarged, and when the size of the extracted image is larger than the size of the display area, the extracted image is reduced to extract the extracted image. Change the size of.

【0067】次いで、表示領域のサイズに従ってサイズ
変更した抽出画像を、抽出画像記憶部540に格納して
(ステップS47)、本画像抽出処理を終了する。
Next, the extracted image whose size has been changed according to the size of the display area is stored in the extracted image storage unit 540 (step S47), and the main image extraction processing is terminated.

【0068】画像抽出部222における画像抽出処理が
終了すると、リプレイを表示するか否かを判定する(図
6;ステップS50)。このステップS50において、
リプレイ画面を表示しないと判断する場合は、ステップ
S10に戻って上記した各処理を繰り返す。
When the image extraction processing in the image extraction unit 222 is completed, it is determined whether or not to display the replay (FIG. 6; step S50). In this step S50,
When it is determined that the replay screen is not displayed, the process returns to step S10 and the above processes are repeated.

【0069】ステップS10において、リプレイ画面を
表示すると判断する際には、表示制御部224が、リプ
レイ表示処理を実行する(ステップS60)。
When it is determined in step S10 that the replay screen is to be displayed, the display control section 224 executes a replay display process (step S60).

【0070】表示制御部224におけるリプレイ表示処
理は、リプレイ画面を表示すると判断する際に、抽出画
像記憶部540に格納される抽出画像を表示するもので
ある。表示制御部224は、抽出画像記憶部540に格
納される複数の抽出画像の表示を制御する。例えば、格
納される複数の抽出画像を配列して配置するように制御
するとともに、当該複数の抽出画像を配列する際に、所
定の時間差を設けて表示する。
The replay display processing in the display control unit 224 is to display the extracted image stored in the extracted image storage unit 540 when it is determined to display the replay screen. The display control unit 224 controls the display of the plurality of extracted images stored in the extracted image storage unit 540. For example, control is performed so that a plurality of stored extracted images are arranged and arranged, and a predetermined time difference is provided and displayed when the plurality of extracted images are arranged.

【0071】図2、或いは図3に示す12個のリプレイ
表示領域RP1、RP2、・・・、RP12に抽出画像
を表示する場合について説明する。先ず、抽出画像記憶
部540から、このリプレイ表示領域RP1、RP2、
・・・、RP12に表示する12枚を決定する。例え
ば、図11に示す抽出画像記憶部540の記憶領域に格
納される最新の抽出画像が、領域32に格納される抽出
画像である場合、この領域32からさかのぼった12枚
の抽出画像、即ち、領域21〜領域32に格納される抽
出画像を表示する。具体的には、リプレイ表示領域RP
1に領域21に格納される抽出画像を、リプレイ表示領
域RP2に領域22に格納される抽出画像を、そして、
リプレイ表示領域RP12に領域32に格納される抽出
画像を、所定の時間差に従って表示するように、表示制
御する。尚、表示する12枚の抽出画ー像の決定方法
は、これに限るものではなく、抽出画像記憶部540に
記憶される抽出画像から任意の画像を選択して表示する
こととしてもよい。
A case will be described in which the extracted images are displayed in the twelve replay display areas RP1, RP2, ..., RP12 shown in FIG. 2 or FIG. First, from the extracted image storage unit 540, the replay display areas RP1, RP2,
..., determines 12 images to be displayed on the RP12. For example, if the latest extracted image stored in the storage area of the extracted image storage unit 540 shown in FIG. 11 is the extracted image stored in the area 32, 12 extracted images traced back from this area 32, that is, The extracted images stored in the areas 21 to 32 are displayed. Specifically, the replay display area RP
1 to the extracted image stored in the area 21, the replay display area RP2 to the extracted image stored in the area 22, and
The display control is performed so that the extracted image stored in the area 32 is displayed in the replay display area RP12 according to a predetermined time difference. The method of determining the 12 extracted image images to be displayed is not limited to this, and an arbitrary image may be selected from the extracted images stored in the extracted image storage unit 540 and displayed.

【0072】そして、表示制御部224によるリプレイ
表示処理を終了すると、本処理を終了する。
Then, when the replay display processing by the display control section 224 is completed, this processing is completed.

【0073】表示部300は、プレー画面やリプレイ画
面等のゲーム画像を表示する。処理部200は、一時記
憶部500内のフレームバッファ520に格納される表
示画像データを、この表示部300に出力する。
The display section 300 displays game images such as a play screen and a replay screen. The processing unit 200 outputs the display image data stored in the frame buffer 520 in the temporary storage unit 500 to the display unit 300.

【0074】記憶部400には、各種処理プログラムや
データの他、ゲームの進行に係るゲームプログラム42
0や、ゲームの進行に必要な各種ゲーム情報(図示略)
等が格納される。ゲームプログラム420は、本発明を
実現するため、特に、画像抽出プログラム422と、表
示制御プログラム424とを含む。処理部200は、こ
の記憶部400から読み出すプログラム、データに基づ
いて種々の処理を行う。
In the storage unit 400, in addition to various processing programs and data, the game program 42 relating to the progress of the game is stored.
0 or various game information (not shown) necessary for the progress of the game
Etc. are stored. The game program 420 particularly includes an image extraction program 422 and a display control program 424 in order to implement the present invention. The processing unit 200 performs various processes based on the program and data read from the storage unit 400.

【0075】一時記憶部500には、特に、ゲーム演算
部220がゲームプログラム420に従って実行した演
算結果や、操作部100から入力される情報、或いは画
像生成部240により生成される表示画像データ等が一
時的に格納される。また、この一時記憶部500には、
仮想3次元空間に含まれるオブジェクトの、ワールド座
標系、視点座標系、及びスクリーン座標系における座標
値も一時記憶される。この一時記憶部500の機能は、
例えば、RAMやVRAMにより実現可能である。
The temporary storage unit 500 stores, in particular, a calculation result executed by the game calculation unit 220 according to the game program 420, information input from the operation unit 100, display image data generated by the image generation unit 240, and the like. Stored temporarily. In addition, in the temporary storage unit 500,
Coordinate values of the objects included in the virtual three-dimensional space in the world coordinate system, the viewpoint coordinate system, and the screen coordinate system are also temporarily stored. The function of this temporary storage unit 500 is
For example, it can be realized by RAM or VRAM.

【0076】また、一時記憶部500は、特に、画像生
成部240により生成される画像データが格納されるフ
レームバッファ520と、画像抽出部222により生成
される抽出画像が格納される抽出画像記憶部540とを
含む。
Further, the temporary storage unit 500 is, in particular, a frame buffer 520 in which the image data generated by the image generation unit 240 is stored, and an extracted image storage unit in which the extracted image generated by the image extraction unit 222 is stored. 540 and.

【0077】尚、本実施形態においては、プレーヤの操
作する自キャラクタを被写体として設定することとした
が、これに限られるものではなく、仮想3次元空間にお
ける任意の領域を指定することも可能である。
In the present embodiment, the player character operated by the player is set as the subject, but the present invention is not limited to this, and it is possible to designate any area in the virtual three-dimensional space. is there.

【0078】次に、本実施形態におけるゲーム装置1を
実現できるハードウェアの構成の一例について、図13
を用いて説明する。図13に示す装置では、CPU10
00、ROM1002、RAM1004、VRAM10
05、情報記憶媒体1006、画像生成IC1008、
音生成IC1010、I/Oポート1012、1014
がシステムバス1016より相互にデータ入出力可能に
接続されている。画像生成IC1008には表示装置1
018が、音生成IC1010にはスピーカ1020
が、I/Oポート1012にはコントロール装置102
2が、I/Oポート1014には通信装置1024が、
それぞれ接続されている。
Next, an example of the hardware configuration that can realize the game device 1 according to this embodiment will be described with reference to FIG.
Will be explained. In the device shown in FIG. 13, the CPU 10
00, ROM 1002, RAM 1004, VRAM 10
05, information storage medium 1006, image generation IC 1008,
Sound generation IC 1010, I / O ports 1012, 1014
Are connected to each other via a system bus 1016 so that data can be input and output. The image generation IC 1008 includes a display device 1
018 is a speaker 1020 in the sound generation IC 1010.
However, the I / O port 1012 has a control device 102
2, the communication device 1024 is connected to the I / O port 1014,
Each is connected.

【0079】CPU1000は、情報記憶媒体1006
に格納されるプログラム、ROM1002に格納される
システムプログラム(装置本体の初期化情報等)、コン
トロール装置1022によって入力される信号等に従っ
て、装置全体の制御や各種データ処理を行う。
The CPU 1000 uses the information storage medium 1006.
According to a program stored in the ROM 1002, a system program stored in the ROM 1002 (initialization information of the apparatus main body, etc.), a signal input by the control device 1022, etc., control of the entire apparatus and various data processing are performed.

【0080】RAM1004は、CPU1000の作業
領域等として用いられる記憶手段であり、情報記憶媒体
1006やROM1002内の所与の内容、CPU10
00の演算結果等が格納される。
The RAM 1004 is a storage means used as a work area of the CPU 1000, and has a given content in the information storage medium 1006 and the ROM 1002, the CPU 10 and the like.
The calculation result of 00 is stored.

【0081】VRAM1005は、図4に示す一時記憶
部500に相当するものであり、表示装置1018に表
示される表示データを一時的に格納する記憶装置であ
る。このVRAM1005は、画像生成IC1008に
よって生成される1フレーム分の画像データを格納する
ためのフレームバッファ(図4に示すフレームバッファ
520に相当)を備える。フレームバッファは、表示装
置1018の解像度及び色数に応じた容量を備え、画素
毎の色情報を記憶する。さらに、このVRAM1005
は、フレームバッファに格納される表示画像データから
抽出した抽出画像を記憶する記憶領域(例えば、図4に
示す抽出画像記憶部540)を含む。
The VRAM 1005 corresponds to the temporary storage unit 500 shown in FIG. 4, and is a storage device for temporarily storing the display data displayed on the display device 1018. The VRAM 1005 includes a frame buffer (corresponding to the frame buffer 520 shown in FIG. 4) for storing one frame of image data generated by the image generation IC 1008. The frame buffer has a capacity corresponding to the resolution and the number of colors of the display device 1018 and stores color information for each pixel. Furthermore, this VRAM1005
Includes a storage area (for example, the extracted image storage unit 540 shown in FIG. 4) that stores the extracted image extracted from the display image data stored in the frame buffer.

【0082】情報記憶媒体1006は、プログラム、画
像データ、音データ、プレイデータ等が主に格納される
ものであり、情報記憶媒体としてのROM等のメモリや
ハードディスク、或いはゲームカセット、ICカード、
磁気ディスク、光ディスク等が用いられる。この情報記
憶媒体1006の機能は、図4に示す記憶部400に相
当する。
The information storage medium 1006 mainly stores programs, image data, sound data, play data, and the like. A memory such as a ROM as an information storage medium, a hard disk, a game cassette, an IC card,
Magnetic disks, optical disks, etc. are used. The function of this information storage medium 1006 corresponds to the storage unit 400 shown in FIG.

【0083】例えば、本ゲーム装置を家庭用ゲーム装置
に適用する場合、図4に示すゲームプログラム420等
を格納する情報記憶媒体1006としてCD−ROM、
ゲームカセット、DVD等が用いられ、プレイデータを
格納する情報記憶媒体1006としてメモリカードなど
が用いられる。また、業務用ゲーム装置に適用する場合
には、情報記憶媒体1006としてROM等のメモリや
ハードディスクが用いられる。
For example, when the game device is applied to a home game device, a CD-ROM as an information storage medium 1006 for storing the game program 420 shown in FIG.
A game cassette, a DVD, or the like is used, and a memory card or the like is used as the information storage medium 1006 that stores play data. When applied to an arcade game machine, a memory such as a ROM or a hard disk is used as the information storage medium 1006.

【0084】また、この装置に設けられている画像生成
IC1008と音生成IC1010により、音や画像の
好適な出力が行えるようになっている。
Further, the image generation IC 1008 and the sound generation IC 1010 provided in this apparatus can perform suitable output of sounds and images.

【0085】先ず、画像生成IC1008は、CPU1
000の命令によって、ROM1002、RAM100
4、情報記憶媒体1006等から送られる情報に基づい
て画素情報を生成する集積回路であり、生成される表示
信号は表示装置1018に出力される。表示装置101
8は、CRTやLCD、TV、プラズマディスプレイ、
或いはプロジェクター等により実現され、図4に示す表
示部300に相当する。
First, the image generation IC 1008
ROM 1002, RAM 100
4. An integrated circuit that generates pixel information based on information sent from the information storage medium 1006 or the like, and the generated display signal is output to the display device 1018. Display device 101
8 is CRT, LCD, TV, plasma display,
Alternatively, it is realized by a projector or the like and corresponds to the display unit 300 shown in FIG.

【0086】また、音生成IC1010は、CPU10
00の命令によって、情報記憶媒体1006やROM1
002に記憶される情報、RAM1004に格納される
音データに応じた音信号を生成する集積回路であり、生
成される音信号はスピーカ1020によって出力され
る。
The sound generation IC 1010 is the CPU 10
00, the information storage medium 1006 and the ROM 1
This is an integrated circuit that generates a sound signal according to the information stored in 002 and the sound data stored in the RAM 1004, and the generated sound signal is output by the speaker 1020.

【0087】コントロール装置1022は、図4に示す
操作部100に相当するものであり、プレーヤがゲーム
に係る操作を入力するための装置である。
The control device 1022 corresponds to the operation unit 100 shown in FIG. 4, and is a device for the player to input an operation related to the game.

【0088】通信装置1024は本ゲーム装置1内部で
利用される情報を外部とやりとりするものであり、他の
装置と通信回線を介して接続されてプログラムに応じた
所与の情報を送受信する際に利用される。
The communication device 1024 exchanges information used inside the game device 1 with the outside, and is connected to another device through a communication line to transmit and receive given information according to the program. Used for.

【0089】そして、ゲーム進行処理等の上述した処理
は、図4に示すゲームプログラム420等を格納した情
報記憶媒体1006と、これらプログラムに従って動作
するCPU1000、画像生成IC1008、音生成I
C1010等によって実現される。CPU1000及び
画像生成IC1008は、図4に示す処理部200に該
当するものであり、主にCPU1000が図4に示すゲ
ーム演算部220に、画像生成IC1008が図4に示
す画像生成部240に該当する。
The above-described processing such as the game progress processing is performed by the information storage medium 1006 storing the game program 420 shown in FIG. 4, the CPU 1000 operating according to these programs, the image generation IC 1008, and the sound generation I.
It is realized by C1010 and the like. The CPU 1000 and the image generation IC 1008 correspond to the processing unit 200 shown in FIG. 4. The CPU 1000 mainly corresponds to the game calculation unit 220 shown in FIG. 4, and the image generation IC 1008 corresponds to the image generation unit 240 shown in FIG. .

【0090】尚、画像生成IC1008、音生成IC1
010等で行われる処理は、CPU1000或いは汎用
のDSP等によりソフトウェア的に行ってもよい。この
場合には、CPU1000が、図4に示す処理部200
に該当することとなる。
The image generation IC 1008 and the sound generation IC 1
The processing performed by 010 or the like may be performed by software by the CPU 1000 or a general-purpose DSP. In this case, the CPU 1000 causes the processing unit 200 shown in FIG.
Will be applicable.

【0091】次に、図14に、本ゲーム装置1を、家庭
用ゲーム装置に適用した場合の例を示す。即ち、ゲーム
装置本体1200に、ゲームコントローラ1202、1
204、及びディスプレイ1206が接続されており、
プレーヤは、このディスプレイ1206に表示されるゲ
ーム画像を見たり、図示しないスピーカから出力される
ゲーム音を聞きながら、ゲームコントローラ1202、
1204によりキャラクタ等を操作してゲームを楽し
む。更に、ゲーム装置本体1200に対して着脱自在な
CD(DVD)1208、或いはメモリカード1210
やICカード1212等の情報記憶媒体には、図4に示
す記憶部400に格納されているゲームプログラム42
0や図示しないゲームデータ等の情報が格納され、ゲー
ム装置本体1200は、これらの情報に従って、各種処
理(例えば、図6、或いは図12等に示す処理)を行
う。尚、図4に示す操作部100はコントローラ120
2、1204に、表示部300はディスプレイ1206
にそれぞれ相当するものである。
Next, FIG. 14 shows an example in which the present game device 1 is applied to a home game device. In other words, the game controller 1202, 1
204 and a display 1206 are connected,
The player sees the game image displayed on the display 1206 and listens to the game sound output from a speaker (not shown) while watching the game controller 1202,
At 1204, a character or the like is operated to enjoy the game. Further, a CD (DVD) 1208 or a memory card 1210 that is detachable from the game device main body 1200.
A game program 42 stored in the storage unit 400 shown in FIG.
0 and information such as game data (not shown) are stored, and the game apparatus body 1200 performs various processes (for example, the process shown in FIG. 6 or FIG. 12) in accordance with these information. The operation unit 100 shown in FIG.
2, 1204, the display unit 300 has a display 1206.
Respectively correspond to.

【0092】また、本ゲーム装置1を、業務用ゲーム装
置1100に適用した場合の例を図15に示す。この業
務用ゲーム装置1100は、プレーヤが、スピーカ11
02から出力されるゲーム音を聞きながら操作レバー1
104、或いは操作ボタン1106・・・を操作するこ
とによって、ディスプレイ1108上に表示されるキャ
ラクタ等を操作してテニスゲームを楽しむ装置である。
尚、図4に示す操作部100は操作レバー1104、或
いは操作ボタン1106・・・に、表示部300はディ
スプレイ1108に、それぞれ相当する。
FIG. 15 shows an example in which the game device 1 is applied to the arcade game device 1100. In this arcade game device 1100, the player uses the speaker 11
Operation lever 1 while listening to the game sound output from 02
This is a device for enjoying a tennis game by operating a character or the like displayed on the display 1108 by operating 104 or operation buttons 1106.
The operation unit 100 shown in FIG. 4 corresponds to the operation lever 1104 or the operation buttons 1106 ... And the display unit 300 corresponds to the display 1108.

【0093】業務用ゲーム装置1100に内蔵されるシ
ステム基板1110には、CPU、画像生成IC、音生
成IC等が実装されている。そして、図4に示すゲーム
プログラム420や図示しないゲームデータ等が、シス
テム基板1110上の情報記憶媒体であるメモリ111
2に格納されている。
A system board 1110 built in the arcade game machine 1100 is equipped with a CPU, an image generation IC, a sound generation IC and the like. The game program 420 shown in FIG. 4, game data not shown, and the like are stored in the memory 111, which is an information storage medium on the system board 1110.
Stored in 2.

【0094】さらに、図16に示すように、本ゲーム装
置1を、ホスト装置1300と、このホスト装置130
0と通信回線1302を介して接続される端末1304
−1〜1304−nと、を含むゲーム装置に適用するこ
ととしてもよい。この端末1304−1〜1304−n
は、少なくとも、ゲーム画像の表示と、ゲーム音の出力
と、ゲーム操作の入力とが可能な装置であり、プレーヤ
は、端末1304−1〜1304−nの何れかでテニス
ゲームを楽しむ。
Further, as shown in FIG. 16, the present game apparatus 1 is a host apparatus 1300 and a host apparatus 130.
0 and a terminal 1304 connected via a communication line 1302
It is good also as applying to the game device containing -1 to 1304-n. This terminal 1304-1 to 1304-n
Is a device capable of at least displaying a game image, outputting a game sound, and inputting a game operation. A player enjoys a tennis game on any of the terminals 1304-1 to 1304-n.

【0095】この場合、図4に示すゲームプログラム4
20や図示しないゲームデータ等の情報は、例えばホス
ト装置1300が制御可能な磁気ディスク装置、磁気テ
ープ装置、メモリ等の情報記憶媒体1306に格納され
ている。端末1304−1〜1304−nが、CPU、
画像生成IC、音生成ICを有し、スタンドアロンでゲ
ーム画像やゲーム音を生成できる場合には、ホスト装置
1300から、情報記憶媒体1306に格納されるプロ
グラムやデータ等が、通信回線1302を介して端末1
304−1〜1304−nに配信され、各端末1304
−1〜1304−nにおいて、ゲーム画像やゲーム音を
生成する。一方、スタンドアロンでゲーム画像やゲーム
音を生成できない場合には、ホスト装置1300がゲー
ム画像やゲーム音を生成し、これを端末1304−1〜
1304−nに配信する。そして、端末1304−1〜
1304−nにおいて、生成した、或いは配信されたゲ
ーム画像やゲーム音をそれぞれ出力する。
In this case, the game program 4 shown in FIG.
Information such as 20 and game data (not shown) is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300. The terminals 1304-1 to 1304-n are CPUs,
In the case where a game image or a game sound can be generated standalone by having an image generation IC and a sound generation IC, a program or data stored in the information storage medium 1306 from the host device 1300 is transmitted via the communication line 1302. Terminal 1
304-1 to 1304-n, and each terminal 1304
In -1 to 1304-n, a game image and a game sound are generated. On the other hand, when the game image or the game sound cannot be generated standalone, the host device 1300 generates the game image or the game sound, and the terminal device 1304-1.
1304-n. Then, the terminals 1304-1 to 1304-1
At 1304-n, the generated or distributed game image or game sound is output.

【0096】以上、本発明を適用したゲーム装置の一例
について説明したが、本発明は、上記実施形態に限定さ
れるものではなく、本発明の趣旨を逸脱しない範囲にお
いて適宜変更可能である。
Although an example of the game device to which the present invention is applied has been described above, the present invention is not limited to the above-described embodiment, and can be appropriately modified without departing from the spirit of the present invention.

【0097】例えば、予め、被写体となるオブジェクト
に所与のパラメータを設定し、表示画像から抽出画像を
抽出する処理を行うか否かを判定する際に、当該パラメ
ータを判定することにより抽出するか否かを決定するこ
ととしてもよい。例えば、被写体として人オブジェクト
を指定するとともに、この人オブジェクトに喜怒哀楽の
パラメータを設定すれば、このパラメータを判定するこ
とにより、表示画像に表示される被写体の表情が、例え
ば、笑顔の場合において抽出処理を行うことも可能であ
る。
For example, when a given parameter is set in advance for an object to be a subject and it is determined whether or not the process of extracting the extracted image from the display image is to be performed, whether the parameter is extracted by determining the parameter is determined. It may be determined whether or not. For example, if a human object is specified as a subject and a parameter of emotions and emotions is set for this human object, by determining this parameter, the facial expression of the subject displayed in the display image is, for example, a case of a smiling face. It is also possible to perform extraction processing.

【0098】また、本実施形態においては、図2或いは
図3に示すように、抽出画像の表示領域として12のリ
プレイ表示領域RP1、PR2、・・・RP12を設定
し、このリプレイ表示領域RP1、PR2、・・・RP
12に所定の時間差に従って抽出画像を表示することに
よりリプレイ画面を演出することとしたが、図17に示
すリプレイ画面のように、リプレイ表示領域RP20を
時間t毎に順次抽出画像により更新することによりリプ
レイ画面を演出することとしてもよい。即ち、表示制御
部224は、先ず、抽出画像を表示するリプレイ表示領
域RP20を設定し、リプレイの表示タイミングにおい
て、表示する抽出画像及びその順番を決定する。そし
て、1番目の抽出画像をリプレイ表示領域RP20に表
示し、時間t経過時において、当該リプレイ表示領域R
P20に2番目の抽出画像を表示する、というように抽
出画像の表示を制御する。
Further, in this embodiment, as shown in FIG. 2 or 3, twelve replay display areas RP1, PR2, ... RP12 are set as display areas for the extracted image, and the replay display areas RP1, PR2, ... RP
Although the replay screen is rendered by displaying the extracted images according to a predetermined time difference on the display screen 12, the replay display area RP20 is sequentially updated with the extracted images at every time t as in the replay screen shown in FIG. It may be possible to produce a replay screen. That is, the display control unit 224 first sets the replay display area RP20 for displaying the extracted images, and determines the extracted images to be displayed and the order thereof at the replay display timing. Then, the first extracted image is displayed in the replay display area RP20, and when the time t has elapsed, the replay display area R is displayed.
The display of the extracted image is controlled such that the second extracted image is displayed on P20.

【0099】また、図18に示すようにリプレイ画面を
演出することとしてもよい。この場合、表示制御部22
4は、リプレイ画面において表示する複数の抽出画像が
スライドするように各リプレイ表示領域RP30を設定
し、リプレイの表示タイミングにおいて、抽出画像を所
定の時間差に基づいて順次表示するように抽出画像の表
示を制御することとしてもよい。
Also, a replay screen may be rendered as shown in FIG. In this case, the display control unit 22
4 sets each replay display area RP30 so that a plurality of extracted images displayed on the replay screen slide, and displays the extracted images so that the extracted images are sequentially displayed based on a predetermined time difference at the replay display timing. May be controlled.

【0100】さらに、図19に示すように、リプレイ画
面に設定される各リプレイ表示領域RP40〜45のサ
イズを全て異なるようにしてもよい。即ち、表示制御部
224の設定する抽出画像を表示する領域のサイズは任
意であり、抽出して保存する抽出画像のサイズを各リプ
レイ表示領域のサイズに応じてそれぞれ決定することに
より、リプレイ時に表示される複数の抽出画像のサイズ
がそれぞれ異なるようなリプレイ画面の演出が可能であ
る。
Further, as shown in FIG. 19, the sizes of the replay display areas RP40 to RP45 set on the replay screen may be all different. That is, the size of the area for displaying the extracted image set by the display control unit 224 is arbitrary, and the size of the extracted image to be extracted and saved is determined in accordance with the size of each replay display area so that the replay display area is displayed. It is possible to produce a replay screen in which the sizes of a plurality of extracted images to be generated are different from each other.

【0101】また、本実施形態においては、表示画像か
ら抽出した画像を抽出画像記憶部540に保存すること
としたが、抽出画像に対して、例えば、ぼかし、ノイ
ズ、明度等の度合いやα値の変更処理、回転やゆがみ等
の変形処理など、各種フィルターによる加工を施した
後、当該画像を抽出画像記憶部540に格納することと
してもよい。さらに、この際、フィルターに設定される
フィルターパラメータを各抽出画像によって変化させて
格納することとしてもよい。これによれば、例えば、抽
出画像をフェイドイン或いはフェイドアウトさせるかの
ようなリプレイ画面を演出することができる。また、抽
出画像の表示順序等を、このフィルターパラメータに従
って決定してもよい。
Further, in the present embodiment, the image extracted from the display image is stored in the extracted image storage section 540. However, for the extracted image, for example, the degree of blurring, noise, lightness, etc., or the α value. The image may be stored in the extracted image storage unit 540 after being processed by various filters such as the changing process of the above, the deformation process such as the rotation and the distortion, and the like. Furthermore, at this time, the filter parameter set in the filter may be changed and stored for each extracted image. According to this, for example, a replay screen as if the extracted image is faded in or faded out can be produced. Further, the display order of the extracted images and the like may be determined according to this filter parameter.

【0102】尚、上記実施形態においては、本発明をテ
ニスゲームに適用した場合を例に説明したが、本発明
は、例えば、野球ゲーム、ゴルフゲーム等の種々のスポ
ーツゲーム、格闘ゲーム、或いはシュミレーションゲー
ムなど、その他の種々のゲームにも適用可能である。
In the above embodiment, the case where the present invention is applied to the tennis game has been described as an example, but the present invention is applicable to various sports games such as baseball games and golf games, fighting games, or simulations. It is also applicable to various other games such as games.

【0103】[0103]

【発明の効果】本発明によれば、表示画像から抽出する
抽出画像のサイズを、リプレイ画面において当該抽出画
像を表示する表示領域の縦横比に従って決定するととも
に、抽出した抽出画像を表示領域のサイズに合わせるよ
うに拡縮して保存する。これによれば、抽出画像を表示
する際に、保存された抽出画像を読み出すだけでよく、
特別な処理を必要としない。例えば、リプレイの対象と
なるキャラクタ等を被写体に指定することにより、保存
される抽出画像の表示処理、或いはこの表示を制御する
処理を行うだけで、当該キャラクタの動作を再現するこ
とができる。
According to the present invention, the size of the extracted image extracted from the display image is determined according to the aspect ratio of the display area in which the extracted image is displayed on the replay screen, and the extracted image extracted is displayed in the size of the display area. Save it by scaling it to fit. According to this, when displaying the extracted image, it is only necessary to read out the saved extracted image,
No special treatment required. For example, by designating a character or the like to be replayed as a subject, it is possible to reproduce the motion of the character only by displaying the stored extracted image or controlling the display.

【0104】また、この際、ゲーム画像として表示画面
に一度表示された画像の被写体領域の画像を複数保存す
ることにより、この複数の画像を用いて、例えば、リプ
レイ、逆回しの表示等、様々な演出が可能となる。さら
に、表示する際に、画像データを順次予め設定される時
間差に基づいてコマ送りで表示する、或いは表示画面を
分割して複数の画像データを1画面に表示する等の演出
が可能となる。
At this time, by storing a plurality of images of the subject area of the image once displayed on the display screen as the game image, various images such as replay and reverse display can be used by using the plurality of images. Can be produced. Further, when displaying, it is possible to perform an effect such that the image data is sequentially displayed frame by frame based on a preset time difference, or the display screen is divided to display a plurality of image data on one screen.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施形態におけるプレー画面の一例を示す図
である。
FIG. 1 is a diagram showing an example of a play screen in the present embodiment.

【図2】本実施形態におけるリプレイ画面の一例を示す
図である。
FIG. 2 is a diagram showing an example of a replay screen according to the present embodiment.

【図3】本実施形態におけるリプレイ画面の一例を示す
図である。
FIG. 3 is a diagram showing an example of a replay screen according to the present embodiment.

【図4】本実施形態におけるゲーム装置の機能ブロック
の一例を示す図である。
FIG. 4 is a diagram showing an example of functional blocks of a game device according to the present embodiment.

【図5】表示画像を生成する処理を説明するための図で
ある。
FIG. 5 is a diagram illustrating a process of generating a display image.

【図6】本実施形態における処理部の動作の一例を示す
フローチャートである。
FIG. 6 is a flowchart showing an example of an operation of a processing unit in this embodiment.

【図7】(a)は仮想3次元空間の一例を、(b)は被
写体として設定される直方体オブジェクトの一例を示す
図である。
7A is a diagram showing an example of a virtual three-dimensional space, and FIG. 7B is a diagram showing an example of a rectangular parallelepiped object set as a subject.

【図8】(a)はスクリーン座標系に変換された被写体
の一例を、(b)は抽出画像の表示領域の一例を示す図
である。
FIG. 8A is a diagram showing an example of a subject converted into a screen coordinate system, and FIG. 8B is a diagram showing an example of a display area of an extracted image.

【図9】(a)はフレームバッファに格納される表示画
像の一例を、(b)は抽出画像記憶部に格納される抽出
画像の一例を示す図である。
9A is a diagram showing an example of a display image stored in a frame buffer, and FIG. 9B is a diagram showing an example of an extracted image stored in an extracted image storage unit.

【図10】バイリニア・フィルタリングを説明するため
の図である。
FIG. 10 is a diagram for explaining bilinear filtering.

【図11】抽出画像を抽出画像記憶部に格納する処理を
説明するための図である。
FIG. 11 is a diagram illustrating a process of storing an extracted image in an extracted image storage unit.

【図12】本実施形態における画像抽出処理の一例を示
すフローチャートである。
FIG. 12 is a flowchart showing an example of image extraction processing in the present embodiment.

【図13】本実施形態におけるハードウェア構成の一例
を示す図である。
FIG. 13 is a diagram showing an example of a hardware configuration according to the present embodiment.

【図14】本ゲーム装置を業務用ゲーム機に適用した場
合を示す図である。
FIG. 14 is a diagram showing a case where the present game device is applied to an arcade game machine.

【図15】本ゲーム装置を家庭用ゲーム機に適用した場
合を示す図である。
FIG. 15 is a diagram showing a case where the present game device is applied to a home-use game machine.

【図16】本ゲーム装置をホスト装置と通信回線を介し
て接続される端末に適用した場合を示す図である。
FIG. 16 is a diagram showing a case where the present game device is applied to a terminal connected to a host device via a communication line.

【図17】リプレイ画面の演出方法の一例を説明するた
めの図である。
FIG. 17 is a diagram for explaining an example of an effect method for a replay screen.

【図18】リプレイ画面の演出方法の一例を説明するた
めの図である。
FIG. 18 is a diagram for explaining an example of an effect method for a replay screen.

【図19】リプレイ画面の演出方法の一例を説明するた
めの図である。
FIG. 19 is a diagram for explaining an example of a rendering method of a replay screen.

【符号の説明】[Explanation of symbols]

1 ゲーム装置 100 操作部 200 処理部 220 ゲーム演算部 222 画像抽出部 224 表示制御部 240 画像生成部 300 表示部 400 記憶部 420 ゲームプログラム 422 画像抽出プログラム 424 表示制御プログラム 500 一時記憶部 520 フレームバッファ 540 抽出画像記憶部 1 game device 100 operation part 200 Processing unit 220 Game operation unit 222 Image extraction unit 224 Display control unit 240 Image generator 300 display 400 storage 420 game programs 422 image extraction program 424 Display control program 500 temporary storage 520 frame buffer 540 Extracted image storage unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 3/40 G06T 3/40 A Fターム(参考) 2C001 AA03 AA04 AA05 CB00 CB04 CB05 CB06 CC08 5B050 AA10 BA08 BA09 BA10 BA18 CA07 EA05 EA06 EA12 EA27 FA02 GA08 5B057 AA20 CA13 CB13 CC01 CD05 CD20 CH01 CH09 CH11 DA16─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 7 Identification code FI theme code (reference) G06T 3/40 G06T 3/40 AF term (reference) 2C001 AA03 AA04 AA05 CB00 CB04 CB05 CB06 CC08 5B050 AA10 BA08 BA09 BA10 BA18 CA07 EA05 EA06 EA12 EA27 FA02 GA08 5B057 AA20 CA13 CB13 CC01 CD05 CD20 CH01 CH09 CH11 DA16

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】プロセッサによる演算・制御により、該プ
ロセッサを有する装置に対して、所与の視点に基づく仮
想空間の画像を生成する生成手段を機能させるためのゲ
ーム情報であって、 前記生成手段により生成された画像をフレーム画像とし
て記憶する第1の記憶手段と、 前記フレーム画像の中から抽出領域を決定し、当該抽出
領域の画像を抽出する抽出手段と、 前記抽出手段により抽出された抽出画像を記憶する第2
の記憶手段と、 前記第2の記憶手段に記憶された抽出画像を含む、ゲー
ムの再現画像を生成する再現手段と、 を前記装置に機能させるための情報を含むゲーム情報。
1. Game information for causing a device having a processor to function as a generator for generating an image of a virtual space based on a given viewpoint by arithmetic operation / control by the processor, said generating means. A first storage unit that stores the image generated by the above as a frame image; an extraction unit that determines an extraction region from the frame image and extracts the image of the extraction region; and an extraction that is extracted by the extraction unit. Second to store images
And game information including information for causing the device to function: a reproducing unit that generates a reproduced image of the game including the extracted image stored in the second storing unit.
【請求項2】請求項1において、 被写体を設定する設定手段を前記装置に機能させるため
の情報と、 前記仮想空間中の被写体の位置に対応する、前記フレー
ム画像中の被写体の位置を、前記視点に基づく座標変換
により算出する算出手段を前記装置に機能させるための
情報と、 前記抽出手段が、前記算出手段による算出結果に基づい
て抽出領域を決定するための情報と、 を含むゲーム情報。
2. The information according to claim 1, wherein the setting means for setting a subject is caused to function in the apparatus, and the position of the subject in the frame image, which corresponds to the position of the subject in the virtual space, Game information including information for causing the device to function as a calculation unit that calculates by coordinate conversion based on a viewpoint, and information for causing the extraction unit to determine an extraction region based on a calculation result by the calculation unit.
【請求項3】請求項2において、 前記抽出手段が、前記フレーム画像中の前記被写体の大
きさに応じて、抽出領域を決定するための情報を含むゲ
ーム情報。
3. The game information according to claim 2, wherein the extraction means includes information for determining an extraction area according to the size of the subject in the frame image.
【請求項4】請求項2又は3において、 前記第2の記憶手段に記憶する抽出画像のサイズを設定
するサイズ設定手段を前記装置に機能させるための情報
と、 前記抽出手段が、前記サイズ設定手段により設定された
抽出画像のサイズの縦横比に基づいて抽出領域の縦横比
を決定するための情報と、 を含むゲーム情報。
4. The information according to claim 2, wherein the size setting means for setting the size of the extracted image stored in the second storage means causes the apparatus to function, and the extraction means sets the size setting. Game information including information for determining the aspect ratio of the extraction region based on the aspect ratio of the size of the extracted image set by the means.
【請求項5】請求項4において、 前記サイズ設定手段が、前記抽出画像の縦サイズを前記
フレーム画像の縦サイズの整数分の1とする、及び/又
は、前記抽出画像の横サイズを前記フレーム画像の横サ
イズの整数分の1とする、ための情報を含むゲーム情
報。
5. The size setting means according to claim 4, wherein the vertical size of the extracted image is set to be an integer fraction of the vertical size of the frame image, and / or the horizontal size of the extracted image is set to the frame. Game information including information for setting the horizontal size of the image to be an integer fraction.
【請求項6】請求項1〜5の何れかにおいて、 前記抽出手段により抽出された抽出画像を所与の大きさ
に拡縮する拡縮手段を前記装置に機能させるための情報
と、 前記第2の記憶手段が、前記拡縮手段により拡縮された
抽出画像を記憶するように機能させるための情報と、 を含むゲーム情報。
6. The information according to any one of claims 1 to 5, for causing the apparatus to function as a scaling unit that scales the extracted image extracted by the extracting unit to a given size, and the second information. Game information including: information for causing the storage unit to function to store the extracted image scaled by the scaling unit.
【請求項7】請求項1〜6の何れかにおいて、 抽出する時期を設定する抽出時期設定手段を前記装置に
機能させるための情報と、 前記抽出手段が、前記抽出時期設定手段により設定され
た時期に対応するフレーム画像から抽出画像を抽出する
ための情報と、 を含むゲーム情報。
7. The information according to claim 1, wherein the extraction timing setting means for setting the extraction timing makes the apparatus function, and the extraction means is set by the extraction timing setting means. Game information including information for extracting the extracted image from the frame image corresponding to the time.
【請求項8】請求項1〜7の何れかにおいて、 前記第2の記憶手段が、前記抽出手段により抽出された
抽出画像を累積記憶するための情報と、 前記再現手段が、前記第2の記憶手段に記憶された抽出
画像複数を配設する再現画像を生成するための情報と、 を含むゲーム情報。
8. The information according to claim 1, wherein the second storage unit cumulatively stores the extracted images extracted by the extraction unit, and the reproduction unit includes the second information. Game information including: information for generating a reproduced image in which a plurality of extracted images stored in the storage unit are arranged.
【請求項9】請求項8において、 前記再現手段が、前記第2の記憶手段に記憶された複数
の抽出画像の中から再現画像に含める抽出画像を選出す
るための情報を含むゲーム情報。
9. The game information according to claim 8, wherein the reproduction unit includes information for selecting an extracted image to be included in the reproduced image from the plurality of extracted images stored in the second storage unit.
【請求項10】請求項1〜9の何れかにおいて、 前記第2の記憶手段が前記抽出画像を記憶する際に、当
該抽出画像に所与のフィルターを施して記憶するための
情報を含むことを特徴とするゲーム情報。
10. The information storage device according to claim 1, wherein when the second storage unit stores the extracted image, the second storage unit includes information for storing the extracted image by applying a given filter. Game information featuring.
【請求項11】請求項1〜10の何れか記載のゲーム情
報を記憶する情報記憶媒体。
11. An information storage medium for storing the game information according to claim 1.
【請求項12】所与の視点に基づく仮想空間の画像を生
成する生成手段を備えるゲーム装置であって、 前記生成手段により生成された画像をフレーム画像とし
て記憶する第1の記憶手段と、 前記フレーム画像の中から抽出領域を決定し、当該抽出
領域の画像を抽出する抽出手段と、 前記抽出手段により抽出された抽出画像を記憶する第2
の記憶手段と、 前記第2の記憶手段に記憶された抽出画像を含む、ゲー
ムの再現画像を生成する再現手段と、 を備えることを特徴とするゲーム装置。
12. A game device comprising a generation means for generating an image of a virtual space based on a given viewpoint, the first storage means for storing the image generated by the generation means as a frame image, Extraction means for determining an extraction area from the frame image and extracting the image of the extraction area; and second storing the extracted image extracted by the extraction means
And a reproduction unit that generates a reproduction image of the game including the extracted image stored in the second storage unit.
JP2001237090A 2001-08-03 2001-08-03 Program, information storage medium, and game device Expired - Fee Related JP3643796B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001237090A JP3643796B2 (en) 2001-08-03 2001-08-03 Program, information storage medium, and game device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001237090A JP3643796B2 (en) 2001-08-03 2001-08-03 Program, information storage medium, and game device

Publications (2)

Publication Number Publication Date
JP2003051032A true JP2003051032A (en) 2003-02-21
JP3643796B2 JP3643796B2 (en) 2005-04-27

Family

ID=19068229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001237090A Expired - Fee Related JP3643796B2 (en) 2001-08-03 2001-08-03 Program, information storage medium, and game device

Country Status (1)

Country Link
JP (1) JP3643796B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318388A (en) * 2005-05-16 2006-11-24 Namco Bandai Games Inc Program, information storage medium, and image forming system
JP2006318195A (en) * 2005-05-12 2006-11-24 Namco Bandai Games Inc Program, information storage medium, and image forming system
JP2007313001A (en) * 2006-05-25 2007-12-06 Namco Bandai Games Inc Program, information storage medium and game apparatus
WO2008015978A1 (en) * 2006-08-02 2008-02-07 Panasonic Corporation Video image display device and video image display method
JP2009541014A (en) * 2006-06-26 2009-11-26 ソニー オンライン エンタテインメント エルエルシー Creating a game-based scene
CN113476836A (en) * 2021-06-30 2021-10-08 广州方硅信息技术有限公司 Game picture display method and device, electronic equipment and readable storage medium

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318195A (en) * 2005-05-12 2006-11-24 Namco Bandai Games Inc Program, information storage medium, and image forming system
JP4680670B2 (en) * 2005-05-12 2011-05-11 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP2006318388A (en) * 2005-05-16 2006-11-24 Namco Bandai Games Inc Program, information storage medium, and image forming system
JP2007313001A (en) * 2006-05-25 2007-12-06 Namco Bandai Games Inc Program, information storage medium and game apparatus
JP2009541014A (en) * 2006-06-26 2009-11-26 ソニー オンライン エンタテインメント エルエルシー Creating a game-based scene
US9079104B2 (en) 2006-06-26 2015-07-14 Sony Computer Entertainment America Llc Creation of game-based scenes
US9242178B2 (en) 2006-06-26 2016-01-26 Sony Computer Entertainment America Llc Creation of game-based scenes
US9764236B2 (en) 2006-06-26 2017-09-19 Sony Interactive Entertainment America Llc Creation of game-based scenes
US11135511B2 (en) 2006-06-26 2021-10-05 Sony Interactive Entertainment LLC Creation of game-based scenes
WO2008015978A1 (en) * 2006-08-02 2008-02-07 Panasonic Corporation Video image display device and video image display method
CN113476836A (en) * 2021-06-30 2021-10-08 广州方硅信息技术有限公司 Game picture display method and device, electronic equipment and readable storage medium
CN113476836B (en) * 2021-06-30 2024-03-22 广州方硅信息技术有限公司 Game picture display method, game picture display device, electronic equipment and readable storage medium

Also Published As

Publication number Publication date
JP3643796B2 (en) 2005-04-27

Similar Documents

Publication Publication Date Title
JP3668019B2 (en) Recording medium, image processing apparatus, and image processing method
KR100229375B1 (en) Game device and method of replaying game
US6561906B2 (en) Game apparatus, method of reproducing movie images and recording medium recording program thereof
JP3372832B2 (en) GAME DEVICE, GAME IMAGE PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING GAME IMAGE PROCESSING PROGRAM
US6561907B2 (en) Simultaneous or reciprocal image synthesis for a video game at different viewpoints
US7104891B2 (en) Game machine and game program for displaying a first object casting a shadow formed by light from a light source on a second object on a virtual game space
EP1642625A2 (en) Video game device and image processing program
JP4610747B2 (en) Image generation system, program, and information storage medium
EP1808207B1 (en) Storage medium having game program stored thereon and game apparatus
JP3145064B2 (en) Video game machine and medium recording video game program
JP3625184B2 (en) 3D image processing method and apparatus for game, readable recording medium recording game 3D image processing program, and video game apparatus
JP3338021B2 (en) Three-dimensional image processing device and readable recording medium storing three-dimensional image processing program
US6878058B1 (en) Image processor and game device with image processor
JP3990258B2 (en) Image generation system, program, and information storage medium
JP3643796B2 (en) Program, information storage medium, and game device
JP4447000B2 (en) Image generation system, program, and information storage medium
US6982717B2 (en) Game apparatus, storage medium and computer program
JP2002279447A (en) Image generating system, program, and information storage medium
JP2002163671A (en) Game system, program and information storage medium
JP4544555B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2000093654A (en) Game device, method of playing the game and data memory medium
US7173618B2 (en) Image creation program and method of creating image
JP3614340B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4054708B2 (en) GAME DEVICE AND GAME PROGRAM
JP2001204962A (en) Recording medium having image displaying program recorded thereon, method of displaying image, and game apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050131

R150 Certificate of patent or registration of utility model

Ref document number: 3643796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080204

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080204

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090204

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090204

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100204

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100204

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100204

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110204

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110204

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120204

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120204

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130204

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130204

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130204

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees