JP3643796B2 - Program, information storage medium, and game device - Google Patents

Program, information storage medium, and game device Download PDF

Info

Publication number
JP3643796B2
JP3643796B2 JP2001237090A JP2001237090A JP3643796B2 JP 3643796 B2 JP3643796 B2 JP 3643796B2 JP 2001237090 A JP2001237090 A JP 2001237090A JP 2001237090 A JP2001237090 A JP 2001237090A JP 3643796 B2 JP3643796 B2 JP 3643796B2
Authority
JP
Japan
Prior art keywords
image
extraction
extracted
subject
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001237090A
Other languages
Japanese (ja)
Other versions
JP2003051032A (en
Inventor
一志 植田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2001237090A priority Critical patent/JP3643796B2/en
Publication of JP2003051032A publication Critical patent/JP2003051032A/en
Application granted granted Critical
Publication of JP3643796B2 publication Critical patent/JP3643796B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、プログラム、該プログラムを記憶した情報記憶媒体、及びゲーム装置に関する。
【0002】
【従来の技術】
現在、様々な種類のゲームが提供されているが、特に、スポーツゲームや格闘ゲーム、或いはレースゲーム等において、ゲーム画面を再現するリプレイの機能を備えたものが知られている。このリプレイの機能は、ゲーム進行時のゲームデータを保存し、ゴールシーン等の得点シーンやKOシーン等のハイライトシーンを、当該シーンに係るゲームデータを参照することにより再現するものである。さらに、リプレイの機能として、ゲーム進行時における視点とは異なる視点からの画像を生成する機能を備えたゲーム装置も知られている。
【0003】
【発明が解決しようとする課題】
ところで、リプレイの機能は、次のプレイに活かすための参考用の他、プレイを振り返るという点においては、ドラマティックな演出が好まれる。また、コンピュータやゲーム装置のハードウェアの進歩により高度な処理が実現可能となっているため、演出効果を一層高めることは、よりリアリスティックな画像を提供することであるとする傾向にあった。本発明は、他の手法、即ち、高度な処理を必要とせずに、演出効果の高いリプレイの機能を提供することを目的とする。
【0004】
【課題を解決するための手段】
以上の課題を解決するため、第1の発明は、プロセッサによる演算・制御により、該プロセッサを有する装置に対して、所与の視点に基づく仮想空間の画像を生成する生成手段(例えば、図4に示す画像生成部240)を機能させるためのゲーム情報であって、前記生成手段により生成された画像をフレーム画像(例えば、発明の実施の形態における表示画像)として記憶する第1の記憶手段(例えば、図4に示すフレームバッファ520)と、前記フレーム画像の中から抽出領域を決定し、当該抽出領域の画像を抽出する抽出手段(例えば、図4に示す画像抽出部222)と、前記抽出手段により抽出された抽出画像を記憶する第2の記憶手段(例えば、図4に示す抽出画像記憶部540)と、前記第2の記憶手段に記憶された抽出画像を含む、ゲームの再現画像を生成する再現手段(例えば、図4に示す表示制御部224)と、を前記装置に機能させるための情報を含むことを特徴とする。
【0005】
また、他の発明は、所与の視点に基づく仮想空間の画像を生成する生成手段(例えば、図4に示す画像生成部240)を備えるゲーム装置であって、前記生成手段により生成された画像をフレーム画像として記憶する第1の記憶手段(例えば、図4に示すフレームバッファ520)と、前記フレーム画像の中から抽出領域を決定し、当該抽出領域の画像を抽出する抽出手段(例えば、図4に示す画像抽出部222)と、前記抽出手段により抽出された抽出画像を記憶する第2の記憶手段(例えば、図4に示す抽出画像記憶部540)と、前記第2の記憶手段に記憶された抽出画像を含む、ゲームの再現画像を生成する再現手段(例えば、図4に示す表示制御部224)と、を備えることを特徴とする。
【0006】
この発明によれば、第1の記憶手段に記憶されるフレーム画像の任意の領域の画像を抽出し、抽出した抽出画像を第2の記憶手段に保存しておくことにより、フレーム画像における抽出領域の画像を再現する。即ち、第1の記憶手段に記憶されるフレーム画像から、必要な領域の画像を第2の記憶手段に退避させることにより、当該フレーム画像における抽出領域の画像を再現することができる。例えば、ゲームにおける任意の場面のリプレイを、フレーム画像から抽出した画像を用いて実現することができる。
【0007】
また、第2の発明のゲーム情報第1の発明において、被写体(例えば、発明の実施の形態における自キャラクタ)を設定する設定手段(例えば、図4に示すゲーム演算部220)を前記装置に機能させるための情報と、前記仮想空間中の被写体の位置に対応する、前記フレーム画像中の被写体の位置を、前記視点に基づく座標変換により算出する算出手段(例えば、図4に示す画像抽出部222)を前記装置に機能させるための情報と、前記抽出手段が、前記算出手段による算出結果に基づいて抽出領域を決定するための情報と、を含むことを特徴とする。
【0008】
この第2の発明によれば、記憶する被写体として、例えば、仮想空間に配置されるオブジェクトを指定し、この被写体の画像を第2の記憶手段に保存することができる。また、被写体の画像を抽出する際、フレーム画像中の被写体の位置を、仮想空間に設置される視点の位置に基づく座標変換により決定する。これによれば、仮想空間に存在する他のオブジェクトが障害となる等の理由で、実際にはフレーム画像に被写体が描画されない場合においても、フレーム画像における前記視点に基づく被写体の位置となる領域を抽出することができる。
【0009】
さらに、この場合、第3の発明のゲーム情報として第2の発明において、前記抽出手段が、前記フレーム画像中の前記被写体の大きさに応じて、抽出領域を決定するための情報を含むこととしてもよい。
【0010】
この第3の発明によれば、フレーム画像中の被写体の大きさに関わらず、抽出画像中の被写体の割合を一定にすることができる。これによれば、フレーム画像から、被写体が丁度収まるような領域を抽出することができる。
【0011】
第4の発明のゲーム情報は、第2又は第3の発明において、前記第2の記憶手段に記憶する抽出画像のサイズを設定するサイズ設定手段(例えば、図4に示す画像抽出部222)を前記装置に機能させるための情報と、前記抽出手段が、前記サイズ設定手段により設定された抽出画像のサイズの縦横比に基づいて抽出領域の縦横比を決定するための情報と、を含むことを特徴とする。
【0012】
この第4の発明によれば、第2の記憶手段に記憶される抽出画像のサイズを予め設定し、この抽出画像のサイズの縦横比に基づいて抽出領域の縦横比を設定するので、抽出画像のサイズと、フレーム画像における抽出領域の縦横比を一定にすることができる。
【0013】
さらに、この場合、第5の発明のゲーム情報として第4の発明において、前記サイズ設定手段が、前記抽出画像の縦サイズを前記フレーム画像の縦サイズの整数分の1とする、及び/又は、前記抽出画像の横サイズを前記フレーム画像の横サイズの整数分の1とする、ための情報を含むこととしてもよい。
【0014】
この第5の発明によれば、抽出画像のサイズ決定する際に、この抽出画像のサイズをフレーム画像のサイズ、即ち、表示画面のサイズに応じて決定することができる。即ち、抽出画像のサイズを表示する画面のアスペクト比に基づいて決定することが可能となる。
【0015】
第6の発明のゲーム情報は、第1〜第5の何れかの発明において、前記抽出手段により抽出された抽出画像を所与の大きさに拡縮する拡縮手段(例えば、図4に示す画像抽出部222)を前記装置に機能させるための情報と、前記第2の記憶手段が、前記拡縮手段により拡縮された抽出画像を記憶するように機能させるための情報と、を含むことを特徴とする。
【0016】
この第6の発明によれば、抽出した抽出画像のサイズを、サイズ設定手段により設定される所与のサイズに従って拡大、或いは縮小して変更する。従って、この抽出画像のサイズを再現する際に必要とするサイズに応じて設定することにより、抽出画像を使用して再現画像を生成する際、特別な処理を必要としない。
【0017】
また、第7の発明のゲーム情報は、第1〜第6の何れかの発明において、抽出する時期を設定する抽出時期設定手段(例えば、図4に示すゲーム演算部220)を前記装置に機能させるための情報と、前記抽出手段が、前記抽出時期設定手段により設定された時期に対応するフレーム画像から抽出画像を抽出するための情報と、を含むことを特徴とする。
【0018】
この第7の発明によれば、フレーム画像から画像を抽出する際の条件を設定することが可能となり、当該条件を満たす被写体のみを抽出することができる。抽出条件としては、例えば、画像を抽出するタイミングや、予め設定されるパラメータ等を判定する。このパラメータには、被写体に設定される、当該被写体の特性、状態等の情報が含まれる。具体的には、例えば、人オブジェクトを被写体として指定するとともに、当該人オブジェクトに喜怒哀楽のパラメータを設定して、このパラメータを抽出の条件として設定することができる。これによれば、表示画像に表示される被写体の表情に応じて抽出処理を行うことができる。
【0019】
さらに、第8の発明のゲーム情報は、第1〜第7の何れかの発明において、前記第2の記憶手段が、前記抽出手段により抽出された抽出画像を累積記憶するための情報と、前記再現手段が、前記第2の記憶手段に記憶された抽出画像複数を配設する再現画像を生成するための情報と、を含むことを特徴とする。
【0020】
この第8の発明によれば、被写体の画像を蓄積していくので、例えば、仮想空間内を移動するキャラクタ等を被写体として指定すれば、この被写体の動作を記録することができる。これにより、必要に応じて、この被写体の動作を再現することが可能となる。また、この際、第2の記憶手段に記憶される抽出画像を読み出すだけでよいので、特別な処理を必要とせずに被写体の動作を再現することができる。これによれば、第2の記憶手段に記憶された複数の抽出画像を配列する際の配列順序等を制御することにより、生成した再現画像において、被写体の動作のリプレイ、逆回し等を実現する事ができる。さらに、再現画像を生成する際には、記憶される複数の抽出画像を予め設定される時間差に基づいて順次コマ送りで表示したり、表示画面を分割して複数の抽出画像を1画面に表示する等、再現画像を演出することができる。
【0021】
また、この場合、第9の発明のゲーム情報として第8の発明において、前記再現手段が、前記第2の記憶手段に記憶された複数の抽出画像の中から再現画像に含める抽出画像を選出するための情報を含むこととしてもよい。
【0022】
この第9の発明によれば、第2の記憶手段に記憶される複数の抽出画像の中から、再現画像を生成するために適当な画像を選択することができる。
【0023】
また、第10の発明のゲーム情報は、第1〜第9の何れかの発明において、前記第2の記憶手段が前記抽出画像を記憶する際に、当該抽出画像に所与のフィルターを施して記憶するための情報を含むことを特徴とする。
【0024】
ここで、フィルターとは、第2の記憶手段に記憶される抽出画像に対して何等かの加工を施すものであり、具体的には、例えば、抽出画像に対するぼかし、ノイズの付加、明度の変更、α値の設定等の処理や、回転やゆがみ等による抽出画像の変形処理等を含む。
【0025】
この第10の発明によれば、所与のフィルターを通した抽出画像が第2の記憶手段に記憶される。さらに、第2の記憶手段に対して抽出画像を累積記憶する場合においては、それぞれのフィルターに設定されるフィルターパラメータを抽出画像によって変化させて格納することができる。従って、当該パラメータに基づいて抽出画像を配設することにより、例えば、フェイドイン或いはフェイドアウト等により再現画像を演出することができる。尚、フィルターパラメータとは、例えば、α値や、各画素のRGB値に乗算する係数といったフィルターを施す際に設定される値や、当該フィルターのオプション指定のための値のことである。
【0026】
さらに、第11の発明の情報記憶媒体として第1〜第10の何れかの発明のゲーム情報を記憶する情報記憶媒体を構成することとしてもよい。
【0027】
この第11の発明によれば、第1〜第10の何れかの発明と同様の効果を奏する情報記憶媒体を実現することができる。
【0028】
【発明の実施の形態】
以下、図を参照して本発明を適用したゲーム装置について図面を参照して詳細に説明する。尚、以下においては、本発明をテニスゲームに適用する場合を例にとって説明するが、本発明が適用されるものはこれに限られるものではない。また、テニスゲームは、プレーヤが制御するキャラクタ(以下、自キャラクタという。)の対戦相手となる相手キャラクタを、コンピュータ制御により動作させることにより対戦を実現させることとする。
【0029】
図1に、テニスゲームのプレー画面の一例を示す。図1において、プレーヤは、コート手前側でプレーする自キャラクタ2を制御し、コート奥側でプレーする相手キャラクタ4と対戦してテニスゲームを楽しむ。
【0030】
図2に、得点後に、当該得点場面を再現するために表示されるリプレイ画面の一例を示す。図2において、リプレイ画面は、リアルタイム表示領域P1と、リプレイ表示領域RP1、RP2、・・・、RP12と、から構成される。ここで、リアルタイム表示領域P1には、例えば、プレー画面や解説画面等の任意の動画像が表示される。また、リプレイ表示領域RP1、RP2、・・・、RP12には、得点場面の自キャラクタ2の動作が左上から時計回りに12の静止画像によって表示されている。また、このリプレイ表示領域RP1、RP2、・・・、RP12に表示される自キャラクタ2の画像は、表示される際、左上のリプレイ表示領域RP1から順に所定の時間間隔をもってコマ送りで表示される。
【0031】
本発明は、例えば、仮想3次元空間内に配置されるオブジェクトや、仮想3次元空間の任意の領域等を被写体とし、フレームバッファに1インター毎に格納される画像データから指定された被写体の画像を抽出して別途記録するとともに、任意の表示タイミングにおいて、記録した被写体の画像を表示するものである。本実施形態においては、被写体を自キャラクタ2とし、リプレイ時に被写体を表示する表示領域を図2に示すリプレイ表示領域RP1、RP2、・・・、RP12として、得点後の表示画面において、記録された自キャラクタ2の画像を各リプレイ表示領域RP1、RP2、・・・、RP12にそれぞれ表示することにより、自キャラクタ2の得点場面を再現する。
【0032】
図3に、自キャラクタ2がコート奥側でプレーする際のリプレイ画面の一例を示す。図3に示すように、リアルタイム表示領域P1に表示されるプレー画面において、コート奥側で自キャラクタ2がプレーしている画像が表示されている。そして、リプレイ表示領域RP1、RP2、・・・、RP12には、得点場面における自キャラクタ2の画像がそれぞれ表示されている。
【0033】
図2、及び図3に示すように、自キャラクタ2がプレーする場所、即ち、プレー画面における自キャラクタ2の位置や大きさに関わらず、得点場面における自キャラクタ2の画像が、各リプレイ表示領域RP1、RP2、・・・、RP12に収まるように表示されている。さらに、自キャラクタ2のプレー位置が移動していても、各リプレイ表示領域RP1、RP2、・・・、RP12の中央に自キャラクタ2の画像が表示されている。
【0034】
図4は、本実施形態におけるゲーム装置1の機能ブロックの一例を示す図である。同図において、機能ブロックは、操作部100と、処理部200と、表示部300と、記憶部400と、一時記憶部500と、から構成される。
【0035】
操作部100は、プレーヤが操作データを入力するためのものであり、プレーヤによる操作に応じた操作信号を処理部200に出力する。この操作部100の機能は、レバー、ボタン、筐体等のハードウェアにより実現できる。
【0036】
処理部200は、ゲーム装置1全体の制御、ゲーム装置1内の各機能部への指示、ゲームの進行処理、画像処理、音処理等の各種処理を行うものであり、特に、仮想3次元空間の設定処理、該仮想3次元空間における仮想カメラの位置や視線方向の設定処理、この仮想カメラから見た仮想3次元空間の画像(以下、表示画像という。)を生成する処理等を、記憶部400に格納されるゲームプログラム420に従って実行する。この処理部200の機能は、各種プロセッサ(CPU、DSP等)、或いはASIC(ゲートアレイ等)等のハードウェアや、所与のプログラムにより実現可能である。
【0037】
また、処理部200は、主な機能部として、ゲーム演算部220と、画像生成部240とを含む。ここで、ゲーム画像の生成に係る、処理部200の動作について図5を参照して説明する。
【0038】
図5は、表示画像の生成処理を説明するための図である。図5に示すように、仮想3次元空間に、オブジェクト600及び視点(仮想カメラ)610が設定されている。また、このオブジェクト600は、オブジェクトデータとして形状や色、質感等が定義されている。ゲーム演算部220は、このオブジェクト600に係るオブジェクトデータに従い、オブジェクト600を構成する各ポリゴンの位置情報や方向情報に基づいて、ワールド座標系(Xw、Yw、Zw)におけるオブジェクト600の座標値を設定する。続いて、このワールド座標系(Xw、Yw、Zw)に、視点610の位置や視線の方向を設定し、クリッピング処理によりビューボリューム620を決定する。そして、このビューボリューム620に含まれる各ポリゴンを、視点610を基準とした視点座標系(Xv、Yv、Zv)の座標値に変換し、次いで、決定した視点座標系(Xv、Yv、Zv)の座標値に基づいて2次元のスクリーン座標系(Xs、Ys)の座標値に変換する処理を行う。
【0039】
画像生成部240は、このゲーム演算部220における処理結果に基づいて、表示画像を生成する。具体的には、スクリーン630に投影されるオブジェクト600に対して、当該オブジェクト600に定義される色や質感等に係る情報に基づいて、色補間処理、陰面消去処理等のレンダリング処理を行う。これにより、視点610の延長上に置かれるスクリーン630にオブジェクト600が投影され、表示画像がスクリーン630に描画される。そして、フレームバッファ520にこの表示画像データを書き込み、1インター時間(例えば、1/60秒)に係る1フレーム分の表示画像データを生成する。
【0040】
また、本発明を実現するため、ゲーム演算部220は、特に、画像抽出部222と、表示制御部224とを含む。
【0041】
画像抽出部222は、画像抽出プログラム422に従って処理を実行し、フレームバッファ520に格納されている画像データから、予め指定された被写体の画像を抽出し、当該被写体画像を抽出画像記憶部540に格納する処理を行う。また、この際、被写体画像を表示する表示領域のサイズに応じて被写体の画像を抽出及び拡縮する。
【0042】
表示制御部224は、表示制御プログラム424に従って処理を実行し、後述する画像抽出部222による抽出処理が行われる前に、被写体画像の表示領域のサイズ(例えば、図2或いは図3に示すリプレイ表示領域RP1、RP2、・・・RP12)を設定する。この際、この被写体画像の表示領域のサイズは、表示画面の縦横比に基づいて設定されるようになっている。この表示領域のサイズは任意であるが、上述したように、画像抽出部222は、この表示領域のサイズに従って被写体の画像を抽出するとともに、抽出画像記憶部540に格納する。
【0043】
また、表示制御部224は、抽出画像記憶部540に記憶された画像を表示画面に表示する際に、当該画像の表示を制御する処理を行う。
【0044】
次に、本発明を実現するための処理部200の動作について、図6を参照して説明する。図6は、本実施形態における処理の流れの一例を示すフローチャートである。同図に示すように、先ず、ゲーム演算部220が、仮想3次元空間を構成するオブジェクトを配置することにより、当該仮想3次元空間を設定する(ステップS10)。さらに、ゲーム演算部220は、ステップS10においてワールド座標系(Xw、Yw、Zw)で設定される仮想3次元空間に、仮想カメラを配置し、この仮想カメラによる視点、及び視点からの視線の方向等を制御する。
【0045】
次に、ゲーム演算部220は、クリッピング処理を行ってビューボリュームを決定し、当該ビューボリューム内に位置するポリゴンを、仮想カメラの視点を中心とする視点座標系(Xv、Yv、Zv)における座標値に変換するとともに決定した視点座標系(Xv、Yv、Zv)の座標値に基づいて2次元のスクリーン座標系(Xs、Ys)における座標値に変換する処理を行う(ステップS20)。
【0046】
続いて、ゲーム演算部220によるステップS10及びステップS20における処理結果に基づいて、画像生成部240が、当該スクリーン座標系(Xs、Ys)におけるオブジェクトの座標値等のデータや、各オブジェクトに係るオブジェクトデータに基づいて種々のレンダリング処理を実行することにより、スクリーンに投影されるオブジェクトに対する描画処理を行い、表示画像を生成する(ステップS30)。また、この際、生成した表示画像の画素情報をフレームバッファ520へ書き込む。また、この画素情報は、処理部200により、当該画素情報に対応する表示画像の表示タイミングに合わせて画像信号に変換されて、表示部300に出力される。
【0047】
次に、画像抽出部222が、画像抽出処理を実行する(ステップS40)。画像抽出部222は、予め指定された被写体の画像を表示画像から抽出する処理を行う。ここで、この画像抽出部222の機能について、図7〜図9を参照して説明する。
【0048】
図7(a)に、仮想3次元空間の斜視図の一例を示す。図7(a)に示すように、仮想3次元空間には、直方体オブジェクト72と、机オブジェクト74とが配置され、直方体オブジェクト72は、机オブジェクト74の上に配置されている。さらに、この直方体オブジェクト72と机オブジェクト74とを撮影するように仮想カメラ76が設置されている。また、図7(b)に、仮想3次元空間に配置される直方体オブジェクト72を示している。ここで、以下、この直方体オブジェクト72を被写体に指定し、表示画像から直方体オブジェクト72の画像を抽出する場合を例に、画像抽出部222における処理について説明する。
【0049】
画像抽出部222は、図7(a)に示す仮想3次元空間に配置される被写体である直方体オブジェクト72のみを対象に、スクリーン座標系(Xs、Ys)に座標変換する処理を行う。そして、スクリーン座標系(Xs、Ys)に変換された直方体オブジェクト72の各頂点の座標値を参照して、当該スクリーンにおける直方体オブジェクト72の位置、即ち、表示画像における直方体オブジェクト72の位置を取得する。
【0050】
図8は、直方体オブジェクト72の画像を抽出する際の、抽出領域の決定処理を説明するための図である。図8(a)は、直方体オブジェクト72をスクリーン座標系(Xs、Ys)の座標値に変換した際の、スクリーン80における直方体オブジェクト72を示す図である。画像抽出部222は、先ず、スクリーン座標系(Xs、Ys)に変換された直方体オブジェクト72の頂点の座標値に基づいて、スクリーン80における直方体オブジェクト72の領域(以下、被写体領域という。)82を決定する。具体的には、スクリーン座標系(Xs、Ys)における直方体オブジェクト72の各頂点の座標値のうち、上端、下端、左端、右端となる座標値、例えば、頂点86及び88の座標値を取得する。そして、この座標値に基づいて、直方体オブジェクト72が含まれるように被写体領域82を決定する。
【0051】
以上説明したように被写体領域82を決定することによれば、例えば、仮想カメラ76にとって被写体となる直方体オブジェクト72の手前に他のオブジェクトが存在するなどの理由で表示画像に被写体の画像が描画されない、或いは一部しか描画されない場合においても、直方体オブジェクト72が投影される位置の領域を被写体領域82として指定することができる。また、被写体領域82は、直方体オブジェクト72の大きさに基づいて決定されるため、この直方体オブジェクト72が、丁度収まるような領域を抽出領域とすることができる。
【0052】
次に、画像抽出部222は、実際に表示画像から抽出する領域(以下、抽出領域という。)84を、被写体を表示するリプレイ表示領域RPのサイズに基づいて決定する。図8(b)に、被写体を表示するリプレイ表示領域RPの一例を示す。上述したように、抽出する被写体の画像を表示するリプレイ表示領域RPは、表示制御部224において、抽出処理が行われる前に設定される。
【0053】
ここでは、例として、図8(b)に示すように、リプレイ表示領域RPがa×2a、即ち、縦横の長さの比が1:2の比で表される場合を例に、抽出領域84を決定する場合を説明する。先ず、被写体領域82における縦と横の長さを比較する。そして、その長さの長い方を基準として、リプレイ表示領域PRの縦横比に従い抽出領域84を決定する。ここで、被写体領域82は縦長であるので、この縦の長さbを基準にして被写体領域82の縦の長さの2倍の長さを横の長さとし、抽出領域84のサイズをb×2bに決定する。そして、決定した抽出領域84の座標値を一時記憶部500に保存する。
【0054】
画像抽出部222は、以上のように決定した抽出領域84に従って、フレームバッファ520に格納される表示画像における抽出領域84に対応する領域を抽出する。図9は、抽出領域84の画像を抽出する処理を説明するための図である。図9(a)に、フレームバッファ520に格納される表示画像の一例を示す。図9(a)に示す表示画像において、上述のようにスクリーン座標系(Xs、Ys)の座標値に従って決定した抽出領域84に対応する領域の画像(以下、抽出画像という。)90を抽出する。
【0055】
そして、画像抽出部222は、抽出した抽出画像90を、表示するリプレイ表示領域RPのサイズに合わせてサイズ変更して抽出画像記憶部540に格納する。図9(b)に、抽出画像記憶部540に記憶される抽出画像90の一例を示す。図9(b)に示す抽出画像90のサイズは、図8(b)に示すリプレイ表示領域RPのサイズと同等である。即ち、抽出画像90を抽出画像記憶部540に記憶する際、この抽出画像90のサイズを、リプレイ表示領域RPのサイズに合わせて拡大、或いは縮小する処理を行う。
【0056】
尚、抽出画像90をリプレイ表示領域RPに合わせてサイズ変更する際に、バイリニア・フィルタリングの画素データの補間機能を利用した画像平滑化処理により、縮小画像或いは拡大画像の生成を行うこととしてもよい。ゲーム装置等の画像生成装置においては、再近隣内挿法や共一次内挿法(いわゆるバイリニア・フィルタリング)、三次畳み込み内挿法(いわゆるトライリニア・フィルタリング)といった内挿画素データ演算処理が、ハードウェアの機能として実現されている場合があり、このような場合には、上記画像平滑化処理をより高速に実現することが可能である。
【0057】
ここで、バイリニア・フィルタリングについて説明する。図10は、既存の画素(T1、T2、T3、及びT4)と、バイリニア・フィルタリングにより内挿される画素(P)との関係を示す図である。図10(a)に示すように、内挿される画素(サンプリング点)Pの色CPは、Pの周りの画素T1〜T4の色を補間した色となる。
【0058】
具体的には、T1〜T4の座標とPの座標とに基づき、x軸方向の座標比β:1−β(0≦β≦1)と、y軸方向の座標比γ:1−γ(0≦γ≦1)と、を求める。このPの色CP(バイリニア・フィルタリングでの出力色)は、次式で示すことができる。

Figure 0003643796
【0059】
また、図10(b)に示すように、β=γ=1/2となる場合には、内挿される画素Pの色CPは、次式のようになる。
CP=(CT1+CT2+CT3+CT4)/4 ・・・(2)
【0060】
画像抽出部222は、リプレイ表示領域RPのサイズに合わせて拡大、或いは縮小した抽出画像90を、抽出画像記憶部540に格納する。図11は、抽出画像90を抽出画像記憶部540へ格納する際の格納方法の一例を説明するための図である。図11(a)は、1/60秒毎に生成され、フレームバッファ520に順次格納される表示画像を示したものであり、フレームバッファ520は、第1フレームF1から順に、1/60秒毎に生成される表示画像により上書きされる。生成した表示画像における抽出画像90は、図11(b)に示す抽出画像記憶部540に記憶される。
【0061】
後述するが、本実施形態においては、被写体の画像を、1/60秒毎に生成される画像のうち、例えば、3フレーム毎に被写体画像を抽出することとする。図11(b)に示すように、抽出画像記憶部540には、記憶領域1から順に、3フレーム毎に抽出される抽出画像90が格納される。即ち、第1フレームF1における抽出画像90を領域1に、第4フレームF4における抽出画像90を領域2に、というように順次格納していく。また、この図11における例では、抽出画像記憶部540の記憶領域は、32個分の抽出画像90を格納する領域が確保されている。この32個の記憶領域全てに抽出画像90が格納された場合には、領域1から順に上書きしていくこととする。尚、抽出画像記憶部540への抽出画像の格納方法はこれに限られるものではなく、例えば図2、或いは図3に示すように、リプレイ表示領域として12個の表示領域が設定される際には、抽出画像12枚分のデータを確保し、表示可能な画像のみを保存することとしてもよい。
【0062】
以上説明した機能を有する画像抽出部222は、画像抽出プログラム422に従って処理を実行するものであり、この画像抽出部222の動作は、図12に示すフローチャートに従う。即ち、先ず、ビューボリューム内に被写体(例えば、図7(b)に示す直方体オブジェクト72)が存在するか否かを判定する(ステップS41)。このステップS41において、被写体がビューボリューム内に存在しないと判断する場合は、本画像抽出を終了する。
【0063】
ステップS41において、被写体がビューボリューム内に存在すると判断する場合には、予め設定される抽出条件に従って、当該被写体の画像を表示画像から抽出するか否かを判定する(ステップS42)。本実施形態においては、例えば、抽出条件として、3フレーム毎に表示画像から被写体画像を抽出するように設定することとする。尚、抽出条件はこれに限定されるものではなく、抽出タイミングを設定し、このタイミングを判定することにより抽出することとしてもよい。また、この判定処理を行わず、毎フレーム抽出することとしても勿論構わない。このステップS42において、抽出処理を行わないと判断する場合は、本画像抽出を終了する。
【0064】
ステップS42において、抽出処理を行うと判断する場合、画像抽出部222は、被写体の座標値をスクリーン座標系(Xs、Ys)の座標値に変換する処理を行う(ステップS43)。
【0065】
次に、画像抽出部222は、スクリーン座標系(Xs、Ys)に変換された被写体の、スクリーンにおける上端、下端、左端、右端の座標値を参照して被写体領域を決定するとともに、この被写体を表示する表示領域の縦横比に従って抽出領域を決定する(ステップS44)。
【0066】
次に、画像抽出部222は、フレームバッファ520に格納される表示画像データから、ステップS44において決定される抽出領域に対応する領域を抽出する(ステップS45)。そして、抽出した抽出画像のサイズを表示領域に合わせてサイズ変更する(ステップS46)。即ち、表示領域のサイズよりも抽出画像のサイズが小さい場合は当該抽出画像を拡大し、また、表示領域のサイズよりも抽出画像のサイズが大きい場合には当該抽出画像を縮小して、抽出画像のサイズを変更する。
【0067】
次いで、表示領域のサイズに従ってサイズ変更した抽出画像を、抽出画像記憶部540に格納して(ステップS47)、本画像抽出処理を終了する。
【0068】
画像抽出部222における画像抽出処理が終了すると、リプレイを表示するか否かを判定する(図6;ステップS50)。このステップS50において、リプレイ画面を表示しないと判断する場合は、ステップS10に戻って上記した各処理を繰り返す。
【0069】
ステップS10において、リプレイ画面を表示すると判断する際には、表示制御部224が、リプレイ表示処理を実行する(ステップS60)。
【0070】
表示制御部224におけるリプレイ表示処理は、リプレイ画面を表示すると判断する際に、抽出画像記憶部540に格納される抽出画像を表示するものである。表示制御部224は、抽出画像記憶部540に格納される複数の抽出画像の表示を制御する。例えば、格納される複数の抽出画像を配列して配置するように制御するとともに、当該複数の抽出画像を配列する際に、所定の時間差を設けて表示する。
【0071】
図2、或いは図3に示す12個のリプレイ表示領域RP1、RP2、・・・、RP12に抽出画像を表示する場合について説明する。先ず、抽出画像記憶部540から、このリプレイ表示領域RP1、RP2、・・・、RP12に表示する12枚を決定する。例えば、図11に示す抽出画像記憶部540の記憶領域に格納される最新の抽出画像が、領域32に格納される抽出画像である場合、この領域32からさかのぼった12枚の抽出画像、即ち、領域21〜領域32に格納される抽出画像を表示する。具体的には、リプレイ表示領域RP1に領域21に格納される抽出画像を、リプレイ表示領域RP2に領域22に格納される抽出画像を、そして、リプレイ表示領域RP12に領域32に格納される抽出画像を、所定の時間差に従って表示するように、表示制御する。尚、表示する12枚の抽出画ー像の決定方法は、これに限るものではなく、抽出画像記憶部540に記憶される抽出画像から任意の画像を選択して表示することとしてもよい。
【0072】
そして、表示制御部224によるリプレイ表示処理を終了すると、本処理を終了する。
【0073】
表示部300は、プレー画面やリプレイ画面等のゲーム画像を表示する。処理部200は、一時記憶部500内のフレームバッファ520に格納される表示画像データを、この表示部300に出力する。
【0074】
記憶部400には、各種処理プログラムやデータの他、ゲームの進行に係るゲームプログラム420や、ゲームの進行に必要な各種ゲーム情報(図示略)等が格納される。ゲームプログラム420は、本発明を実現するため、特に、画像抽出プログラム422と、表示制御プログラム424とを含む。処理部200は、この記憶部400から読み出すプログラム、データに基づいて種々の処理を行う。
【0075】
一時記憶部500には、特に、ゲーム演算部220がゲームプログラム420に従って実行した演算結果や、操作部100から入力される情報、或いは画像生成部240により生成される表示画像データ等が一時的に格納される。また、この一時記憶部500には、仮想3次元空間に含まれるオブジェクトの、ワールド座標系、視点座標系、及びスクリーン座標系における座標値も一時記憶される。この一時記憶部500の機能は、例えば、RAMやVRAMにより実現可能である。
【0076】
また、一時記憶部500は、特に、画像生成部240により生成される画像データが格納されるフレームバッファ520と、画像抽出部222により生成される抽出画像が格納される抽出画像記憶部540とを含む。
【0077】
尚、本実施形態においては、プレーヤの操作する自キャラクタを被写体として設定することとしたが、これに限られるものではなく、仮想3次元空間における任意の領域を指定することも可能である。
【0078】
次に、本実施形態におけるゲーム装置1を実現できるハードウェアの構成の一例について、図13を用いて説明する。図13に示す装置では、CPU1000、ROM1002、RAM1004、VRAM1005、情報記憶媒体1006、画像生成IC1008、音生成IC1010、I/Oポート1012、1014がシステムバス1016より相互にデータ入出力可能に接続されている。画像生成IC1008には表示装置1018が、音生成IC1010にはスピーカ1020が、I/Oポート1012にはコントロール装置1022が、I/Oポート1014には通信装置1024が、それぞれ接続されている。
【0079】
CPU1000は、情報記憶媒体1006に格納されるプログラム、ROM1002に格納されるシステムプログラム(装置本体の初期化情報等)、コントロール装置1022によって入力される信号等に従って、装置全体の制御や各種データ処理を行う。
【0080】
RAM1004は、CPU1000の作業領域等として用いられる記憶手段であり、情報記憶媒体1006やROM1002内の所与の内容、CPU1000の演算結果等が格納される。
【0081】
VRAM1005は、図4に示す一時記憶部500に相当するものであり、表示装置1018に表示される表示データを一時的に格納する記憶装置である。このVRAM1005は、画像生成IC1008によって生成される1フレーム分の画像データを格納するためのフレームバッファ(図4に示すフレームバッファ520に相当)を備える。フレームバッファは、表示装置1018の解像度及び色数に応じた容量を備え、画素毎の色情報を記憶する。さらに、このVRAM1005は、フレームバッファに格納される表示画像データから抽出した抽出画像を記憶する記憶領域(例えば、図4に示す抽出画像記憶部540)を含む。
【0082】
情報記憶媒体1006は、プログラム、画像データ、音データ、プレイデータ等が主に格納されるものであり、情報記憶媒体としてのROM等のメモリやハードディスク、或いはゲームカセット、ICカード、磁気ディスク、光ディスク等が用いられる。この情報記憶媒体1006の機能は、図4に示す記憶部400に相当する。
【0083】
例えば、本ゲーム装置を家庭用ゲーム装置に適用する場合、図4に示すゲームプログラム420等を格納する情報記憶媒体1006としてCD−ROM、ゲームカセット、DVD等が用いられ、プレイデータを格納する情報記憶媒体1006としてメモリカードなどが用いられる。また、業務用ゲーム装置に適用する場合には、情報記憶媒体1006としてROM等のメモリやハードディスクが用いられる。
【0084】
また、この装置に設けられている画像生成IC1008と音生成IC1010により、音や画像の好適な出力が行えるようになっている。
【0085】
先ず、画像生成IC1008は、CPU1000の命令によって、ROM1002、RAM1004、情報記憶媒体1006等から送られる情報に基づいて画素情報を生成する集積回路であり、生成される表示信号は表示装置1018に出力される。表示装置1018は、CRTやLCD、TV、プラズマディスプレイ、或いはプロジェクター等により実現され、図4に示す表示部300に相当する。
【0086】
また、音生成IC1010は、CPU1000の命令によって、情報記憶媒体1006やROM1002に記憶される情報、RAM1004に格納される音データに応じた音信号を生成する集積回路であり、生成される音信号はスピーカ1020によって出力される。
【0087】
コントロール装置1022は、図4に示す操作部100に相当するものであり、プレーヤがゲームに係る操作を入力するための装置である。
【0088】
通信装置1024は本ゲーム装置1内部で利用される情報を外部とやりとりするものであり、他の装置と通信回線を介して接続されてプログラムに応じた所与の情報を送受信する際に利用される。
【0089】
そして、ゲーム進行処理等の上述した処理は、図4に示すゲームプログラム420等を格納した情報記憶媒体1006と、これらプログラムに従って動作するCPU1000、画像生成IC1008、音生成IC1010等によって実現される。CPU1000及び画像生成IC1008は、図4に示す処理部200に該当するものであり、主にCPU1000が図4に示すゲーム演算部220に、画像生成IC1008が図4に示す画像生成部240に該当する。
【0090】
尚、画像生成IC1008、音生成IC1010等で行われる処理は、CPU1000或いは汎用のDSP等によりソフトウェア的に行ってもよい。この場合には、CPU1000が、図4に示す処理部200に該当することとなる。
【0091】
次に、図14に、本ゲーム装置1を、家庭用ゲーム装置に適用した場合の例を示す。即ち、ゲーム装置本体1200に、ゲームコントローラ1202、1204、及びディスプレイ1206が接続されており、プレーヤは、このディスプレイ1206に表示されるゲーム画像を見たり、図示しないスピーカから出力されるゲーム音を聞きながら、ゲームコントローラ1202、1204によりキャラクタ等を操作してゲームを楽しむ。更に、ゲーム装置本体1200に対して着脱自在なCD(DVD)1208、或いはメモリカード1210やICカード1212等の情報記憶媒体には、図4に示す記憶部400に格納されているゲームプログラム420や図示しないゲームデータ等の情報が格納され、ゲーム装置本体1200は、これらの情報に従って、各種処理(例えば、図6、或いは図12等に示す処理)を行う。尚、図4に示す操作部100はコントローラ1202、1204に、表示部300はディスプレイ1206にそれぞれ相当するものである。
【0092】
また、本ゲーム装置1を、業務用ゲーム装置1100に適用した場合の例を図15に示す。この業務用ゲーム装置1100は、プレーヤが、スピーカ1102から出力されるゲーム音を聞きながら操作レバー1104、或いは操作ボタン1106・・・を操作することによって、ディスプレイ1108上に表示されるキャラクタ等を操作してテニスゲームを楽しむ装置である。尚、図4に示す操作部100は操作レバー1104、或いは操作ボタン1106・・・に、表示部300はディスプレイ1108に、それぞれ相当する。
【0093】
業務用ゲーム装置1100に内蔵されるシステム基板1110には、CPU、画像生成IC、音生成IC等が実装されている。そして、図4に示すゲームプログラム420や図示しないゲームデータ等が、システム基板1110上の情報記憶媒体であるメモリ1112に格納されている。
【0094】
さらに、図16に示すように、本ゲーム装置1を、ホスト装置1300と、このホスト装置1300と通信回線1302を介して接続される端末1304−1〜1304−nと、を含むゲーム装置に適用することとしてもよい。この端末1304−1〜1304−nは、少なくとも、ゲーム画像の表示と、ゲーム音の出力と、ゲーム操作の入力とが可能な装置であり、プレーヤは、端末1304−1〜1304−nの何れかでテニスゲームを楽しむ。
【0095】
この場合、図4に示すゲームプログラム420や図示しないゲームデータ等の情報は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、メモリ等の情報記憶媒体1306に格納されている。端末1304−1〜1304−nが、CPU、画像生成IC、音生成ICを有し、スタンドアロンでゲーム画像やゲーム音を生成できる場合には、ホスト装置1300から、情報記憶媒体1306に格納されるプログラムやデータ等が、通信回線1302を介して端末1304−1〜1304−nに配信され、各端末1304−1〜1304−nにおいて、ゲーム画像やゲーム音を生成する。一方、スタンドアロンでゲーム画像やゲーム音を生成できない場合には、ホスト装置1300がゲーム画像やゲーム音を生成し、これを端末1304−1〜1304−nに配信する。そして、端末1304−1〜1304−nにおいて、生成した、或いは配信されたゲーム画像やゲーム音をそれぞれ出力する。
【0096】
以上、本発明を適用したゲーム装置の一例について説明したが、本発明は、上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
【0097】
例えば、予め、被写体となるオブジェクトに所与のパラメータを設定し、表示画像から抽出画像を抽出する処理を行うか否かを判定する際に、当該パラメータを判定することにより抽出するか否かを決定することとしてもよい。例えば、被写体として人オブジェクトを指定するとともに、この人オブジェクトに喜怒哀楽のパラメータを設定すれば、このパラメータを判定することにより、表示画像に表示される被写体の表情が、例えば、笑顔の場合において抽出処理を行うことも可能である。
【0098】
また、本実施形態においては、図2或いは図3に示すように、抽出画像の表示領域として12のリプレイ表示領域RP1、PR2、・・・RP12を設定し、このリプレイ表示領域RP1、PR2、・・・RP12に所定の時間差に従って抽出画像を表示することによりリプレイ画面を演出することとしたが、図17に示すリプレイ画面のように、リプレイ表示領域RP20を時間t毎に順次抽出画像により更新することによりリプレイ画面を演出することとしてもよい。即ち、表示制御部224は、先ず、抽出画像を表示するリプレイ表示領域RP20を設定し、リプレイの表示タイミングにおいて、表示する抽出画像及びその順番を決定する。そして、1番目の抽出画像をリプレイ表示領域RP20に表示し、時間t経過時において、当該リプレイ表示領域RP20に2番目の抽出画像を表示する、というように抽出画像の表示を制御する。
【0099】
また、図18に示すようにリプレイ画面を演出することとしてもよい。この場合、表示制御部224は、リプレイ画面において表示する複数の抽出画像がスライドするように各リプレイ表示領域RP30を設定し、リプレイの表示タイミングにおいて、抽出画像を所定の時間差に基づいて順次表示するように抽出画像の表示を制御することとしてもよい。
【0100】
さらに、図19に示すように、リプレイ画面に設定される各リプレイ表示領域RP40〜45のサイズを全て異なるようにしてもよい。即ち、表示制御部224の設定する抽出画像を表示する領域のサイズは任意であり、抽出して保存する抽出画像のサイズを各リプレイ表示領域のサイズに応じてそれぞれ決定することにより、リプレイ時に表示される複数の抽出画像のサイズがそれぞれ異なるようなリプレイ画面の演出が可能である。
【0101】
また、本実施形態においては、表示画像から抽出した画像を抽出画像記憶部540に保存することとしたが、抽出画像に対して、例えば、ぼかし、ノイズ、明度等の度合いやα値の変更処理、回転やゆがみ等の変形処理など、各種フィルターによる加工を施した後、当該画像を抽出画像記憶部540に格納することとしてもよい。さらに、この際、フィルターに設定されるフィルターパラメータを各抽出画像によって変化させて格納することとしてもよい。これによれば、例えば、抽出画像をフェイドイン或いはフェイドアウトさせるかのようなリプレイ画面を演出することができる。また、抽出画像の表示順序等を、このフィルターパラメータに従って決定してもよい。
【0102】
尚、上記実施形態においては、本発明をテニスゲームに適用した場合を例に説明したが、本発明は、例えば、野球ゲーム、ゴルフゲーム等の種々のスポーツゲーム、格闘ゲーム、或いはシュミレーションゲームなど、その他の種々のゲームにも適用可能である。
【0103】
【発明の効果】
本発明によれば、表示画像から抽出する抽出画像のサイズを、リプレイ画面において当該抽出画像を表示する表示領域の縦横比に従って決定するとともに、抽出した抽出画像を表示領域のサイズに合わせるように拡縮して保存する。これによれば、抽出画像を表示する際に、保存された抽出画像を読み出すだけでよく、特別な処理を必要としない。例えば、リプレイの対象となるキャラクタ等を被写体に指定することにより、保存される抽出画像の表示処理、或いはこの表示を制御する処理を行うだけで、当該キャラクタの動作を再現することができる。
【0104】
また、この際、ゲーム画像として表示画面に一度表示された画像の被写体領域の画像を複数保存することにより、この複数の画像を用いて、例えば、リプレイ、逆回しの表示等、様々な演出が可能となる。さらに、表示する際に、画像データを順次予め設定される時間差に基づいてコマ送りで表示する、或いは表示画面を分割して複数の画像データを1画面に表示する等の演出が可能となる。
【図面の簡単な説明】
【図1】本実施形態におけるプレー画面の一例を示す図である。
【図2】本実施形態におけるリプレイ画面の一例を示す図である。
【図3】本実施形態におけるリプレイ画面の一例を示す図である。
【図4】本実施形態におけるゲーム装置の機能ブロックの一例を示す図である。
【図5】表示画像を生成する処理を説明するための図である。
【図6】本実施形態における処理部の動作の一例を示すフローチャートである。
【図7】(a)は仮想3次元空間の一例を、(b)は被写体として設定される直方体オブジェクトの一例を示す図である。
【図8】(a)はスクリーン座標系に変換された被写体の一例を、(b)は抽出画像の表示領域の一例を示す図である。
【図9】(a)はフレームバッファに格納される表示画像の一例を、(b)は抽出画像記憶部に格納される抽出画像の一例を示す図である。
【図10】バイリニア・フィルタリングを説明するための図である。
【図11】抽出画像を抽出画像記憶部に格納する処理を説明するための図である。
【図12】本実施形態における画像抽出処理の一例を示すフローチャートである。
【図13】本実施形態におけるハードウェア構成の一例を示す図である。
【図14】本ゲーム装置を業務用ゲーム機に適用した場合を示す図である。
【図15】本ゲーム装置を家庭用ゲーム機に適用した場合を示す図である。
【図16】本ゲーム装置をホスト装置と通信回線を介して接続される端末に適用した場合を示す図である。
【図17】リプレイ画面の演出方法の一例を説明するための図である。
【図18】リプレイ画面の演出方法の一例を説明するための図である。
【図19】リプレイ画面の演出方法の一例を説明するための図である。
【符号の説明】
1 ゲーム装置
100 操作部
200 処理部
220 ゲーム演算部
222 画像抽出部
224 表示制御部
240 画像生成部
300 表示部
400 記憶部
420 ゲームプログラム
422 画像抽出プログラム
424 表示制御プログラム
500 一時記憶部
520 フレームバッファ
540 抽出画像記憶部[0001]
BACKGROUND OF THE INVENTION
The present invention program The program The information storage medium which memorize | stored and game device.
[0002]
[Prior art]
Currently, various types of games are provided, and in particular, sports games, fighting games, racing games, and the like that have a replay function for reproducing a game screen are known. This replay function stores game data at the time of game progress, and reproduces a score scene such as a goal scene and a highlight scene such as a KO scene by referring to the game data related to the scene. Furthermore, a game device having a function of generating an image from a viewpoint different from the viewpoint at the time of progress of the game is known as a replay function.
[0003]
[Problems to be solved by the invention]
By the way, the replay function is preferably used for reference in order to make use of it for the next play, as well as dramatic production in terms of looking back on the play. Further, since advanced processing can be realized by the advancement of hardware of computers and game devices, there has been a tendency to further enhance the rendering effect is to provide more realistic images. It is an object of the present invention to provide a replay function having a high effect of production without using another method, that is, advanced processing.
[0004]
[Means for Solving the Problems]
To solve the above issues, 1st invention Is a function for causing a generation unit (for example, the image generation unit 240 shown in FIG. 4) to generate an image of a virtual space based on a given viewpoint for an apparatus having the processor by calculation and control by the processor. First storage means (for example, a frame buffer 520 shown in FIG. 4) that stores game information as an image generated by the generating means as a frame image (for example, a display image in an embodiment of the invention); Extraction means (for example, the image extraction unit 222 shown in FIG. 4) that determines an extraction area from the frame image and extracts an image of the extraction area, and a second that stores the extraction image extracted by the extraction means. Reproduction for generating a reproduction image of the game, including the storage means (for example, the extracted image storage unit 540 shown in FIG. 4) and the extracted image stored in the second storage means Stage (e.g., the display control unit 224 shown in FIG. 4), characterized in that it includes information to function and, to the device.
[0005]
Also, Other inventions Is a game device including a generation unit (for example, the image generation unit 240 shown in FIG. 4) that generates a virtual space image based on a given viewpoint, and stores the image generated by the generation unit as a frame image First storage means (for example, frame buffer 520 shown in FIG. 4) and extraction means for determining an extraction area from the frame image and extracting an image of the extraction area (for example, image extraction shown in FIG. 4) Unit 222), second storage means for storing the extracted image extracted by the extraction means (for example, the extracted image storage section 540 shown in FIG. 4), and the extracted image stored in the second storage means. Including reproduction means (for example, a display control unit 224 shown in FIG. 4) for generating a reproduction image of the game.
[0006]
this According to the invention, an image of an arbitrary region of the frame image stored in the first storage unit is extracted, and the extracted image is stored in the second storage unit, so that the extraction region in the frame image is stored. Reproduce the image. That is, by extracting an image of a necessary area from the frame image stored in the first storage unit to the second storage unit, the image of the extraction area in the frame image can be reproduced. For example, replay of an arbitrary scene in a game can be realized using an image extracted from a frame image.
[0007]
Also, Second invention Game information Is , 1st invention Information for causing the device to function setting means (for example, the game calculation unit 220 shown in FIG. 4) for setting the subject (for example, the player's own character in the embodiment of the invention) and the subject in the virtual space. Information for causing the apparatus to function calculation means (for example, the image extraction unit 222 shown in FIG. 4) that calculates the position of the subject in the frame image corresponding to the position by coordinate conversion based on the viewpoint; And an extraction unit including information for determining an extraction region based on a calculation result by the calculation unit.
[0008]
this Second invention According to this, for example, an object arranged in a virtual space can be specified as a subject to be stored, and an image of this subject can be stored in the second storage means. Further, when extracting an image of a subject, the position of the subject in the frame image is determined by coordinate conversion based on the position of the viewpoint installed in the virtual space. According to this, even when the subject is not actually drawn on the frame image due to other objects existing in the virtual space becoming an obstacle, the region that is the position of the subject based on the viewpoint in the frame image is determined. Can be extracted.
[0009]
Furthermore, in this case Third invention Game information As , Second invention The extraction unit may include information for determining an extraction region according to the size of the subject in the frame image.
[0010]
this Third invention Accordingly, the ratio of the subject in the extracted image can be made constant regardless of the size of the subject in the frame image. According to this, it is possible to extract an area where the subject just fits from the frame image.
[0011]
4th invention Game information for 2nd or 3rd invention The information for causing the apparatus to function size setting means (for example, the image extraction unit 222 shown in FIG. 4) for setting the size of the extracted image stored in the second storage means, and And information for determining the aspect ratio of the extraction area based on the aspect ratio of the size of the extracted image set by the size setting means.
[0012]
this 4th invention According to the above, the size of the extracted image stored in the second storage means is set in advance, and the aspect ratio of the extracted region is set based on the aspect ratio of the size of the extracted image. The aspect ratio of the extraction area in the image can be made constant.
[0013]
Furthermore, in this case 5th invention Game information As , 4th invention The size setting means sets the vertical size of the extracted image to 1 / integer of the vertical size of the frame image and / or sets the horizontal size of the extracted image to an integer of the horizontal size of the frame image 1 may be included.
[0014]
this 5th invention According to the above, when determining the size of the extracted image, the size of the extracted image can be determined according to the size of the frame image, that is, the size of the display screen. That is, the size of the extracted image can be determined based on the aspect ratio of the screen on which the extracted image is displayed.
[0015]
6th invention Game information for Any of the first to fifth inventions The information for causing the device to function scaling means (for example, the image extracting unit 222 shown in FIG. 4) for scaling the extracted image extracted by the extracting means to a given size, and the second storage And means for functioning to store the extracted image scaled by the scaling means.
[0016]
this 6th invention According to this, the size of the extracted extracted image is changed by enlarging or reducing according to a given size set by the size setting means. Therefore, when the size of the extracted image is set according to the size required for reproducing, no special processing is required when generating the reproduced image using the extracted image.
[0017]
Also, 7th invention Game information for Any of the first to sixth inventions In the above, information for causing the device to function an extraction time setting means (for example, the game calculation unit 220 shown in FIG. 4) for setting the extraction time, and a time when the extraction means is set by the extraction time setting means And information for extracting the extracted image from the frame image corresponding to.
[0018]
this 7th invention Accordingly, it is possible to set conditions for extracting an image from a frame image, and it is possible to extract only a subject that satisfies the condition. As the extraction condition, for example, a timing for extracting an image, a preset parameter, and the like are determined. This parameter includes information such as the characteristics and state of the subject set for the subject. Specifically, for example, a person object can be designated as a subject, a emotion parameter can be set for the person object, and this parameter can be set as an extraction condition. According to this, extraction processing can be performed according to the facial expression of the subject displayed in the display image.
[0019]
further, Eighth invention Game information for Any one of the first to seventh inventions And the second storage means arranges information for accumulating the extracted images extracted by the extraction means, and the reproduction means arranges a plurality of extracted images stored in the second storage means. And information for generating a reproduced image.
[0020]
this Eighth invention Accordingly, since the image of the subject is accumulated, for example, if a character or the like moving in the virtual space is designated as the subject, the motion of the subject can be recorded. This makes it possible to reproduce the movement of the subject as necessary. At this time, since it is only necessary to read out the extracted image stored in the second storage means, the motion of the subject can be reproduced without requiring any special processing. According to this, by controlling the arrangement order or the like when arranging the plurality of extracted images stored in the second storage means, the replay, reverse rotation, etc. of the subject motion are realized in the generated reproduced image. I can do things. Furthermore, when generating a reproduced image, a plurality of stored extracted images are sequentially displayed on a frame basis based on a preset time difference, or a plurality of extracted images are displayed on one screen by dividing the display screen. For example, a reproduced image can be produced.
[0021]
In this case, Ninth invention Game information As , Eighth invention The reproduction unit may include information for selecting an extraction image to be included in the reproduction image from a plurality of extraction images stored in the second storage unit.
[0022]
this Ninth invention According to this, it is possible to select an appropriate image for generating a reproduced image from a plurality of extracted images stored in the second storage unit.
[0023]
Also, 10th invention Game information for Any of the first to ninth inventions When the second storage means stores the extracted image, it includes information for storing the extracted image by applying a given filter.
[0024]
Here, the filter is to perform some processing on the extracted image stored in the second storage means. Specifically, for example, the extracted image is blurred, noise is added, and the brightness is changed. , Processing such as setting of the α value, deformation processing of the extracted image due to rotation or distortion, and the like.
[0025]
this 10th invention According to the above, the extracted image that has passed the given filter is stored in the second storage means. Furthermore, in the case where the extracted images are accumulated and stored in the second storage means, the filter parameters set for the respective filters can be changed and stored depending on the extracted images. Therefore, by arranging the extracted image based on the parameter, it is possible to produce a reproduced image by, for example, fade-in or fade-out. The filter parameter is, for example, a value set when applying a filter such as an α value, a coefficient to be multiplied to the RGB value of each pixel, or a value for specifying an option of the filter.
[0026]
further, Eleventh invention Information storage media As , Any one of the first to tenth inventions Remember game information Configuring an information storage medium It is good as well.
[0027]
this Eleventh invention According to Any one of the first to tenth An information storage medium having the same effect as that of the present invention can be realized.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a game device to which the present invention is applied will be described in detail with reference to the drawings. In the following, a case where the present invention is applied to a tennis game will be described as an example. However, the present invention is not limited to this. Also, in the tennis game, a battle is realized by operating an opponent character that is an opponent of a character controlled by the player (hereinafter referred to as the player character) by computer control.
[0029]
FIG. 1 shows an example of a tennis game play screen. In FIG. 1, the player controls the player character 2 playing on the front side of the court and enjoys the tennis game by playing against the opponent character 4 playing on the back side of the court.
[0030]
FIG. 2 shows an example of a replay screen displayed to reproduce the scoring scene after scoring. In FIG. 2, the replay screen includes a real-time display area P1 and replay display areas RP1, RP2,. Here, in the real-time display area P1, for example, an arbitrary moving image such as a play screen or an explanation screen is displayed. In the replay display areas RP1, RP2,..., RP12, the action of the player character 2 in the scoring scene is displayed as 12 still images clockwise from the upper left. Further, when the image of the player character 2 displayed in the replay display areas RP1, RP2,..., RP12 is displayed, the images are displayed by frame advance at predetermined time intervals in order from the upper left replay display area RP1. .
[0031]
The present invention uses, for example, an object placed in a virtual three-dimensional space, an arbitrary area in the virtual three-dimensional space, or the like as a subject, and an image of the subject designated from image data stored in every frame in the frame buffer. Are extracted and recorded separately, and the recorded image of the subject is displayed at an arbitrary display timing. In this embodiment, the subject is the player character 2 and the display area for displaying the subject at the time of replay is recorded as the replay display areas RP1, RP2,..., RP12 shown in FIG. By displaying the image of the player character 2 in each of the replay display areas RP1, RP2,..., RP12, the scoring scene of the player character 2 is reproduced.
[0032]
FIG. 3 shows an example of a replay screen when the player character 2 plays on the back side of the court. As shown in FIG. 3, on the play screen displayed in the real-time display area P1, an image of the player character 2 playing on the back side of the court is displayed. In the replay display areas RP1, RP2, ..., RP12, images of the player character 2 in the scoring scene are displayed.
[0033]
As shown in FIG. 2 and FIG. 3, regardless of the place where the player character 2 plays, that is, the position and size of the player character 2 on the play screen, the image of the player character 2 in the scoring scene is displayed in each replay display area. RP1, RP2,..., RP12 are displayed so as to fit. Further, even if the play position of the player character 2 is moved, the image of the player character 2 is displayed at the center of each of the replay display areas RP1, RP2,.
[0034]
FIG. 4 is a diagram illustrating an example of functional blocks of the game apparatus 1 according to the present embodiment. In the figure, the functional block includes an operation unit 100, a processing unit 200, a display unit 300, a storage unit 400, and a temporary storage unit 500.
[0035]
The operation unit 100 is for the player to input operation data, and outputs an operation signal corresponding to the operation by the player to the processing unit 200. The function of the operation unit 100 can be realized by hardware such as a lever, a button, and a housing.
[0036]
The processing unit 200 performs various processes such as control of the entire game device 1, instructions to the respective function units in the game device 1, game progress processing, image processing, sound processing, and the like. Storage processing unit, setting processing of the position and line-of-sight direction of the virtual camera in the virtual three-dimensional space, processing for generating an image of the virtual three-dimensional space (hereinafter referred to as a display image) viewed from the virtual camera, and the like It is executed according to the game program 420 stored in 400. The function of the processing unit 200 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), or a given program.
[0037]
The processing unit 200 includes a game calculation unit 220 and an image generation unit 240 as main functional units. Here, the operation of the processing unit 200 related to the generation of the game image will be described with reference to FIG.
[0038]
FIG. 5 is a diagram for explaining display image generation processing. As shown in FIG. 5, an object 600 and a viewpoint (virtual camera) 610 are set in a virtual three-dimensional space. The object 600 has a shape, color, texture, etc. defined as object data. The game calculation unit 220 sets the coordinate value of the object 600 in the world coordinate system (Xw, Yw, Zw) based on the position information and direction information of each polygon constituting the object 600 according to the object data related to the object 600. To do. Subsequently, the position of the viewpoint 610 and the direction of the line of sight are set in the world coordinate system (Xw, Yw, Zw), and the view volume 620 is determined by clipping processing. Then, each polygon included in the view volume 620 is converted into a coordinate value of the viewpoint coordinate system (Xv, Yv, Zv) with the viewpoint 610 as a reference, and then the determined viewpoint coordinate system (Xv, Yv, Zv) Based on these coordinate values, a process of converting into coordinate values of a two-dimensional screen coordinate system (Xs, Ys) is performed.
[0039]
The image generation unit 240 generates a display image based on the processing result in the game calculation unit 220. Specifically, rendering processing such as color interpolation processing and hidden surface removal processing is performed on the object 600 projected on the screen 630 based on information relating to the color, texture, and the like defined for the object 600. As a result, the object 600 is projected on the screen 630 placed on the extension of the viewpoint 610, and the display image is drawn on the screen 630. Then, the display image data is written into the frame buffer 520, and display image data for one frame corresponding to one inter time (for example, 1/60 second) is generated.
[0040]
In order to implement the present invention, the game calculation unit 220 includes an image extraction unit 222 and a display control unit 224, in particular.
[0041]
The image extraction unit 222 executes processing according to the image extraction program 422, extracts an image of a subject specified in advance from the image data stored in the frame buffer 520, and stores the subject image in the extracted image storage unit 540. Perform the process. At this time, the image of the subject is extracted and scaled according to the size of the display area for displaying the subject image.
[0042]
The display control unit 224 executes processing according to the display control program 424, and before the extraction processing by the image extraction unit 222 described later is performed, the size of the display area of the subject image (for example, the replay display shown in FIG. 2 or FIG. 3). Regions RP1, RP2,... RP12) are set. At this time, the size of the display area of the subject image is set based on the aspect ratio of the display screen. Although the size of the display area is arbitrary, as described above, the image extraction unit 222 extracts the image of the subject according to the size of the display area and stores it in the extracted image storage unit 540.
[0043]
Further, when the image stored in the extracted image storage unit 540 is displayed on the display screen, the display control unit 224 performs processing for controlling display of the image.
[0044]
Next, the operation of the processing unit 200 for realizing the present invention will be described with reference to FIG. FIG. 6 is a flowchart showing an example of the flow of processing in the present embodiment. As shown in the figure, first, the game calculation unit 220 sets the virtual three-dimensional space by arranging objects constituting the virtual three-dimensional space (step S10). Furthermore, the game calculation unit 220 arranges a virtual camera in the virtual three-dimensional space set in the world coordinate system (Xw, Yw, Zw) in step S10, and the viewpoint by the virtual camera and the direction of the line of sight from the viewpoint. Control etc.
[0045]
Next, the game calculation unit 220 performs a clipping process to determine a view volume, and coordinates a polygon positioned in the view volume in a viewpoint coordinate system (Xv, Yv, Zv) centered on the viewpoint of the virtual camera. A process of converting into a coordinate value in the two-dimensional screen coordinate system (Xs, Ys) is performed based on the coordinate value of the viewpoint coordinate system (Xv, Yv, Zv) determined and converted into a value (step S20).
[0046]
Subsequently, based on the processing results in step S10 and step S20 by the game calculation unit 220, the image generation unit 240 performs data such as the coordinate value of the object in the screen coordinate system (Xs, Ys) and the object related to each object. By executing various rendering processes based on the data, a rendering process is performed on the object projected on the screen to generate a display image (step S30). At this time, the pixel information of the generated display image is written into the frame buffer 520. The pixel information is converted into an image signal by the processing unit 200 in accordance with the display timing of the display image corresponding to the pixel information, and is output to the display unit 300.
[0047]
Next, the image extraction unit 222 executes image extraction processing (step S40). The image extraction unit 222 performs processing for extracting an image of a subject specified in advance from a display image. Here, the function of the image extraction unit 222 will be described with reference to FIGS.
[0048]
FIG. 7A shows an example of a perspective view of a virtual three-dimensional space. As shown in FIG. 7A, a cuboid object 72 and a desk object 74 are arranged in the virtual three-dimensional space, and the cuboid object 72 is arranged on the desk object 74. Further, a virtual camera 76 is installed so as to photograph the rectangular parallelepiped object 72 and the desk object 74. FIG. 7B shows a rectangular parallelepiped object 72 arranged in the virtual three-dimensional space. Here, the processing in the image extraction unit 222 will be described below by taking as an example the case where the cuboid object 72 is designated as a subject and the image of the cuboid object 72 is extracted from the display image.
[0049]
The image extraction unit 222 performs a coordinate conversion process to the screen coordinate system (Xs, Ys) only for the rectangular parallelepiped object 72 that is a subject arranged in the virtual three-dimensional space illustrated in FIG. Then, with reference to the coordinate value of each vertex of the rectangular parallelepiped object 72 converted to the screen coordinate system (Xs, Ys), the position of the rectangular parallelepiped object 72 on the screen, that is, the position of the rectangular parallelepiped object 72 in the display image is acquired. .
[0050]
FIG. 8 is a diagram for explaining extraction region determination processing when an image of the rectangular parallelepiped object 72 is extracted. FIG. 8A is a diagram showing the rectangular parallelepiped object 72 on the screen 80 when the rectangular parallelepiped object 72 is converted into the coordinate values of the screen coordinate system (Xs, Ys). First, the image extracting unit 222 sets a region 82 (hereinafter referred to as a subject region) 82 of the cuboid object 72 on the screen 80 based on the coordinate value of the vertex of the cuboid object 72 converted into the screen coordinate system (Xs, Ys). decide. Specifically, among the coordinate values of the vertices of the rectangular parallelepiped object 72 in the screen coordinate system (Xs, Ys), the coordinate values at the upper end, the lower end, the left end, and the right end, for example, the coordinate values of the vertices 86 and 88 are acquired. . Based on the coordinate values, the subject area 82 is determined so that the cuboid object 72 is included.
[0051]
By determining the subject region 82 as described above, for example, the subject image is not drawn on the display image because another object exists in front of the rectangular parallelepiped object 72 that is the subject for the virtual camera 76. Alternatively, even when only a part is drawn, the region where the rectangular parallelepiped object 72 is projected can be designated as the subject region 82. Further, since the subject area 82 is determined based on the size of the rectangular parallelepiped object 72, an area in which the rectangular parallelepiped object 72 just fits can be set as the extraction area.
[0052]
Next, the image extraction unit 222 determines an area (hereinafter referred to as an extraction area) 84 that is actually extracted from the display image based on the size of the replay display area RP that displays the subject. FIG. 8B shows an example of the replay display area RP that displays the subject. As described above, the replay display area RP that displays the image of the subject to be extracted is set in the display control unit 224 before the extraction process is performed.
[0053]
Here, as an example, as shown in FIG. 8B, the replay display area RP is a × 2a, that is, the extraction area is represented by a ratio of vertical and horizontal lengths of 1: 2. A case where 84 is determined will be described. First, the vertical and horizontal lengths in the subject area 82 are compared. Then, the extraction region 84 is determined according to the aspect ratio of the replay display region PR with the longer length as a reference. Here, since the subject area 82 is vertically long, the horizontal length is twice as long as the vertical length of the subject area 82 with reference to the vertical length b, and the size of the extraction area 84 is b ×. 2b is determined. Then, the determined coordinate value of the extraction area 84 is stored in the temporary storage unit 500.
[0054]
The image extraction unit 222 extracts a region corresponding to the extraction region 84 in the display image stored in the frame buffer 520 according to the extraction region 84 determined as described above. FIG. 9 is a diagram for explaining processing for extracting an image of the extraction region 84. FIG. 9A shows an example of a display image stored in the frame buffer 520. In the display image shown in FIG. 9A, an image 90 (hereinafter referred to as an extracted image) of an area corresponding to the extraction area 84 determined according to the coordinate values of the screen coordinate system (Xs, Ys) as described above is extracted. .
[0055]
Then, the image extraction unit 222 changes the size of the extracted image 90 according to the size of the replay display area RP to be displayed, and stores the extracted image 90 in the extracted image storage unit 540. FIG. 9B shows an example of the extracted image 90 stored in the extracted image storage unit 540. The size of the extracted image 90 shown in FIG. 9B is equivalent to the size of the replay display area RP shown in FIG. That is, when the extracted image 90 is stored in the extracted image storage unit 540, a process of enlarging or reducing the size of the extracted image 90 in accordance with the size of the replay display area RP is performed.
[0056]
Note that when the extracted image 90 is resized in accordance with the replay display area RP, a reduced image or an enlarged image may be generated by an image smoothing process using a bilinear filtering pixel data interpolation function. . In an image generation device such as a game device, interpolation pixel data calculation processing such as re-neighbor interpolation, bilinear interpolation (so-called bilinear filtering), and cubic convolution interpolation (so-called trilinear filtering) is performed. In such a case, the image smoothing process can be realized at a higher speed.
[0057]
Here, bilinear filtering will be described. FIG. 10 is a diagram illustrating a relationship between existing pixels (T1, T2, T3, and T4) and a pixel (P) interpolated by bilinear filtering. As shown in FIG. 10A, the color CP of the interpolated pixel (sampling point) P is a color obtained by interpolating the colors of the pixels T1 to T4 around P.
[0058]
Specifically, based on the coordinates of T1 to T4 and the coordinates of P, the coordinate ratio β: 1-β (0 ≦ β ≦ 1) in the x-axis direction and the coordinate ratio γ: 1-γ (y-axis direction) 0 ≦ γ ≦ 1). The P color CP (output color by bilinear filtering) can be expressed by the following equation.
Figure 0003643796
[0059]
As shown in FIG. 10B, when β = γ = 1/2, the color CP of the interpolated pixel P is expressed by the following equation.
CP = (CT1 + CT2 + CT3 + CT4) / 4 (2)
[0060]
The image extraction unit 222 stores the extracted image 90 enlarged or reduced in accordance with the size of the replay display area RP in the extracted image storage unit 540. FIG. 11 is a diagram for explaining an example of a storage method when the extracted image 90 is stored in the extracted image storage unit 540. FIG. 11A shows display images that are generated every 1/60 seconds and sequentially stored in the frame buffer 520. The frame buffer 520 sequentially starts from the first frame F1 every 1/60 seconds. Is overwritten by the display image generated. The extracted image 90 in the generated display image is stored in the extracted image storage unit 540 shown in FIG.
[0061]
As will be described later, in the present embodiment, a subject image is extracted every three frames among images generated every 1/60 seconds. As illustrated in FIG. 11B, the extracted image storage unit 540 stores extracted images 90 extracted every three frames in order from the storage area 1. That is, the extracted image 90 in the first frame F1 is sequentially stored in the region 1, the extracted image 90 in the fourth frame F4 is sequentially stored in the region 2, and so on. In the example in FIG. 11, the storage area of the extracted image storage unit 540 has an area for storing 32 extracted images 90. When the extracted image 90 is stored in all 32 storage areas, the area 1 is overwritten in order. Note that the method of storing the extracted image in the extracted image storage unit 540 is not limited to this. For example, as shown in FIG. 2 or 3, when 12 display areas are set as the replay display area. May secure data for 12 extracted images and store only displayable images.
[0062]
The image extraction unit 222 having the functions described above executes processing according to the image extraction program 422, and the operation of the image extraction unit 222 follows the flowchart shown in FIG. That is, first, it is determined whether or not a subject (for example, a rectangular parallelepiped object 72 shown in FIG. 7B) exists in the view volume (step S41). If it is determined in step S41 that the subject does not exist in the view volume, the main image extraction is terminated.
[0063]
If it is determined in step S41 that the subject exists in the view volume, it is determined whether or not to extract the image of the subject from the display image in accordance with a preset extraction condition (step S42). In the present embodiment, for example, the extraction condition is set to extract the subject image from the display image every three frames. The extraction condition is not limited to this, and extraction may be performed by setting an extraction timing and determining the timing. Of course, it is possible to extract every frame without performing this determination process. If it is determined in this step S42 that the extraction process is not performed, the main image extraction is terminated.
[0064]
If it is determined in step S42 that the extraction process is to be performed, the image extraction unit 222 performs a process of converting the coordinate value of the subject into the coordinate value of the screen coordinate system (Xs, Ys) (step S43).
[0065]
Next, the image extraction unit 222 determines a subject area with reference to the coordinate values of the upper end, the lower end, the left end, and the right end of the subject converted to the screen coordinate system (Xs, Ys), and the subject. The extraction area is determined according to the aspect ratio of the display area to be displayed (step S44).
[0066]
Next, the image extraction unit 222 extracts an area corresponding to the extraction area determined in step S44 from the display image data stored in the frame buffer 520 (step S45). Then, the size of the extracted image is changed in accordance with the display area (step S46). That is, if the size of the extracted image is smaller than the size of the display area, the extracted image is enlarged, and if the size of the extracted image is larger than the size of the display area, the extracted image is reduced to reduce the extracted image. Change the size of.
[0067]
Next, the extracted image whose size has been changed according to the size of the display area is stored in the extracted image storage unit 540 (step S47), and the image extraction process ends.
[0068]
When the image extraction process in the image extraction unit 222 is completed, it is determined whether or not to display a replay (FIG. 6; step S50). If it is determined in step S50 that the replay screen is not displayed, the process returns to step S10 and the above-described processes are repeated.
[0069]
In step S10, when it is determined to display the replay screen, the display control unit 224 executes a replay display process (step S60).
[0070]
The replay display process in the display control unit 224 displays the extracted image stored in the extracted image storage unit 540 when it is determined to display the replay screen. The display control unit 224 controls display of a plurality of extracted images stored in the extracted image storage unit 540. For example, while controlling to arrange a plurality of stored extracted images and arranging the plurality of extracted images, a predetermined time difference is provided and displayed.
[0071]
The case where the extracted image is displayed in the twelve replay display areas RP1, RP2,..., RP12 shown in FIG. First, 12 images to be displayed in the replay display areas RP1, RP2,..., RP12 are determined from the extracted image storage unit 540. For example, when the latest extracted image stored in the storage area of the extracted image storage unit 540 shown in FIG. 11 is an extracted image stored in the area 32, twelve extracted images dating back from the area 32, that is, The extracted images stored in the areas 21 to 32 are displayed. Specifically, the extracted image stored in the area 21 in the replay display area RP1, the extracted image stored in the area 22 in the replay display area RP2, and the extracted image stored in the area 32 in the replay display area RP12. Is controlled to display according to a predetermined time difference. Note that the method of determining the 12 extracted images to be displayed is not limited to this, and an arbitrary image may be selected from the extracted images stored in the extracted image storage unit 540 and displayed.
[0072]
Then, when the replay display process by the display control unit 224 is finished, this process is finished.
[0073]
The display unit 300 displays game images such as a play screen and a replay screen. The processing unit 200 outputs display image data stored in the frame buffer 520 in the temporary storage unit 500 to the display unit 300.
[0074]
In addition to various processing programs and data, the storage unit 400 stores a game program 420 related to the progress of the game, various game information (not shown) necessary for the progress of the game, and the like. The game program 420 includes, in particular, an image extraction program 422 and a display control program 424 in order to implement the present invention. The processing unit 200 performs various processes based on programs and data read from the storage unit 400.
[0075]
In particular, the temporary storage unit 500 temporarily stores calculation results executed by the game calculation unit 220 according to the game program 420, information input from the operation unit 100, display image data generated by the image generation unit 240, and the like. Stored. The temporary storage unit 500 also temporarily stores the coordinate values of the objects included in the virtual three-dimensional space in the world coordinate system, the viewpoint coordinate system, and the screen coordinate system. The function of the temporary storage unit 500 can be realized by, for example, RAM or VRAM.
[0076]
The temporary storage unit 500 particularly includes a frame buffer 520 that stores image data generated by the image generation unit 240 and an extracted image storage unit 540 that stores an extracted image generated by the image extraction unit 222. Including.
[0077]
In this embodiment, the player's own character operated by the player is set as the subject. However, the present invention is not limited to this, and an arbitrary area in the virtual three-dimensional space can be designated.
[0078]
Next, an example of a hardware configuration capable of realizing the game apparatus 1 in the present embodiment will be described with reference to FIG. In the apparatus shown in FIG. 13, a CPU 1000, a ROM 1002, a RAM 1004, a VRAM 1005, an information storage medium 1006, an image generation IC 1008, a sound generation IC 1010, and I / O ports 1012, 1014 are connected to each other via a system bus 1016 so as to be able to input and output data. Yes. A display device 1018 is connected to the image generation IC 1008, a speaker 1020 is connected to the sound generation IC 1010, a control device 1022 is connected to the I / O port 1012, and a communication device 1024 is connected to the I / O port 1014.
[0079]
The CPU 1000 controls the entire apparatus and performs various data processing in accordance with a program stored in the information storage medium 1006, a system program stored in the ROM 1002 (such as initialization information of the apparatus main body), and a signal input by the control apparatus 1022. Do.
[0080]
The RAM 1004 is a storage unit used as a work area of the CPU 1000, and stores given contents in the information storage medium 1006 and the ROM 1002, the calculation result of the CPU 1000, and the like.
[0081]
The VRAM 1005 corresponds to the temporary storage unit 500 shown in FIG. 4 and is a storage device that temporarily stores display data displayed on the display device 1018. The VRAM 1005 includes a frame buffer (corresponding to the frame buffer 520 shown in FIG. 4) for storing image data for one frame generated by the image generation IC 1008. The frame buffer has a capacity corresponding to the resolution and the number of colors of the display device 1018, and stores color information for each pixel. Further, the VRAM 1005 includes a storage area (for example, an extracted image storage unit 540 shown in FIG. 4) that stores an extracted image extracted from display image data stored in the frame buffer.
[0082]
An information storage medium 1006 mainly stores programs, image data, sound data, play data, etc., and a memory such as a ROM as an information storage medium, a hard disk, a game cassette, an IC card, a magnetic disk, an optical disk, etc. Etc. are used. The function of this information storage medium 1006 corresponds to the storage unit 400 shown in FIG.
[0083]
For example, when the present game device is applied to a home game device, a CD-ROM, game cassette, DVD or the like is used as the information storage medium 1006 for storing the game program 420 shown in FIG. A memory card or the like is used as the storage medium 1006. When applied to an arcade game device, a memory such as a ROM or a hard disk is used as the information storage medium 1006.
[0084]
In addition, the image generation IC 1008 and the sound generation IC 1010 provided in this apparatus can appropriately output sound and images.
[0085]
First, the image generation IC 1008 is an integrated circuit that generates pixel information based on information sent from the ROM 1002, the RAM 1004, the information storage medium 1006, and the like according to a command from the CPU 1000. The The display device 1018 is realized by a CRT, LCD, TV, plasma display, projector, or the like, and corresponds to the display unit 300 illustrated in FIG.
[0086]
The sound generation IC 1010 is an integrated circuit that generates sound signals in accordance with information stored in the information storage medium 1006 and the ROM 1002 and sound data stored in the RAM 1004 according to instructions from the CPU 1000. Output from the speaker 1020.
[0087]
The control device 1022 corresponds to the operation unit 100 shown in FIG. 4 and is a device for the player to input an operation related to the game.
[0088]
The communication device 1024 exchanges information used inside the game device 1 with the outside. The communication device 1024 is connected to other devices via a communication line and is used when transmitting / receiving given information according to a program. The
[0089]
The above-described processing such as game progress processing is realized by the information storage medium 1006 storing the game program 420 shown in FIG. 4 and the like, and the CPU 1000, the image generation IC 1008, the sound generation IC 1010, and the like that operate according to these programs. The CPU 1000 and the image generation IC 1008 correspond to the processing unit 200 shown in FIG. 4, and the CPU 1000 mainly corresponds to the game calculation unit 220 shown in FIG. 4, and the image generation IC 1008 corresponds to the image generation unit 240 shown in FIG. .
[0090]
Note that the processing performed by the image generation IC 1008, the sound generation IC 1010, and the like may be performed by software using the CPU 1000 or a general-purpose DSP. In this case, the CPU 1000 corresponds to the processing unit 200 shown in FIG.
[0091]
Next, FIG. 14 shows an example in which the game apparatus 1 is applied to a home game apparatus. In other words, game controllers 1202 and 1204 and a display 1206 are connected to the game apparatus main body 1200, and a player views a game image displayed on the display 1206 or listens to a game sound output from a speaker (not shown). However, a game is enjoyed by operating characters and the like with the game controllers 1202 and 1204. Furthermore, a CD (DVD) 1208 that is detachable from the game apparatus main body 1200, or an information storage medium such as a memory card 1210 or an IC card 1212, a game program 420 stored in the storage unit 400 shown in FIG. Information such as game data (not shown) is stored, and the game apparatus main body 1200 performs various processes (for example, the processes shown in FIG. 6 or FIG. 12) according to the information. Note that the operation unit 100 shown in FIG. 4 corresponds to the controllers 1202 and 1204, and the display unit 300 corresponds to the display 1206.
[0092]
Further, FIG. 15 shows an example in which the game apparatus 1 is applied to an arcade game apparatus 1100. In this arcade game apparatus 1100, a player operates a character or the like displayed on a display 1108 by operating an operation lever 1104 or an operation button 1106... While listening to a game sound output from a speaker 1102. It is a device to enjoy tennis games. 4 corresponds to the operation lever 1104 or the operation buttons 1106..., And the display unit 300 corresponds to the display 1108.
[0093]
A CPU, an image generation IC, a sound generation IC, and the like are mounted on a system board 1110 built in the arcade game apparatus 1100. The game program 420 shown in FIG. 4, game data (not shown), and the like are stored in a memory 1112 that is an information storage medium on the system board 1110.
[0094]
Further, as shown in FIG. 16, the game apparatus 1 is applied to a game apparatus including a host apparatus 1300 and terminals 1304-1 to 1304-n connected to the host apparatus 1300 via a communication line 1302. It is good to do. The terminals 1304-1 to 1304-n are devices capable of at least displaying game images, outputting game sounds, and inputting game operations, and the player can select any of the terminals 1304-1 to 1304-n. Enjoy a tennis game.
[0095]
In this case, information such as the game program 420 shown in FIG. 4 and game data (not shown) is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300, for example. When the terminals 1304-1 to 1304-n have a CPU, an image generation IC, and a sound generation IC and can generate game images and game sounds stand-alone, they are stored in the information storage medium 1306 from the host device 1300. Programs, data, and the like are distributed to the terminals 1304-1 to 1304-n via the communication line 1302, and game images and game sounds are generated at the terminals 1304-1 to 1304-n. On the other hand, when a game image or game sound cannot be generated stand-alone, the host device 1300 generates a game image or game sound and distributes the game image or game sound to the terminals 1304-1 to 1304-n. The terminals 1304-1 to 1304-n output the generated or distributed game images and game sounds, respectively.
[0096]
As mentioned above, although an example of the game device to which this invention is applied was demonstrated, this invention is not limited to the said embodiment, In the range which does not deviate from the meaning of this invention, it can change suitably.
[0097]
For example, when a predetermined parameter is set in advance for an object to be a subject and it is determined whether or not to perform processing for extracting an extracted image from a display image, whether or not extraction is performed by determining the parameter is determined. It may be determined. For example, if a person object is specified as a subject and a parameter of emotion is set for this person object, the parameter of the subject is determined so that the facial expression of the subject displayed on the display image is, for example, a smile. It is also possible to perform an extraction process.
[0098]
In the present embodiment, as shown in FIG. 2 or FIG. 3, twelve replay display areas RP1, PR2,... RP12 are set as the display area of the extracted image, and the replay display areas RP1, PR2,. .. The replay screen is produced by displaying the extracted image according to a predetermined time difference on RP12, but the replay display area RP20 is sequentially updated with the extracted image every time t as in the replay screen shown in FIG. It is good also as producing a replay screen by doing. In other words, the display control unit 224 first sets the replay display area RP20 for displaying the extracted images, and determines the extracted images to be displayed and their order at the replay display timing. Then, the display of the extracted image is controlled such that the first extracted image is displayed in the replay display area RP20, and the second extracted image is displayed in the replay display area RP20 when the time t has elapsed.
[0099]
Moreover, it is good also as producing a replay screen as shown in FIG. In this case, the display control unit 224 sets each replay display area RP30 so that a plurality of extracted images to be displayed on the replay screen slide, and sequentially displays the extracted images based on a predetermined time difference at the replay display timing. As described above, the display of the extracted image may be controlled.
[0100]
Furthermore, as shown in FIG. 19, the sizes of the replay display areas RP40 to RP45 set on the replay screen may all be different. That is, the size of the area for displaying the extracted image set by the display control unit 224 is arbitrary, and the size of the extracted image to be extracted and stored is determined according to the size of each replay display area, so that it can be displayed during replay. It is possible to produce a replay screen in which the sizes of a plurality of extracted images are different.
[0101]
In the present embodiment, the image extracted from the display image is stored in the extracted image storage unit 540. However, for example, a process of changing the degree of the blur, noise, lightness, or the like or the α value for the extracted image. Alternatively, the image may be stored in the extracted image storage unit 540 after being processed by various filters such as deformation processing such as rotation or distortion. Further, at this time, the filter parameters set in the filter may be changed according to each extracted image and stored. According to this, for example, it is possible to produce a replay screen as if the extracted image is faded in or faded out. Further, the display order of the extracted images may be determined according to this filter parameter.
[0102]
In the above embodiment, the case where the present invention is applied to a tennis game has been described as an example. However, the present invention includes, for example, various sports games such as baseball games and golf games, fighting games, simulation games, and the like. It can also be applied to other various games.
[0103]
【The invention's effect】
According to the present invention, the size of the extracted image extracted from the display image is determined according to the aspect ratio of the display area on which the extracted image is displayed on the replay screen, and the extracted image is scaled to match the size of the display area. And save. According to this, when displaying the extracted image, it is only necessary to read out the stored extracted image, and no special processing is required. For example, by designating a character or the like to be replayed as a subject, it is possible to reproduce the motion of the character only by performing display processing of the extracted image to be stored or processing for controlling this display.
[0104]
At this time, by storing a plurality of images of the subject area of the image once displayed on the display screen as a game image, various effects such as replay, reverse display, etc. can be performed using the plurality of images. It becomes possible. Further, when displaying, it is possible to produce effects such as sequentially displaying image data by frame advance based on a preset time difference, or dividing a display screen to display a plurality of image data on one screen.
[Brief description of the drawings]
FIG. 1 is a diagram showing an example of a play screen in the present embodiment.
FIG. 2 is a diagram showing an example of a replay screen in the present embodiment.
FIG. 3 is a diagram showing an example of a replay screen in the present embodiment.
FIG. 4 is a diagram illustrating an example of functional blocks of the game device according to the present embodiment.
FIG. 5 is a diagram for explaining processing for generating a display image;
FIG. 6 is a flowchart illustrating an example of an operation of a processing unit in the present embodiment.
7A is a diagram illustrating an example of a virtual three-dimensional space, and FIG. 7B is a diagram illustrating an example of a rectangular parallelepiped object set as a subject.
8A is a diagram illustrating an example of a subject converted into a screen coordinate system, and FIG. 8B is a diagram illustrating an example of a display area of an extracted image.
9A is a diagram illustrating an example of a display image stored in a frame buffer, and FIG. 9B is a diagram illustrating an example of an extracted image stored in an extracted image storage unit.
FIG. 10 is a diagram for explaining bilinear filtering.
FIG. 11 is a diagram for explaining processing for storing an extracted image in an extracted image storage unit;
FIG. 12 is a flowchart illustrating an example of image extraction processing in the present embodiment.
FIG. 13 is a diagram illustrating an example of a hardware configuration according to the present embodiment.
FIG. 14 is a diagram showing a case where the present game device is applied to a commercial game machine.
FIG. 15 is a diagram showing a case where the present game device is applied to a consumer game machine.
FIG. 16 is a diagram showing a case where the present game device is applied to a terminal connected to a host device via a communication line.
FIG. 17 is a diagram for explaining an example of a replay screen rendering method;
FIG. 18 is a diagram for explaining an example of a replay screen rendering method;
FIG. 19 is a diagram for explaining an example of a replay screen rendering method;
[Explanation of symbols]
1 Game device
100 operation unit
200 processor
220 Game calculation unit
222 Image extraction unit
224 display controller
240 Image generator
300 Display section
400 storage unit
420 game programs
422 Image extraction program
424 Display control program
500 Temporary storage
520 frame buffer
540 Extracted image storage unit

Claims (15)

プロセッサによる演算・制御により、該プロセッサを有する装置を、所与の視点に基づく仮想空間の画像を生成する生成手段として機能させてゲームを実行させるためのプログラムであって、
被写体を設定する設定手段、
前記生成手段により生成された画像をフレーム画像として記憶する第1の記憶手段、
前記仮想空間中の被写体の位置に対応する、前記フレーム画像中の被写体の位置を、前記視点に基づく座標変換により算出する算出手段、
前記算出手段による算出結果に基づいて前記フレーム画像の中から抽出領域を決定し、当該抽出領域の画像を抽出する抽出手段、
前記抽出手段により抽出された抽出画像を記憶する第2の記憶手段、
前記第2の記憶手段に記憶された抽出画像を含む、ゲームの再現画像を生成する再現手段、
として前記装置を機能させるためのプログラム。
A program for causing a device having the processor to function as a generation unit for generating an image of a virtual space based on a given viewpoint by calculation and control by the processor to execute a game,
Setting means for setting the subject,
First storage means for storing the image generated by the generation means as a frame image;
Calculating means for calculating the position of the subject in the frame image corresponding to the position of the subject in the virtual space by coordinate conversion based on the viewpoint;
Extraction means for determining an extraction area from the frame image based on a calculation result by the calculation means, and extracting an image of the extraction area;
Second storage means for storing the extracted image extracted by the extraction means;
Reproduction means for generating a reproduction image of a game including the extracted image stored in the second storage means;
A program for causing the apparatus to function as
プロセッサによる演算・制御により、該プロセッサを有する装置を、所与の視点に基づく仮想空間の画像を生成する生成手段として機能させてゲームを実行させるためのプログラムであって、
前記生成手段により生成された画像をフレーム画像として記憶する第1の記憶手段、
前記フレーム画像の中から抽出領域を決定し、当該抽出領域の画像を抽出する抽出手段、
前記抽出手段により抽出された抽出画像を記憶する第2の記憶手段、
ゲームの再現画像として、動画像を表示する動画像表示領域と静止画像を表示する静止画像表示領域とが1つの画面中に設けられた再現画像を生成するとともに、前記第2の記憶手段に記憶された抽出画像を前記静止画像表示領域に表示した再現画像を生成する再現手段、
として前記装置を機能させるためのプログラム。
A program for causing a device having the processor to function as a generation unit for generating an image of a virtual space based on a given viewpoint by calculation and control by the processor to execute a game,
First storage means for storing the image generated by the generation means as a frame image;
Extracting means for determining an extraction region from the frame image and extracting an image of the extraction region;
Second storage means for storing the extracted image extracted by the extraction means;
As a game reproduction image, a reproduction image in which a moving image display area for displaying a moving image and a still image display area for displaying a still image are provided in one screen is generated and stored in the second storage means Reproduction means for generating a reproduction image in which the extracted image is displayed in the still image display area;
A program for causing the apparatus to function as
請求項において、
被写体を設定する設定手段、
前記仮想空間中の被写体の位置に対応する、前記フレーム画像中の被写体の位置を、前記視点に基づく座標変換により算出する算出手段、
として前記装置を更に機能させ、
前記抽出手段が、前記算出手段による算出結果に基づいて抽出領域を決定するように前記装置を機能させるためのプログラム。
In claim 2 ,
Setting means for setting the subject,
Calculating means for calculating the position of the subject in the frame image corresponding to the position of the subject in the virtual space by coordinate conversion based on the viewpoint;
To further function the device as
A program for causing the extraction unit to function the apparatus so as to determine an extraction region based on a calculation result by the calculation unit.
プロセッサによる演算・制御により、該プロセッサを有する装置を、所与の視点に基づく仮想空間の画像を生成する生成手段として機能させてゲームを実行させるためのプログラムであって、  A program for causing a device having the processor to function as a generation unit that generates an image of a virtual space based on a given viewpoint, and to execute a game by calculation and control by the processor,
被写体を設定する設定手段、  Setting means for setting the subject,
前記生成手段により生成された画像をフレーム画像として記憶する第1の記憶手段、  First storage means for storing the image generated by the generation means as a frame image;
前記仮想空間中の前記設定された被写体の位置に対応する、前記フレーム画像中の当該被写体の位置を、前記視点に基づく座標変換により算出する算出手段、  Calculating means for calculating the position of the subject in the frame image corresponding to the set position of the subject in the virtual space by coordinate conversion based on the viewpoint;
前記設定された被写体の所与のパラメータに基づいて抽出する時期か否かを判定する抽出時期判定手段、  Extraction time determination means for determining whether it is time to extract based on given parameters of the set subject,
前記抽出時期判定手段により抽出時期と判定された場合に、当該判定された時期に対応するフレーム画像の中から前記算出手段による算出結果に基づいて抽出領域を決定し、当該抽出領域の画像を抽出する抽出手段、  When the extraction time is determined by the extraction time determination unit, an extraction region is determined based on a calculation result by the calculation unit from the frame image corresponding to the determined time, and an image of the extraction region is extracted Extraction means to
前記抽出手段により抽出された抽出画像を記憶する第2の記憶手段、  Second storage means for storing the extracted image extracted by the extraction means;
前記第2の記憶手段に記憶された抽出画像を含む、ゲームの再現画像を生成する再現手段、  Reproduction means for generating a reproduction image of a game including the extracted image stored in the second storage means;
として前記装置を機能させるためのプログラム。  A program for causing the apparatus to function as
請求項1、3又は4において、
前記抽出手段が、前記フレーム画像中の前記被写体の大きさに応じて、抽出領域を決定するように前記装置を機能させるためのプログラム。
In claim 1 , 3 or 4,
A program for causing the extraction unit to function the apparatus so as to determine an extraction region in accordance with the size of the subject in the frame image.
請求項1、3、4又は5において、
前記第2の記憶手段に記憶する抽出画像のサイズを設定するサイズ設定手段として前記装置を機能させ、
前記抽出手段が、前記サイズ設定手段により設定された抽出画像のサイズの縦横比に基づいて抽出領域の縦横比を決定するように前記装置を機能させるためのプログラム。
In claim 1, 3, 4 or 5,
Causing the apparatus to function as size setting means for setting the size of the extracted image stored in the second storage means;
A program for causing the apparatus to function so that the extraction unit determines an aspect ratio of an extraction region based on an aspect ratio of a size of an extracted image set by the size setting unit.
請求項6において、
前記サイズ設定手段が、前記抽出画像の縦サイズを前記フレーム画像の縦サイズの整数分の1とする、及び/又は、前記抽出画像の横サイズを前記フレーム画像の横サイズの整数分の1とする、ように前記装置を機能させるためのプログラム。
In claim 6,
The size setting means sets the vertical size of the extracted image to 1 / integer of the vertical size of the frame image, and / or sets the horizontal size of the extracted image to 1 / integer of the horizontal size of the frame image. A program for causing the apparatus to function.
請求項1〜7の何れかにおいて、
前記抽出手段により抽出された抽出画像を所与の大きさに拡縮する拡縮手段として前記装置を機能させ、
前記第2の記憶手段が、前記拡縮手段により拡縮された抽出画像を記憶するように前記装置を機能させるためのプログラム。
In any one of Claims 1-7,
Causing the apparatus to function as an enlargement / reduction means that enlarges / reduces the extracted image extracted by the extraction means to a given size;
A program for causing the apparatus to function so that the second storage unit stores the extracted image scaled by the scaling unit.
請求項1〜8の何れか記載のプログラムを記憶する情報記憶媒体。  An information storage medium for storing the program according to claim 1. 所与の視点に基づく仮想空間の画像を生成する生成手段を備えるゲーム装置であって、
被写体を設定する設定手段と、
前記生成手段により生成された画像をフレーム画像として記憶する第1の記憶手段と、
前記仮想空間中の被写体の位置に対応する、前記フレーム画像中の被写体の位置を、前記視点に基づく座標変換により算出する算出手段と、
前記算出手段による算出結果に基づいて前記フレーム画像の中から抽出領域を決定し、当該抽出領域の画像を抽出する抽出手段と、
前記抽出手段により抽出された抽出画像を記憶する第2の記憶手段と、
前記第2の記憶手段に記憶された抽出画像を含む、ゲームの再現画像を生成する再現手段と、
を備えるゲーム装置。
A game device comprising a generation means for generating an image of a virtual space based on a given viewpoint,
Setting means for setting the subject;
First storage means for storing the image generated by the generation means as a frame image;
Calculating means for calculating the position of the subject in the frame image corresponding to the position of the subject in the virtual space by coordinate conversion based on the viewpoint;
Extracting means for determining an extraction area from the frame image based on a calculation result by the calculation means, and extracting an image of the extraction area;
Second storage means for storing the extracted image extracted by the extraction means;
Reproduction means for generating a reproduction image of the game including the extracted image stored in the second storage means;
A game device comprising:
所与の視点に基づく仮想空間の画像を生成する生成手段を備えるゲーム装置であって、
前記生成手段により生成された画像をフレーム画像として記憶する第1の記憶手段と、
前記フレーム画像の中から抽出領域を決定し、当該抽出領域の画像を抽出する抽出手段と、
前記抽出手段により抽出された抽出画像を記憶する第2の記憶手段と、
ゲームの再現画像として、動画像を表示する動画像表示領域と静止画像を表示する静止画像表示領域とが1つの画面中に設けられた再現画像を生成するとともに、前記第2の記憶手段に記憶された抽出画像を前記静止画像表示領域に表示した再現画像を生成する再現手段と、
を備えるゲーム装置。
A game device comprising a generation means for generating an image of a virtual space based on a given viewpoint,
First storage means for storing the image generated by the generation means as a frame image;
Extracting means for determining an extraction region from the frame image and extracting an image of the extraction region;
Second storage means for storing the extracted image extracted by the extraction means;
As a game reproduction image, a reproduction image in which a moving image display area for displaying a moving image and a still image display area for displaying a still image are provided in one screen is generated and stored in the second storage means Reproduction means for generating a reproduction image in which the extracted image is displayed in the still image display area;
A game device comprising:
請求項11において、
被写体を設定する設定手段と、
前記仮想空間中の被写体の位置に対応する、前記フレーム画像中の被写体の位置を、前記視点に基づく座標変換により算出する算出手段と、
を備え、
前記抽出手段が、前記算出手段による算出結果に基づいて抽出領域を決定するゲーム装置。
In claim 11 ,
Setting means for setting the subject;
Calculating means for calculating the position of the subject in the frame image corresponding to the position of the subject in the virtual space by coordinate conversion based on the viewpoint;
With
A game apparatus in which the extraction unit determines an extraction region based on a calculation result by the calculation unit.
所与の視点に基づく仮想空間の画像を生成する生成手段を備えるゲーム装置であって、  A game device comprising a generation means for generating an image of a virtual space based on a given viewpoint,
被写体を設定する設定手段と、  Setting means for setting the subject;
前記生成手段により生成された画像をフレーム画像として記憶する第1の記憶手段と、  First storage means for storing the image generated by the generation means as a frame image;
前記仮想空間中の前記設定された被写体の位置に対応する、前記フレーム画像中の当該被写体の位置を、前記視点に基づく座標変換により算出する算出手段と、  Calculating means for calculating the position of the subject in the frame image corresponding to the set position of the subject in the virtual space by coordinate conversion based on the viewpoint;
前記設定された被写体の所与のパラメータに基づいて抽出する時期か否かを判定する抽出時期判定手段と、  Extraction time determination means for determining whether it is time to extract based on a given parameter of the set subject;
前記抽出時期判定手段により抽出時期と判定された場合に、当該判定された時期に対応するフレーム画像の中から前記算出手段による算出結果に基づいて抽出領域を決定し、当該抽出領域の画像を抽出する抽出手段と、  When the extraction time is determined by the extraction time determination unit, an extraction region is determined based on a calculation result by the calculation unit from the frame image corresponding to the determined time, and an image of the extraction region is extracted Extraction means to
前記抽出手段により抽出された抽出画像を記憶する第2の記憶手段と、  Second storage means for storing the extracted image extracted by the extraction means;
前記第2の記憶手段に記憶された抽出画像を含む、ゲームの再現画像を生成する再現手段と、  Reproduction means for generating a reproduction image of the game including the extracted image stored in the second storage means;
を備えるゲーム装置。  A game device comprising:
請求項10、12又は13において、
前記抽出手段が、前記フレーム画像中の前記被写体の大きさに応じて、抽出領域を決定するゲーム装置。
In claim 10 , 12 or 13,
A game device in which the extraction means determines an extraction area according to the size of the subject in the frame image.
請求項10、12、13又は14において、
前記第2の記憶手段に記憶する抽出画像のサイズを設定するサイズ設定手段を備え、
前記抽出手段が、前記サイズ設定手段により設定された抽出画像のサイズの縦横比に基づいて抽出領域の縦横比を決定するゲーム装置。
In claim 10, 12, 13 or 14,
Size setting means for setting the size of the extracted image stored in the second storage means;
A game apparatus in which the extraction unit determines an aspect ratio of an extraction region based on an aspect ratio of a size of an extracted image set by the size setting unit.
JP2001237090A 2001-08-03 2001-08-03 Program, information storage medium, and game device Expired - Fee Related JP3643796B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001237090A JP3643796B2 (en) 2001-08-03 2001-08-03 Program, information storage medium, and game device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001237090A JP3643796B2 (en) 2001-08-03 2001-08-03 Program, information storage medium, and game device

Publications (2)

Publication Number Publication Date
JP2003051032A JP2003051032A (en) 2003-02-21
JP3643796B2 true JP3643796B2 (en) 2005-04-27

Family

ID=19068229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001237090A Expired - Fee Related JP3643796B2 (en) 2001-08-03 2001-08-03 Program, information storage medium, and game device

Country Status (1)

Country Link
JP (1) JP3643796B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4680670B2 (en) * 2005-05-12 2011-05-11 株式会社バンダイナムコゲームス Program, information storage medium, and image generation system
JP2006318388A (en) * 2005-05-16 2006-11-24 Namco Bandai Games Inc Program, information storage medium, and image forming system
JP5073965B2 (en) * 2006-05-25 2012-11-14 株式会社バンダイナムコゲームス PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
US9079104B2 (en) 2006-06-26 2015-07-14 Sony Computer Entertainment America Llc Creation of game-based scenes
CN101490738A (en) * 2006-08-02 2009-07-22 松下电器产业株式会社 Video image display device and video image display method
CN113476836B (en) * 2021-06-30 2024-03-22 广州方硅信息技术有限公司 Game picture display method, game picture display device, electronic equipment and readable storage medium

Also Published As

Publication number Publication date
JP2003051032A (en) 2003-02-21

Similar Documents

Publication Publication Date Title
JP3668019B2 (en) Recording medium, image processing apparatus, and image processing method
KR100229375B1 (en) Game device and method of replaying game
JP3372832B2 (en) GAME DEVICE, GAME IMAGE PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING GAME IMAGE PROCESSING PROGRAM
US6677967B2 (en) Video game system for capturing images and applying the captured images to animated game play characters
US6256047B1 (en) Method of judging hits and computer-readable storage medium storing game data
TWI300200B (en) Display apparatus, display method, and information recording medium
EP1808207B1 (en) Storage medium having game program stored thereon and game apparatus
EP0652524A1 (en) Image processing device and method
US20020002077A1 (en) Image synthesis for a video game
JP3853329B2 (en) GAME PROGRAM AND GAME DEVICE
JP4917346B2 (en) Game image processing program and game image processing apparatus
JP3625184B2 (en) 3D image processing method and apparatus for game, readable recording medium recording game 3D image processing program, and video game apparatus
JP3338021B2 (en) Three-dimensional image processing device and readable recording medium storing three-dimensional image processing program
US6878058B1 (en) Image processor and game device with image processor
JP3643796B2 (en) Program, information storage medium, and game device
JP3990258B2 (en) Image generation system, program, and information storage medium
JP4447000B2 (en) Image generation system, program, and information storage medium
JP4502678B2 (en) Program, information storage medium, and image generation system
JP2002336542A (en) Videogame device, videogame screen control program, and its recording medium
JP2002163671A (en) Game system, program and information storage medium
JP2000093654A (en) Game device, method of playing the game and data memory medium
JP4054708B2 (en) GAME DEVICE AND GAME PROGRAM
JP3706545B2 (en) Image generation method and program used therefor
JP4447417B2 (en) GAME DEVICE, PROGRAM, AND COMPUTER CONTROL METHOD
JP3183636B2 (en) Three-dimensional game device and information storage medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050131

R150 Certificate of patent or registration of utility model

Ref document number: 3643796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080204

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080204

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090204

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090204

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100204

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100204

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100204

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110204

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110204

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120204

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120204

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130204

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130204

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130204

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees