JP2004000368A - Game apparatus and game program - Google Patents

Game apparatus and game program Download PDF

Info

Publication number
JP2004000368A
JP2004000368A JP2002161148A JP2002161148A JP2004000368A JP 2004000368 A JP2004000368 A JP 2004000368A JP 2002161148 A JP2002161148 A JP 2002161148A JP 2002161148 A JP2002161148 A JP 2002161148A JP 2004000368 A JP2004000368 A JP 2004000368A
Authority
JP
Japan
Prior art keywords
game
player character
reduced map
player
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002161148A
Other languages
Japanese (ja)
Other versions
JP3839355B2 (en
Inventor
Yoshiaki Koizumi
小泉 歓晃
Takeshi Hayakawa
早川 毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2002161148A priority Critical patent/JP3839355B2/en
Publication of JP2004000368A publication Critical patent/JP2004000368A/en
Application granted granted Critical
Publication of JP3839355B2 publication Critical patent/JP3839355B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent the operability of a game player from being disturbed even if a contracted map is displayed in a game screen. <P>SOLUTION: A CPU and a GPU display the game screen including a player character, an opponent character, a topographical objects, items, and the like on a monitor according to respective object data and texture data. The CPU determines the moving speed of the player character according to the displacement distance of an analog joystick (steps S39, S43, S47, and S49). The CPU and the GPU display the contracted map on the game screen and then, the transparency of the contracted map is set according to the moving distance (step S129). <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【産業上の利用分野】
この発明はゲーム装置およびゲームプログラムに関し、特にたとえばゲーム空間内におけるプレイヤキャラクタの位置を示すための縮小マップをゲーム画面上に表示するゲーム装置、およびそれのためのゲームプログラムに関する。
【0002】
【従来の技術】
2次元/3次元のゲーム空間内をキャラクタが動きまわるようなアクションゲームやシューティングゲームなどがある。このようなゲームでは、自己のキャラクタ(プレイヤキャラクタ:ゲームプレイヤの操作に応答して移動し、動作するキャラクタ)を中心とする比較的狭い範囲のゲーム空間が通常のゲーム画面としてテレビまたはモニタに表示されている。
【0003】
このような狭いゲーム空間を表示する場合には、ゲームプレイヤは、比較的簡単に、プレイヤキャラクタや敵キャラクタあるいは他のオブジェクトの位置関係を把握できるが、そのゲーム画面には表示されない他のキャラクタやオブジェクトとプレイヤキャラクタとの位置関係の把握は容易ではない。なぜなら、他のキャラクタやオブジェクトが表示されていないからである。
【0004】
そこで、いくつかのゲーム装置では、ゲーム空間におけるプレイヤキャラクタの位置や敵キャラクタの位置をゲームプレイヤに容易に把握させるために、ゲーム空間の広い範囲(通常の1つのゲーム画面では表示できない範囲)におけるそれぞれのキャラクタ(オブジェクト)の位置を示すための縮小マップ(またはレーダ画面)を、通常のゲーム画面に重ねて表示することが行われている。したがって、ゲームプレイヤは、その縮小マップまたはレーダ画面を見ることによって、広いゲーム空間内でのプレイヤキャラクタや敵キャラクタあるいは他のオブジェクトの位置関係を比較的簡単に把握できる。
【0005】
【発明が解決しようとする課題】
しかしながら、縮小マップまたはレーダ画面を表示する場合、特にプレイヤキャラクタが比較的速い速度で移動するとき、すなわち背景が速い速度で移動して行くときには、ゲームプレイヤが画面上に表示される多くの情報を読み取ることは非常に困難で、縮小マップの表示がむしろ邪魔になってしまうという問題がある。
【0006】
また、縮小マップが自己のプレイヤキャラクタの移動方向に表示されているときは、そのプレイヤキャラクタの移動方向がその縮小マップに隠蔽されてしまうので、ゲームプレイヤがプレイヤキャラクタの移動先の様子を把握しにくいという別の問題もある。
【0007】
それゆえに、この発明の主たる目的は、新規なビデオゲーム装置およびゲームプログラムを提供することである。
【0008】
この発明の他の目的は、縮小マップまたはレーダ画面もしくはその類似物をゲーム画面中に表示しても、ゲームプレイヤの操作性を損なうことのない、ビデオゲーム装置およびゲームプログラムを提供することである。
【0009】
【課題を解決するための手段】
第1の発明は、ゲーム空間内のプレイヤキャラクタの位置を示すための縮小マップをゲーム画面上に表示するゲーム装置であって、プレイヤの操作に応じて、ゲーム空間におけるプレイヤキャラクタの移動速度を決定する移動速度決定手段、および移動速度に応じた透明度で縮小マップをゲーム画面上に描画する縮小マップ描画手段を備える、ゲーム装置である。
【0010】
第2の発明は、ゲーム空間内のプレイヤキャラクタの位置を示すための縮小マップをゲーム画面上に表示するゲーム装置において、ゲームプロセサに、プレイヤの操作に応じて、ゲーム空間におけるプレイヤキャラクタの移動速度を決定する移動速度決定ステップ、および移動速度に応じた透明度で縮小マップをゲーム画面上に描画する縮小マップ描画ステップを実行させるためのゲームプログラムである。
【0011】
第3の発明は、ゲーム空間内のプレイヤキャラクタの位置を示すための縮小マップをゲーム画面上に表示するゲーム装置において、プレイヤの操作に応じて、ゲーム空間におけるプレイヤキャラクタの移動速度を決定する移動速度決定ステップ、および移動速度に応じた透明度で縮小マップをゲーム画面上に描画する縮小マップ描画ステップを含むゲーム表示方法。
【0012】
【作用】
実施例でいえばゲーム機がゲーム装置に相当し、このゲーム機(12)は、ゲームプロセサとして機能するCPU(36)および描画手段の一部を構成するGPU(42)を含む。CPUで実行されるべきゲームプログラムは、オブジェクトデータやテクスチャデータとともに、たとえば光ディスク(18)からメインメモリ(40)にローディングされる。したがって、CPUはゲームプログラムに従ってゲームを実行し、CPUおよびGPUは、各オブジェクトデータおよびテクスチャデータに従って、モニタ(34)上にプレイヤキャラクタ、敵キャラクタ、地形オブジェクト、アイテム等を含むゲーム画像すなわちゲーム画面(34A)を表示する。
【0013】
ゲームプレイヤがコントローラ(22)のたとえばアナログジョイスティックを操作することによって、CPUはプレイヤキャラクタを、そのアナログジョイスティックが示す方向に移動させる。CPUは、このとき、そのアナログジョイスティックの操作量または変位量に応じて、プレイヤキャラクタの移動速度を決定する(ステップS39,S43,S47,S49:図6)。そして、CPUおよびGPUは、メインメモリから読み出した縮小マップテクスチャデータ(必要に応じて、矢印テクスチャデータ)を用いて、ゲーム画面上に縮小マップ(86)を表示するが、このとき、縮小マップの透明度が上記移動距離に応じて設定される。具体的には、プレイヤキャラクタの移動速度が大きいほど縮小マップの透明度を大きくする(ステップS129:図12)。したがって、プレイヤキャラクタが速く移動するときでも、縮小マップがゲームプレイヤの視界を邪魔することがない。
【0014】
なお、CPUがプレイヤキャラクタの移動方向を決定する(ステップS33:図6)場合には、縮小マップはその移動方向とは異なるゲーム画面上の位置に描画される。そのため、プレイヤキャラクタの移動方向における様子が縮小マップによって隠されることはない。
【0015】
同じように、プレイヤキャラクタの移動方向を決定する場合には、縮小マップ内に、メインメモリから読み出した矢印テクスチャに従って、方向指示記号(たとえば矢印88:図13)を併せて表示するようにしてもよい。
【0016】
【発明の効果】
この発明によれば、プレイヤキャラクタの移動速度に応じた透明度で縮小マップ(またはケーレーダ画面)を表示するので、縮小マップまたはレーダ画面もしくはその類似物をゲーム画面中に表示しても、ゲームプレイヤの操作性を損なうことがない。
【0017】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0018】
【実施例】
図1に示す実施例のビデオゲームシステム10はビデオゲーム機(以下、単に「ゲーム機」という。)12を含む。このゲーム機12には電源が与えられるが、この電源は、実施例では、一般的なACアダプタ(図示せず)であってよい。ACアダプタは家庭用の標準的な壁ソケットに差し込まれ、家庭用電源を、ゲーム機12を駆動するのに適した低いDC電圧信号に変換する。他の実施例では、電源として、バッテリが用いられてもよい。
【0019】
ゲーム機12は、略立方体のハウジング14を含み、ハウジング14の上端には光ディスクドライブ16が設けられる。光ディスクドライブ16には、ゲームプログラムを記憶した情報記憶媒体の一例である光ディスク18が装着される。ハウジング14の前面には複数の(実施例では4つの)コネクタ20が設けられる。これらコネクタ20は、ケーブル24によって、コントローラ22をゲーム機12に接続するためのものであり、この実施例では最大4つのコントローラをゲーム機12に接続することができる。
【0020】
コントローラ22には、その上面,下面,あるいは側面などに、操作手段(コントロール)26が設けられる。操作手段26は,たとえば2つのアナログジョイスティック,1つの十字キー,複数のボタンスイッチ等を含む。1つのアナログジョイスティックは、スティックの傾き量と方向とによって、プレイヤキャラクタ(プレイヤがコントローラ22によって操作可能な動画キャラクタ)の移動方向および/または移動速度ないし移動量などを入力するために用いられる。他のアナログジョイスティックは、傾斜方向によって、仮想カメラの移動を制御する。十字スイッチは、アナログジョイスティックに代えてプレイヤキャラクタの移動方向を指示するために用いられる。ボタンスイッチは、プレイヤキャラクタの動作を指示するために利用されたり、3次元画像の仮想カメラの視点を切り換えたり、プレイヤキャラクタの移動スピード調節等に用いられる。ボタンスイッチは、さらに、たとえばメニュー選択やポインタあるいはカーソル移動を制御する。
【0021】
なお、実施例ではコントローラ22がケーブル24によってゲーム機12に接続された。しかしながら、コントローラ22は、他の方法、たとえば電磁波(たとえば電波または赤外線)を介してワイヤレスで、ゲーム機12に接続されてもよい。また、コントローラ22の操作手段の具体的構成は、もちろん実施例の構成に限られるものではなく、任意の変形が可能である。たとえば、アナログジョイスティックは1つだけでもよいし、用いられなくてもよい。十字スイッチは用いられなくてもよい。
【0022】
ゲーム機12のハウジング14の前面のコネクタ20の下方には、少なくとも1つの(実施例では2つの)メモリスロット28が設けられる。このメモリスロット28にはメモリカード30が挿入される。メモリカード30は、光ディスク18から読み出したゲームプログラムや表示用データ(図3参照)をローディングして一時的に記憶したり、このゲームシステム10を利用してプレイしたゲームのゲームデータ(たとえばゲームの結果)をセーブしておくために利用される。
【0023】
ゲーム機12のハウジング14の後面には、AVケーブルコネクタ(図示せず)が設けられ、そのコネクタを用いて、AVケーブル32を通してゲーム機12にモニタ34を接続する。このモニタ34は典型的にはカラーテレビジョン受像機であり、AVケーブル32は、ゲーム機12からの映像信号をカラーテレビのビデオ入力端子に入力し、音声信号を音声入力端子に与える。したがって、カラーテレビ(モニタ)34の画面上にたとえば3次元(3D)ビデオゲームのゲーム画像が表示され、左右のスピーカからゲーム音楽や効果音などのステレオゲーム音声が出力され得る。
【0024】
このゲームシステム10において、ユーザまたはゲームプレイヤがゲーム(または他のアプリケーション)をプレイするために、ユーザはまずゲーム機12の電源をオンし、次いで、ユーザはビデオゲーム(もしくはプレイしたいと思う他のアプリケーション)をストアしている適宜の光ディスク18を選択し、その光ディスク18をゲーム機12のディスクドライブ16にローディングする。応じて、ゲーム機12がその光ディスク18にストアされているソフトウェアに基づいてビデオゲームもしくは他のアプリケーションを実行し始めるようにする。ユーザはゲーム機12に入力を与えるためにコントローラ22を操作する。たとえば、操作手段26のどれかを操作することによってゲームもしくは他のアプリケーションをスタートさせる。操作手段26の他のものを動かすことによって、動画キャラクタ(プレイヤキャラクタ)を異なる方向に移動させ、または3次元(3D)のゲーム世界におけるユーザの視点(カメラ位置)を変化させることができる。
【0025】
図2は図1実施例のビデオゲームシステム10の構成を示すブロック図である。ビデオゲーム機12には、このゲーム機の全体的な制御を担当する中央処理ユニット(以下、「CPU」という。)36が設けられる。CPU36はゲームプロセサとして機能し、このCPU36には、バスを介して、メモリコントローラ38が結合される。メモリコントローラ38は主として、CPU36の制御の下で、バスを介して結合されるメインメモリ40の書込みや読出しを制御する。このメモリコントローラ38にはGPU(Graphics Processing Unit:グラフィックス処理装置)42が結合される。
【0026】
GPU42は、描画手段の一部を形成し、たとえばシングルチップASICで構成され、メモリコントローラ38を介してCPU36からのグラフィクスコマンド(graphics command:作画命令)を受け、そのコマンドに従って、ジオメトリユニット44およびレンダリングユニット46によって3次元(3D)ゲーム画像を生成する。つまり、ジオメトリユニット44は、3次元座標系の各種キャラクタやオブジェクト(複数のポリゴンで構成されている。そして、ポリゴンとは少なくとも3つの頂点座標によって定義される多角形平面をいう)の回転,移動,変形等の座標演算処理を行う。レンダリングユニット46は、各種オブジェクトの各ポリゴンにテクスチャ(Texture:模様画像)を張り付ける(レンダリングする)。したがって、GPU42によって、ゲーム画面上に表示すべき3D画像データが作成され、その画像データ(テクスチャデータ)がフレームバッファ48内に描画(記憶)される。なお、GPU42が作画コマンドを実行するにあたって必要なデータ(プリミティブまたはポリゴンやテクスチャ等)は、GPU42がメモリコントローラ38を介して、メインメモリ40から入手する。
【0027】
フレームバッファ48は、たとえばラスタスキャンモニタ34の1フレーム分の画像データを描画(蓄積)しておくためのメモリであり、GPU42によって1フレーム毎に書き換えられる。後述のビデオI/F58がメモリコントローラ38を介してフレームバッファ48のデータを読み出すことによって、モニタ34の画面上に3Dゲーム画像が表示される。なお、フレームバッファ48の容量は、表示したい画面の画素(ピクセルまたはドット)数に応じた大きさである。たとえば、ディスプレイないしモニタ34の画素数に応じた画素数(記憶位置またはアドレス)を有する。
【0028】
また、Zバッファ50は、フレームバッファ48に対応する画素(記憶位置またはアドレス)数×1画素当たりの奥行データのビット数に相当する記憶容量を有し、フレームバッファ48の各記憶位置に対応するドットの奥行き情報または奥行データ(Z値)を記憶するものである。
【0029】
なお、フレームバッファ48およびZバッファ50は、ともにメインメモリ40の一部を用いて構成されてもよい。
【0030】
メモリコントローラ38はまた、DSP(Digital Signal Processor)52を介して、サブメモリ54に結合される。したがって、メモリコントローラ38は、メインメモリ40だけでなく、サブメモリ54の書込みおよび/または読出しを制御する。
【0031】
メモリコントローラ38は、さらに、バスによって、各インタフェース(I/F)56,58,60,62および64に結合される。コントローラI/F56は、コントローラ22のためのインタフェースであり、コントローラ22の操作手段26の操作信号またはデータをメモリコントローラ38を通してCPU36に与える。ビデオI/F58は、フレームバッファ48にアクセスし、GPU42で作成した画像データを読み出して、画像信号または画像データ(ディジタルRGBピクセル値)をAVケーブル32(図1)を介してモニタ34に与える。外部メモリI/F60は、ゲーム機12の前面に挿入されるメモリカード30(図1)をメモリコントローラ38に連係させる。それによって、メモリコントローラ38を介して、CPU36がこのメモリカード30にデータを書込み、またはメモリカード30からデータを読み出すことができる。オーディオI/F62は、メモリコントローラ38を通してフレームバッファ48から与えられるオーディオデータまたは光ディスク18から読み出されたオーディオストリームを受け、それらに応じたオーディオ信号(音声信号)をモニタ34のスピーカ66に与える。なお、ステレオ音声の場合には、スピーカ66は、少なくとも、左右1つずつ設けられる。そして、ディスクI/Fは、そのディスクドライブ16をメモリコントローラ38に結合し、したがって、CPU36がディスクドライブ16を制御する。このディスクドライブ16によって光ディスク18から読み出されたプログラムデータやテクスチャデータ等が、CPU36の制御の下で、メインメモリ40に書き込まれる。
【0032】
図3にはメインメモリ40のメモリマップが示される。メインメモリ40は、ゲームプログラム記憶領域68、縮小マップテクスチャデータ記憶領域70、矢印テクスチャデータ記憶領域72、オブジェクトデータ記憶領域74およびテクスチャデータ記憶領域76を含む。ゲームプログラム記憶領域68には、光ディスク18から読み出したゲームプログラムが、1度に全部または部分的かつ順次的に、記憶される。
【0033】
縮小マップテクスチャデータ記憶領域70には、縮小マップ(ゲーム空間の広い範囲におけるプレイヤキャラクタ、敵キャラクタ、オブジェクト等の位置を示す付属画像)を表示するためのテクスチャを表すデータを記憶する。
【0034】
また、矢印テクスチャデータ記憶領域72に記憶される矢印記号は、後に説明するように、上記縮小マップ内に表示され、その縮小マップ内においてプレイヤキャラクタの進行方向を指し示すために利用される。ただし、そのような方向指示記号としては、実施例の矢印以外に、適宜の記号を使用することができる。
【0035】
オブジェクトデータ記憶領域74には、たとえば、プレイヤキャラクタオブジェクト74aや敵キャラクタオブジェクト74bのようなゲームキャラクタ、あるいは壁オブジェクト(建物オブジェクト,地面オブジェクトなどのような地形オブジェクト)74c、さらにはアイテムなどのアイテムオブジェクトがロードされる。なお、各オブジェクト74a−74cは、ポリゴンによって形成されている。そして、メインメモリ40には、上記各キャラクタおよびオブジェクト等のデータを光ディスク18から必要に応じてロードするようにしてもよい。
【0036】
テクスチャデータ記憶領域76には、上述のプレイヤキャラクタ,敵キャラクタ,壁オブジェクトなどのテクスチャデータ76a,76b,76cなどが記憶される。
【0037】
ゲームをプレイするとき、上述のように光ディスク18をゲーム機12にセットし、電源を投入すると、光ディスクからデータが読み出され、図3に示すようにメインメモリ40に必要なデータが記憶される。
【0038】
そして、図4の最初のステップS1では、CPU36は、地形オブジェクト(地面オブジェクト,建物オブジェクト,壁オブジェクト等)およびアイテムのデータをメインメモリ40のオブジェクトデータ記憶領域74から読み出し、その地形オブジェクトおよびアイテムを、図5に示すような、ゲーム空間である3次元ワールド座標系の初期座標に配置する。ついで、ステップS3において、オブジェクトデータ記憶領域74からプレイヤキャラクタ,敵キャラクタおよび仮想カメラのデータを読み出し、同じワールド座標系の初期座標に配置する。
【0039】
ステップS5では、CPU36は、コントローラ22の操作手段26(図1)が操作されたかどうか、すなわち、コントローラI/F56およびメモリコントローラ38を介してコントローラ22から入力がったかどうか、判断する。
【0040】
コントローラ入力がある場合、CPU36は、ステップS7においてそのコントローラ入力に応じてプレイヤキャラクタの位置をワールド座標系において変更する。プレイヤないしユーザは、図5に示すプレイヤキャラクタ78の位置を変更する場合には、コントローラ22の操作手段26(図1)のうち、たとえばアナログジョイスティック(または3Dジョイスティック)を操作する。したがって、CPU36は、このステップS7では、たとえばジョイスティックの傾斜方向および傾斜量のデータをコントローラI/F56から受け、そのデータに基づいて、プレイヤキャラクタ78の位置を更新する。
【0041】
次のステップS9では、CPU36は、ステップS7で更新されたプレイヤキャラクタの位置に応じて、ワールド座標系での仮想カメラの位置を更新する。つまり、このステップS9は、仮想カメラのいわゆる「廻り込み処理」を実行するステップである。ユーザによるコントローラの操作によって、図5に示すようにプレイヤキャラクタ78が「78」で示す位置から「78A」で示す位置に移動された場合を想定する。この場合、元の位置で仮想カメラ80から移動後のプレイヤキャラクタ78Aを見ることになり、プレイヤキャラクタ78Aは建物オブジェクト82の陰に隠れてしまい、そのままであれば、ゲーム画面上に表示されなくなる。このような場合、ステップS9で、プレイヤキャラクタ78Aが見える位置まで、つまりプレイヤキャラクタ78Aをゲーム画面上に表示できるように、仮想カメラ80を「80」で示す位置からたとえば「80A」で示す位置まで、移動させる。つまり、プレイヤキャラクタの位置に応じて仮想カメラの位置を変更する。
【0042】
その後、コントローラ入力がない場合と同様に、ステップS11において、CPU36は、敵キャラクタ84(図5)の位置をワールド座標系内で更新する。敵キャラクタ84の位置は、コントローラ22を操作してもしなくても更新する必要があるので、このステップS11をこの時点で実行する。
【0043】
そして、ステップS13において、CPU36は、上で述べた地形オブジェクト,建物オブジェクト,アイテム,プレイヤキャラクタ,敵キャラクタなどの位置を、仮想カメラ80(80A)を基準とする3次元のカメラ座標系に変換する。
【0044】
その後、CPU36は、ステップS15において、3次元のカメラ座標系を2次元の投陰平面座標系に変換するとともに、テクスチャの指定やクリッピング(clipping:不可視世界の切り取り)等も併せて実行する。
【0045】
そして、ステップS17において、ゲーム画像生成処理を実行する。このステップS17については、後に詳しく説明する。
【0046】
ステップS17で後述のようにゲーム画像を生成した後に、ステップS19において、ゲーム画面をモニタ34(図1)に表示する。つまり、CPU36がビデオI/F58に指令を与え、応じて、ビデオI/F56がフレームバッファ48(図2)にアクセスする。したがって、フレームバッファ48からモニタ34に表示すべき画像データが読み出され、ゲーム画像が表示され得る。
【0047】
その後、ステップS21でゲームが終了したかどうか判断する。ゲームが終了されていれば、そのままこの図4ルーチンを終了するが、ゲームが続行される場合には、先のステップS5に戻って、コントローラ22からの入力を待つ。
【0048】
図6を参照して、図4におけるステップS7が詳細に示される。この図6はゲームプレイヤのコントローラ操作に応答してプレイヤキャラクタの位置を変更または更新するルーチンを詳細に示す。
【0049】
ステップS31では、CPU36は、コントローラI/F56およびメモリコントローラ38を介して、コントローラ22から手段された操作信号(操作データ)を取得する。この操作データ(操作情報または操作信号)の一例が図7に示される。先に述べたように、コントローラ22は方向指示手段として2つのアナログジョイスティック(メインおよびサブ)および1つの十字キーを備えているが、この実施例では、プレイヤキャラクタの移動方向および移動距離、つまり移動位置を決定するためには、メインアナログジョイスティックのデータを利用する。ただし、サブアナログジョイスティックおよび/または十字キーに応じてプレイヤキャラクタを移動させるようにしてもよいことは、もちろんである。そして、メインアナログジョイスティックの操作データは図7に示すように、2つの軸X軸およびY軸の変位量データとして与えられる。
【0050】
CPU36は、続くステップS33において、このような操作情報すなわちメインアナログジョイスティックの各軸変位量データから、仮想3次元ゲーム空間におけるプレイヤキャラクタの移動方向を決定する。具体的には、メインアナログジョイスティックのX軸変位量が「2」でY軸変位量が「3」のとき、現在のプレイヤキャラクタの位置を基準(原点)として、X,Y=2、3の方向を移動方向として決定する。別の例として、メインアナログジョイスティックのX軸変位量が「−2」でY軸変位量が「3」のとき、現在のプレイヤキャラクタの位置を基準として、X,Y=−2、3の方向を移動方向として決定する。つまり、むこの場合には、プレイヤキャラクタは方向転換を行うことになる。
【0051】
その後、ステップS35において、CPU36は、操作データの変位量データからプレイヤキャラクタの移動量を求め、その移動量を閾値A,B,C,Dのそれぞれと比較する。ここで、「移動量」は、上記各軸変位量から求められるものである。たとえば、上述の例で、X軸変位量が「2」でY軸変位量が「3」のとき、現在のプレイヤキャラクタの位置を基準(原点)として、ルート(√)13が移動量となる。別の例として、X軸変位量が「−2」でY軸変位量が「3」のときにも、同様に、プレイヤキャラクタの移動量は「ルート(√)13」となる。このようにして移動量データを求めた後、その移動量と閾値A−Dのそれぞれとを比較する。
【0052】
そして、ステップS37で、移動量が閾値A以下かどうか判断し、このステップS37で“YES”が判断されると、続くステップS39において、CPU36は、そのときのプレイヤキャラクタの移動距離をαに設定し、その移動距離αを、たとえばメインメモリ40の図示しないレジスタ領域に記憶させておく。なお、移動距離とは、ゲーム画面の次回の更新までの移動量を意味し、ゲーム画面がたとえば1フレームで更新されるなら、1フレームの移動量がαであることを意味する。
【0053】
ステップS37で“NO”のとき、ステップS41で、CPU36は、移動量が閾値Aより大きくかつ閾値B以下であるかどうか判断する。“YES”が判断されると、次のステップS43で、CPU36は、移動距離としてβを設定し、記憶する。
【0054】
ステップS41で“NO”のとき、ステップS45で、CPU36は、移動量が閾値Bより大きくかつ閾値C以下であるかどうか判断する。“YES”が判断されると、次のステップS47で、CPU36は、移動距離としてγを設定し、記憶する。
【0055】
ステップS45でも“NO”のとき、ステップS49で、CPU36は、移動距離としてεを設定し、記憶する。
【0056】
ステップS39,S43,S47またはS49の後、つまりプレイヤキャラクタのそのときの移動距離を設定した後、CPU36は、次のステップS51において、プレイヤキャラクタの向きおよび現在の位置と、上の各ステップで決定した移動距離およびステップS33で決定した移動方向とに基づいて、プレイヤキャラクタの新たな座標位置を計算する。そして、次のステップS53において、CPU36は、プレイヤキャラクタの位置をその新たな座標位置で更新する。
【0057】
このようにして、コントローラ22の操作に応答して、CPU36がこの図6のプログラムに従って、プレイヤキャラクタの座標位置を更新する。その後、先に説明した図4のステップS9にリターンする。
【0058】
図8を参照すると、図4のステップS17に示すゲーム画像生成処理ルーチンが示される。この図8の最初のステップS61では、CPU36(図2)は、まず、地形オブジェクトの描画処理を実行し、続くステップS63,S65およびS67において、プレイヤキャラクタの描画処理,敵キャラクタ(およびアイテム)および縮小マップの描画処理を順次実行する。
【0059】
ステップS61の地形オブジェクト描画処理ルーチンが図9に詳細に示される。図9の最初のステップS71では,CPU36は、メインメモリ40(図2,図3)のテクスチャデータ記憶領域76から、壁オブジェクトや地面オブジェクトのような地形オブジェクトに対応するテクスチャデータ76cを読み出す。
【0060】
そして、次のステップS73において、CPU36は、ステップS15(図4)で変換した2次元投影平面座標系に投影された地形オブジェクト(壁オブジェクト,地面オブジェクトなど)に相当する位置のフレームバッファ48(図2)の各ピクセルに、地形オブジェクトのテクスチャを描画する。すなわち、フレームバッファの各ピクセルに相当する記憶位置に、地形オブジェクトの色情報を書き込む。
【0061】
次のステップS75で、CPU36は、そのときのピクセルに対応するZバッファ50(図2)の記憶位置に、地形オブジェクトの奥行き情報(Z値)を書き込む。
【0062】
ステップS77で全てのピクセルの終了を検出するまで、上述のステップS73およびS75が繰り返し実行され、モニタ34の表示画面の全部のピクセルの描画処理が終了したなら、図8のステップS63へリターンし、プレイヤキャラクタ表示処理ルーチンS63に進む。
【0063】
ステップS63(図8)のプレイヤキャラクタの描画処理ルーチンが図10に詳細に示される。図10の最初のステップS81では,CPU36は、メインメモリ40(図2,図3)のテクスチャデータ記憶領域76から、プレイヤキャラクタに対応するテクスチャデータ76aを読み出す。
【0064】
そして、次のステップS83において、CPU36は、ステップS15(図4)で変換した2次元投影平面座標系に投影されたプレイヤキャラクタに相当する位置のZバッファ50(図2)の各ピクセルの、Z値を参照する。そして、次のステップS85において、CPU36は、書込みの対象となっているピクセルのZ値が書込みしようとしているプレイヤキャラクタの奥行き情報(Z値)より大きいかどうか判断する。つまり、プレイヤキャラクタを描画すべきかどうか判断する。したがって、このステップS85で“NO”が判断されると、そのままステップS61に進む。
【0065】
ステップS85において“YES”が判断されると、次のステップS87においてそのピクセルのZ値(Zバッファ)を更新するとともに、ステップS89において、そのピクセルにプレイヤキャラクタのテクスチャ(色情報)を描画する。そして、次のステップS91全てのピクセルの終了を検出するまで、上述のステップS83−S89が繰り返し実行され、モニタ34の表示画面の全部のピクセルの描画処理が終了したなら、図8のステップS65へリターンし、敵キャラクタ(およびアイテム)の描画処理ルーチンを実行する。
【0066】
ステップS65(図8)の敵キャラクタ(および/またはアイテム)の描画処理ルーチンが図11に詳細に示される。図11の最初のステップS101では,CPU36は、メインメモリ40(図2,図3)のテクスチャデータ記憶領域762から、敵キャラクタ(アイテム)に対応するテクスチャデータ76bを読み出す。
【0067】
そして、次のステップS103において、CPU36は、2次元投影平面座標系に投影された敵キャラクタ(アイテム)に相当する位置のZバッファ50(図2)の各ピクセルの、Z値を参照する。そして、次のステップS105において、CPU36は、書込みの対象となっているピクセルのZ値が、書込みしようとしている敵キャラクタ(アイテム)の奥行き情報(Z値)より大きいかどうか判断する。つまり、敵キャラクタやアイテムを描画すべきかどうか判断する。したがって、このステップS105で“NO”が判断されると、そのままステップS111に進む。
【0068】
ステップS105において“YES”が判断されると、次のステップS107においてそのピクセルのZ値(Zバッファ)を更新するとともに、ステップS109において、そのピクセルに敵キャラクタ(アイテム)のテクスチャ(色情報)を描画する。そして、次のステップS81全てのピクセルの終了を検出するまで、上述のステップS103−S109が繰り返し実行され、モニタ34の表示画面の全部のピクセルの描画処理が終了したなら、図8のステップS67へリターンし、縮小マップ描画処理を実行する。
【0069】
ステップS67(図8)の縮小マップの描画処理ルーチンが図12に詳細に示される。図12の最初のステップS121では,CPU36は、メインメモリ40(図2,図3)の縮小マップテクスチャデータ記憶領域70から、縮小マップを表示するためのテクスチャデータを読み出す。続いて、CPU36は、ステップS123において、先のステップS53(図6)で決定したプレイヤキャラクタの配置座標位置を読み込む。それとともに、ステップS125において、CPU36は、先のステップS51(図6)で用いたプレイヤキャラクタの向きを示す情報を読み込む。
【0070】
そして、ステップS127において、CPU36は矢印テクスチャデータ記憶領域72(図3)から矢印テクスチャデータを読み出すとともに、先に入手したプレイヤキャラクタの向きに応じて、その矢印の向きを決定し、その向きになるように、矢印テクスチャを縮小マップテクスチャ上に貼り付ける。したがって、たとえば図13(A)に示すように、縮小マップ86内に、そのときのプレイヤキャラクタの向きに応じた方向を指示する矢印88が合成される。
【0071】
続くステップS129において、CPU36は、先の図6のステップS39,S43,S47またはS49で設定したプレイヤキャラクタの移動速度をメモリから読み出し、その移動距離(移動量)に応じて、縮小マップ画像(矢印88を含む)86の透明度を決定する。
【0072】
実施例では、移動距離が最も小さいαのとき、図13(A)に示すように、縮小マップ86の透明度はたとえば「0%」に設定する。移動距離がαになるような場合は、たとえばプレイヤキャラクタが停止しているか、もしくは殆ど移動しない場合であり、このような場合には、縮小マップ86を完全に表示しても、つまりその縮小マップ86でその部分のゲーム画像が遮蔽もしくは隠蔽されても、ゲームプレイヤによる操作には殆ど影響を与えない。
【0073】
移動距離が2番目に小さいβのときには、図13(B)に示すように、縮小マップ86の透明度はたとえば「20%」に設定する。同様に、移動距離が3番目に小さいγのときには、図13(C)に示すように、縮小マップ86の透明度はたとえば「50%」に設定する。移動距離が最も大きいεのときには、図13(D)に示すように、縮小マップ86の透明度はたとえば「80%」に設定する。つまり、この実施例では、プレイヤキャラクタの移動距離が大きければ大きいほど、縮小マップ86の透明度を小さく設定することによって、高速で移動するプレイヤキャラクタをゲームプレイヤが操作するときに、できるだけ支障を与えないようにする。
【0074】
さらに、次のステップS131では、ステップS125で取り込んだプレイヤキャラクタの向きを参照して、縮小マップ86の描画位置を決定する。つまり、縮小マップ86の表示は、上述のようにマップの透明度を変化させるものの、ゲームプレイヤの視界に影響を与えるものであるので、プレイヤキャラクタが移動しようとしている方向(向き)には縮小マップを表示しないようにして、そのような視界に与える影響をできるだけ少なくしようとするものである。
【0075】
図14に示すように、ゲーム画面34A中にプレイヤキャラクタ74や地形オブジェクトなどを含むゲーム画像が表示され、そのゲーム画面34A上に縮小マップ86が表示されるが、図14(A)に示す場合にはプレイヤキャラクタ74はゲーム画面34A上においてたとえば左上方向に向いているので、この場合には縮小マップ86の表示(描画)位置はゲーム画面34Aのたとえば右下として決定する。図14(B)に示す場合にはプレイヤキャラクタ74はゲーム画面34A上においてたとえば右下方向に向いているので、この場合には縮小マップ86の表示位置はゲーム画面34Aのたとえば左上として決定する。
【0076】
このようにして、ステップS131において、ゲームプレイヤの操作に影響をできるだけ与えないようにする目的で、縮小マップ86の描画位置を決定する。
【0077】
そして、ステップS133において、CPU36およびGPU72は、ステップS131で設定した縮小マップの描画位置におけるゲーム画像の各ピクセルの色情報と、縮小マップ86の各ピクセルの色情報とを、ステップS129で決定した透明度に従った割合で混合し、その色情報をフレームバッファ48(図2)の対応の各ピクセルに書き込む。したがって、縮小マップが所定透明度で所定位置に表示される。
【0078】
そして、次のステップS135で全てのピクセルの終了を検出するまで、上述のステップS133が繰り返し実行され、モニタ34の表示画面の全部のピクセルの描画処理が終了したなら、図4のステップS19へリターンする。
【図面の簡単な説明】
【図1】図1はこの発明の一実施例のゲームシステムを示す図解図である。
【図2】図2は図1一実施例のゲーム機を詳細に示すブロック図である。
【図3】図3は図2におけるメインメモリのメモリマップの一例を示す図解図である。
【図4】図1実施例の動作を示すフロー図である。
【図5】図5はワールド座標系およびカメラ座標系を示す図解図である。
【図6】図6はプレイヤキャラクタの位置決定処理ょ示すフロー図である。
【図7】図7はコントローラから入力されるデータ(操作信号)の一例を示す図解図である。
【図8】図8は図4におけるゲーム画像生成処理の動作を示すフロー図である。
【図9】図9は図8における地形オブジェクト等の描画処理の動作を示すフロー図である。
【図10】図10は図8におけるプレキヤキャラクタ描画処理の動作を示すフロー図である。
【図11】図11は図8における敵キャラクタ(およびアイテム)の描画処理の動作を示すフロー図である。
【図12】図12は図8における縮小マップの描画処理の動作を示すフロー図である。
【図13】図13は実施例において縮小マップがプレイヤキャラクタの移動速度に応じて透明度を変化することを示す図解図である。
【図14】図14は実施例において縮小マップがプレイヤキャラクタの移動方向に応じて表示位置を変化することを示す図解図である。
【符号の説明】
10 …ゲームシステム
12 …ゲーム機
22 …コントローラ
34 …モニタ
34A …ゲーム画面
36 …CPU
40 …メインメモリ
42 …GPU
86 …縮小マップ
88 …矢印
[0001]
[Industrial application fields]
The present invention relates to a game apparatus and a game program, and more particularly to a game apparatus that displays a reduced map on a game screen for indicating the position of a player character in a game space, and a game program therefor.
[0002]
[Prior art]
There are action games and shooting games in which characters move around in a 2D / 3D game space. In such a game, a relatively narrow range of game space centered on its own character (player character: a character that moves and moves in response to an operation of the game player) is displayed on a television or monitor as a normal game screen. Has been.
[0003]
When displaying such a narrow game space, the game player can comprehend the positional relationship of the player character, enemy character, or other object relatively easily, but other characters or It is not easy to grasp the positional relationship between the object and the player character. This is because other characters and objects are not displayed.
[0004]
Therefore, in some game devices, in order to allow the game player to easily grasp the position of the player character and the position of the enemy character in the game space, in a wide range of the game space (a range that cannot be displayed on a normal game screen). A reduced map (or radar screen) for indicating the position of each character (object) is displayed in an overlapping manner on a normal game screen. Therefore, the game player can relatively easily grasp the positional relationship between the player character, the enemy character, or another object in a wide game space by looking at the reduced map or the radar screen.
[0005]
[Problems to be solved by the invention]
However, when displaying a reduced map or radar screen, especially when the player character moves at a relatively fast speed, i.e., when the background moves at a fast speed, the game player has much information displayed on the screen. It is very difficult to read, and there is a problem that the display of the reduced map is rather an obstacle.
[0006]
Further, when the reduced map is displayed in the moving direction of the player character, the moving direction of the player character is concealed in the reduced map, so that the game player grasps the movement destination of the player character. There is another problem that is difficult.
[0007]
Therefore, a main object of the present invention is to provide a novel video game apparatus and game program.
[0008]
Another object of the present invention is to provide a video game device and a game program that do not impair the operability of the game player even if a reduced map or a radar screen or the like is displayed on the game screen. .
[0009]
[Means for Solving the Problems]
A first invention is a game device that displays a reduced map on the game screen to indicate the position of the player character in the game space, and determines the moving speed of the player character in the game space in accordance with the operation of the player. And a reduced map drawing means for drawing a reduced map on the game screen with transparency according to the moving speed.
[0010]
According to a second aspect of the present invention, in a game device that displays a reduced map for indicating the position of the player character in the game space on the game screen, the game processor moves the speed of movement of the player character in the game space according to the player's operation. Is a game program for executing a moving speed determining step for determining a reduced map and a reduced map drawing step for drawing a reduced map on the game screen with transparency according to the moving speed.
[0011]
According to a third aspect of the present invention, in a game device that displays on the game screen a reduced map for indicating the position of the player character in the game space, the movement for determining the moving speed of the player character in the game space according to the operation of the player. A game display method including a speed determination step and a reduced map drawing step for drawing a reduced map on a game screen with transparency according to the moving speed.
[0012]
[Action]
In the embodiment, the game machine corresponds to a game device, and the game machine (12) includes a CPU (36) that functions as a game processor and a GPU (42) that constitutes a part of drawing means. The game program to be executed by the CPU is loaded into the main memory (40) from the optical disc (18), for example, together with the object data and texture data. Therefore, the CPU executes the game according to the game program, and the CPU and the GPU, in accordance with each object data and texture data, a game image including a player character, enemy character, terrain object, item, etc. on the monitor (34), that is, a game screen ( 34A) is displayed.
[0013]
When the game player operates, for example, an analog joystick of the controller (22), the CPU moves the player character in the direction indicated by the analog joystick. At this time, the CPU determines the moving speed of the player character in accordance with the operation amount or displacement amount of the analog joystick (steps S39, S43, S47, S49: FIG. 6). Then, the CPU and GPU display the reduced map (86) on the game screen using the reduced map texture data read from the main memory (if necessary, arrow texture data). The transparency is set according to the moving distance. Specifically, the transparency of the reduced map is increased as the moving speed of the player character is increased (step S129: FIG. 12). Therefore, even when the player character moves fast, the reduced map does not disturb the game player's field of view.
[0014]
When the CPU determines the moving direction of the player character (step S33: FIG. 6), the reduced map is drawn at a position on the game screen different from the moving direction. Therefore, the state in the moving direction of the player character is not hidden by the reduced map.
[0015]
Similarly, when determining the moving direction of the player character, a direction indication symbol (for example, arrow 88: FIG. 13) is also displayed in the reduced map according to the arrow texture read from the main memory. Good.
[0016]
【The invention's effect】
According to the present invention, since the reduced map (or the Kedar screen) is displayed with transparency according to the moving speed of the player character, even if the reduced map or the radar screen or the like is displayed on the game screen, the game player There is no loss of operability.
[0017]
The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0018]
【Example】
The video game system 10 of the embodiment shown in FIG. 1 includes a video game machine (hereinafter simply referred to as “game machine”) 12. Although power is supplied to the game machine 12, this power supply may be a general AC adapter (not shown) in the embodiment. The AC adapter is plugged into a standard household wall socket and converts the household power supply into a low DC voltage signal suitable for driving the game console 12. In other embodiments, a battery may be used as the power source.
[0019]
The game machine 12 includes a substantially cubic housing 14, and an optical disk drive 16 is provided on the upper end of the housing 14. An optical disk 18 which is an example of an information storage medium storing a game program is loaded in the optical disk drive 16. A plurality of (four in the embodiment) connectors 20 are provided on the front surface of the housing 14. These connectors 20 are for connecting the controller 22 to the game machine 12 by the cable 24. In this embodiment, a maximum of four controllers can be connected to the game machine 12.
[0020]
The controller 22 is provided with operation means (control) 26 on the upper surface, lower surface, or side surface thereof. The operation means 26 includes, for example, two analog joysticks, one cross key, a plurality of button switches, and the like. One analog joystick is used to input the moving direction and / or moving speed or moving amount of the player character (moving image character that the player can operate with the controller 22) according to the tilt amount and direction of the stick. Other analog joysticks control the movement of the virtual camera according to the tilt direction. The cross switch is used to instruct the moving direction of the player character instead of the analog joystick. The button switch is used for instructing the action of the player character, switching the viewpoint of the virtual camera of the three-dimensional image, and adjusting the moving speed of the player character. The button switch further controls, for example, menu selection and pointer or cursor movement.
[0021]
In the embodiment, the controller 22 is connected to the game machine 12 by the cable 24. However, the controller 22 may be connected to the game machine 12 by other methods, for example, wirelessly via electromagnetic waves (for example, radio waves or infrared rays). The specific configuration of the operation means of the controller 22 is not limited to the configuration of the embodiment, and can be arbitrarily modified. For example, only one analog joystick may be used or not used. The cross switch may not be used.
[0022]
Below the connector 20 on the front surface of the housing 14 of the game machine 12, at least one (two in the embodiment) memory slot 28 is provided. A memory card 30 is inserted into the memory slot 28. The memory card 30 loads and temporarily stores a game program and display data (see FIG. 3) read from the optical disk 18, or game data of a game played using the game system 10 (for example, game data). Used to save the result.
[0023]
An AV cable connector (not shown) is provided on the rear surface of the housing 14 of the game machine 12, and the monitor 34 is connected to the game machine 12 through the AV cable 32 using the connector. The monitor 34 is typically a color television receiver, and the AV cable 32 inputs a video signal from the game machine 12 to a video input terminal of the color television and gives an audio signal to the audio input terminal. Therefore, for example, a game image of a three-dimensional (3D) video game is displayed on the screen of the color television (monitor) 34, and stereo game sounds such as game music and sound effects can be output from the left and right speakers.
[0024]
In this game system 10, in order for a user or game player to play a game (or other application), the user first turns on the gaming machine 12, and then the user plays a video game (or other game that he / she wishes to play). An appropriate optical disk 18 storing the application) is selected, and the optical disk 18 is loaded into the disk drive 16 of the game machine 12. In response, the game machine 12 starts to execute a video game or other application based on the software stored on the optical disk 18. The user operates the controller 22 to give input to the game machine 12. For example, a game or other application is started by operating any of the operation means 26. By moving the other operation means 26, the moving image character (player character) can be moved in different directions, or the user's viewpoint (camera position) in the three-dimensional (3D) game world can be changed.
[0025]
FIG. 2 is a block diagram showing the configuration of the video game system 10 of FIG. 1 embodiment. The video game machine 12 is provided with a central processing unit (hereinafter referred to as “CPU”) 36 that is responsible for overall control of the game machine. The CPU 36 functions as a game processor, and a memory controller 38 is coupled to the CPU 36 via a bus. The memory controller 38 mainly controls writing and reading of the main memory 40 coupled via the bus under the control of the CPU 36. A GPU (Graphics Processing Unit) 42 is coupled to the memory controller 38.
[0026]
The GPU 42 forms a part of the drawing means, and is constituted by, for example, a single chip ASIC. The GPU 42 receives a graphics command (graphics command) from the CPU 36 via the memory controller 38, and the geometry unit 44 and the rendering according to the command. A unit 46 generates a three-dimensional (3D) game image. In other words, the geometry unit 44 rotates and moves various characters and objects (consisting of a plurality of polygons. The polygon is a polygonal plane defined by at least three vertex coordinates) in a three-dimensional coordinate system. , Perform coordinate calculation processing such as deformation. The rendering unit 46 applies (renders) a texture (texture image) to each polygon of various objects. Therefore, 3D image data to be displayed on the game screen is created by the GPU 42, and the image data (texture data) is drawn (stored) in the frame buffer 48. Note that data (primitives, polygons, textures, etc.) necessary for the GPU 42 to execute the drawing command is acquired from the main memory 40 by the GPU 42 via the memory controller 38.
[0027]
The frame buffer 48 is a memory for drawing (accumulating) image data for one frame of the raster scan monitor 34, for example, and is rewritten frame by frame by the GPU. A video I / F 58 described later reads data from the frame buffer 48 via the memory controller 38, whereby a 3D game image is displayed on the screen of the monitor 34. The capacity of the frame buffer 48 is sized according to the number of pixels (pixels or dots) on the screen to be displayed. For example, it has the number of pixels (storage position or address) corresponding to the number of pixels of the display or monitor 34.
[0028]
The Z buffer 50 has a storage capacity corresponding to the number of pixels (storage position or address) corresponding to the frame buffer 48 × the number of bits of depth data per pixel, and corresponds to each storage position of the frame buffer 48. It stores dot depth information or depth data (Z value).
[0029]
Note that both the frame buffer 48 and the Z buffer 50 may be configured using part of the main memory 40.
[0030]
The memory controller 38 is also coupled to the sub-memory 54 via a DSP (Digital Signal Processor) 52. Therefore, the memory controller 38 controls writing and / or reading of not only the main memory 40 but also the sub memory 54.
[0031]
Memory controller 38 is further coupled to each interface (I / F) 56, 58, 60, 62 and 64 by a bus. The controller I / F 56 is an interface for the controller 22, and provides an operation signal or data of the operation means 26 of the controller 22 to the CPU 36 through the memory controller 38. The video I / F 58 accesses the frame buffer 48, reads the image data created by the GPU 42, and supplies the image signal or image data (digital RGB pixel value) to the monitor 34 via the AV cable 32 (FIG. 1). The external memory I / F 60 links the memory card 30 (FIG. 1) inserted in the front surface of the game machine 12 to the memory controller 38. Thereby, the CPU 36 can write data to the memory card 30 or read data from the memory card 30 via the memory controller 38. The audio I / F 62 receives the audio data supplied from the frame buffer 48 or the audio stream read from the optical disc 18 through the memory controller 38, and supplies an audio signal (audio signal) corresponding to the audio data to the speaker 66 of the monitor 34. In the case of stereo sound, at least one speaker 66 is provided for each of the left and right speakers. The disk I / F couples the disk drive 16 to the memory controller 38, and thus the CPU 36 controls the disk drive 16. Program data, texture data, and the like read from the optical disk 18 by the disk drive 16 are written into the main memory 40 under the control of the CPU 36.
[0032]
FIG. 3 shows a memory map of the main memory 40. The main memory 40 includes a game program storage area 68, a reduced map texture data storage area 70, an arrow texture data storage area 72, an object data storage area 74, and a texture data storage area 76. In the game program storage area 68, the game programs read from the optical disc 18 are stored all at once or partially and sequentially.
[0033]
The reduced map texture data storage area 70 stores data representing a texture for displaying a reduced map (attached images indicating positions of player characters, enemy characters, objects, etc. in a wide range of the game space).
[0034]
Moreover, the arrow symbol memorize | stored in the arrow texture data storage area 72 is displayed in the said reduction | restoration map so that it may demonstrate later, and is used in order to point out the advancing direction of a player character in the reduction | decrease map. However, as such a direction indication symbol, an appropriate symbol can be used in addition to the arrow in the embodiment.
[0035]
In the object data storage area 74, for example, game characters such as the player character object 74a and enemy character object 74b, or wall objects (terrain objects such as building objects and ground objects) 74c, and item objects such as items, etc. Is loaded. Each object 74a-74c is formed by a polygon. The main memory 40 may be loaded with data such as each character and object from the optical disc 18 as necessary.
[0036]
In the texture data storage area 76, texture data 76a, 76b, 76c, etc., such as the aforementioned player character, enemy character, wall object, etc. are stored.
[0037]
When playing a game, when the optical disk 18 is set in the game machine 12 and the power is turned on as described above, data is read from the optical disk, and necessary data is stored in the main memory 40 as shown in FIG. .
[0038]
In the first step S1 of FIG. 4, the CPU 36 reads the terrain object (ground object, building object, wall object, etc.) and item data from the object data storage area 74 of the main memory 40, and the terrain object and item are read. As shown in FIG. 5, the game space is arranged at the initial coordinates of the three-dimensional world coordinate system. Next, in step S3, the player character, enemy character, and virtual camera data are read from the object data storage area 74 and placed at the initial coordinates of the same world coordinate system.
[0039]
In step S <b> 5, the CPU 36 determines whether or not the operation unit 26 (FIG. 1) of the controller 22 has been operated, that is, whether or not there has been an input from the controller 22 via the controller I / F 56 and the memory controller 38.
[0040]
If there is a controller input, the CPU 36 changes the position of the player character in the world coordinate system in accordance with the controller input in step S7. When changing the position of the player character 78 shown in FIG. 5, the player or user operates, for example, an analog joystick (or 3D joystick) among the operation means 26 (FIG. 1) of the controller 22. Therefore, in this step S7, for example, the CPU 36 receives data of the tilt direction and tilt amount of the joystick from the controller I / F 56, and updates the position of the player character 78 based on the data.
[0041]
In the next step S9, the CPU 36 updates the position of the virtual camera in the world coordinate system according to the position of the player character updated in step S7. That is, this step S9 is a step of performing a so-called “around process” of the virtual camera. It is assumed that the player character 78 is moved from the position indicated by “78” to the position indicated by “78A” as shown in FIG. In this case, the player character 78A after the movement from the virtual camera 80 is viewed at the original position, and the player character 78A is hidden behind the building object 82 and is not displayed on the game screen as it is. In such a case, in step S9, the virtual camera 80 is moved from the position indicated by “80” to the position indicated by “80A” so that the player character 78A can be seen, that is, the player character 78A can be displayed on the game screen. Move. That is, the position of the virtual camera is changed according to the position of the player character.
[0042]
Thereafter, as in the case where there is no controller input, in step S11, the CPU 36 updates the position of the enemy character 84 (FIG. 5) in the world coordinate system. Since the position of the enemy character 84 needs to be updated whether or not the controller 22 is operated, this step S11 is executed at this time.
[0043]
In step S13, the CPU 36 converts the positions of the terrain object, building object, item, player character, enemy character, and the like described above into a three-dimensional camera coordinate system based on the virtual camera 80 (80A). .
[0044]
Thereafter, in step S15, the CPU 36 converts the three-dimensional camera coordinate system into a two-dimensional shadow plane coordinate system, and executes texture designation and clipping (clipping of the invisible world).
[0045]
In step S17, a game image generation process is executed. Step S17 will be described in detail later.
[0046]
After the game image is generated in step S17 as described later, in step S19, the game screen is displayed on the monitor 34 (FIG. 1). That is, the CPU 36 gives a command to the video I / F 58, and the video I / F 56 accesses the frame buffer 48 (FIG. 2) accordingly. Therefore, image data to be displayed on the monitor 34 is read from the frame buffer 48, and a game image can be displayed.
[0047]
Thereafter, in step S21, it is determined whether or not the game has ended. If the game is over, the routine of FIG. 4 is ended as it is, but if the game is continued, the process returns to the previous step S5 and waits for an input from the controller 22.
[0048]
Referring to FIG. 6, step S7 in FIG. 4 is shown in detail. FIG. 6 shows in detail a routine for changing or updating the position of the player character in response to the controller operation of the game player.
[0049]
In step S31, the CPU 36 acquires an operation signal (operation data) provided from the controller 22 via the controller I / F 56 and the memory controller 38. An example of the operation data (operation information or operation signal) is shown in FIG. As described above, the controller 22 includes two analog joysticks (main and sub) and one cross key as direction indicating means. In this embodiment, the moving direction and moving distance of the player character, that is, moving To determine the position, the data of the main analog joystick is used. However, it goes without saying that the player character may be moved according to the sub-analog joystick and / or the cross key. Then, the operation data of the main analog joystick is given as displacement data of the two axes X-axis and Y-axis as shown in FIG.
[0050]
In the subsequent step S33, the CPU 36 determines the moving direction of the player character in the virtual three-dimensional game space from such operation information, that is, each axis displacement amount data of the main analog joystick. Specifically, when the X-axis displacement amount of the main analog joystick is “2” and the Y-axis displacement amount is “3”, X, Y = 2, 3 with the current player character position as the reference (origin). The direction is determined as the moving direction. As another example, when the X-axis displacement amount of the main analog joystick is “−2” and the Y-axis displacement amount is “3”, the directions of X, Y = −2, 3 with respect to the current player character position. Is determined as the moving direction. That is, in this case, the player character changes direction.
[0051]
Thereafter, in step S35, the CPU 36 obtains the movement amount of the player character from the displacement data of the operation data, and compares the movement amount with each of the threshold values A, B, C, and D. Here, the “movement amount” is obtained from the above-described axial displacement amounts. For example, in the above example, when the X-axis displacement amount is “2” and the Y-axis displacement amount is “3”, the route (√) 13 is the movement amount with the current player character position as the reference (origin). . As another example, when the X-axis displacement amount is “−2” and the Y-axis displacement amount is “3”, the movement amount of the player character is similarly “route (√) 13”. After the movement amount data is obtained in this way, the movement amount is compared with each of the threshold values AD.
[0052]
In step S37, it is determined whether or not the movement amount is equal to or less than the threshold value A. If “YES” is determined in step S37, the CPU 36 sets the movement distance of the player character at that time to α in subsequent step S39. The movement distance α is stored in a register area (not shown) of the main memory 40, for example. The moving distance means a moving amount until the next update of the game screen. If the game screen is updated, for example, by one frame, it means that the moving amount of one frame is α.
[0053]
When “NO” in the step S37, the CPU 36 determines whether or not the movement amount is larger than the threshold value A and smaller than or equal to the threshold value B in step S41. If “YES” is determined, in the next step S43, the CPU 36 sets β as the movement distance and stores it.
[0054]
When “NO” in the step S41, the CPU 36 determines whether or not the movement amount is larger than the threshold value B and equal to or smaller than the threshold value C in a step S45. If “YES” is determined, in the next step S47, the CPU 36 sets γ as the movement distance and stores it.
[0055]
If “NO” in the step S45, the CPU 36 sets and stores ε as the moving distance in a step S49.
[0056]
After step S39, S43, S47 or S49, that is, after setting the moving distance of the player character at that time, the CPU 36 determines in the next step S51 the orientation and current position of the player character and the above steps. Based on the movement distance and the movement direction determined in step S33, a new coordinate position of the player character is calculated. In the next step S53, the CPU 36 updates the position of the player character with the new coordinate position.
[0057]
In this way, in response to the operation of the controller 22, the CPU 36 updates the coordinate position of the player character according to the program of FIG. Thereafter, the process returns to step S9 of FIG. 4 described above.
[0058]
Referring to FIG. 8, the game image generation processing routine shown in step S17 of FIG. 4 is shown. In the first step S61 of FIG. 8, the CPU 36 (FIG. 2) first executes the terrain object drawing process, and in the subsequent steps S63, S65 and S67, the player character drawing process, enemy character (and item) and The reduction map drawing process is sequentially executed.
[0059]
The terrain object drawing process routine in step S61 is shown in detail in FIG. In the first step S71 of FIG. 9, the CPU 36 reads texture data 76c corresponding to a terrain object such as a wall object or a ground object from the texture data storage area 76 of the main memory 40 (FIGS. 2 and 3).
[0060]
In the next step S73, the CPU 36 executes a frame buffer 48 (see FIG. 4) at a position corresponding to the terrain object (wall object, ground object, etc.) projected on the two-dimensional projection plane coordinate system converted in step S15 (FIG. 4). The texture of the terrain object is drawn on each pixel of 2). That is, the color information of the terrain object is written in the storage position corresponding to each pixel of the frame buffer.
[0061]
In the next step S75, the CPU 36 writes the depth information (Z value) of the terrain object in the storage position of the Z buffer 50 (FIG. 2) corresponding to the pixel at that time.
[0062]
Steps S73 and S75 described above are repeatedly executed until the end of all pixels is detected in step S77, and when the drawing process for all pixels on the display screen of the monitor 34 is completed, the process returns to step S63 in FIG. It progresses to player character display processing routine S63.
[0063]
The player character drawing process routine in step S63 (FIG. 8) is shown in detail in FIG. In the first step S81 of FIG. 10, the CPU 36 reads texture data 76a corresponding to the player character from the texture data storage area 76 of the main memory 40 (FIGS. 2 and 3).
[0064]
In the next step S83, the CPU 36 performs Z of each pixel in the Z buffer 50 (FIG. 2) at the position corresponding to the player character projected on the two-dimensional projection plane coordinate system converted in step S15 (FIG. 4). Refers to the value. In the next step S85, the CPU 36 determines whether the Z value of the pixel to be written is larger than the depth information (Z value) of the player character to be written. That is, it is determined whether or not the player character should be drawn. Therefore, if “NO” is determined in the step S85, the process proceeds to a step S61 as it is.
[0065]
If “YES” is determined in step S85, the Z value (Z buffer) of the pixel is updated in the next step S87, and the texture (color information) of the player character is drawn on the pixel in step S89. Then, until the end of all the pixels in the next step S91 is detected, the above-described steps S83 to S89 are repeatedly executed, and when the drawing processing for all the pixels on the display screen of the monitor 34 is completed, the process proceeds to step S65 in FIG. The process returns, and the enemy character (and item) drawing process routine is executed.
[0066]
The enemy character (and / or item) drawing process routine in step S65 (FIG. 8) is shown in detail in FIG. In the first step S101 of FIG. 11, the CPU 36 reads texture data 76b corresponding to the enemy character (item) from the texture data storage area 762 of the main memory 40 (FIGS. 2 and 3).
[0067]
In the next step S103, the CPU 36 refers to the Z value of each pixel in the Z buffer 50 (FIG. 2) at a position corresponding to the enemy character (item) projected onto the two-dimensional projection plane coordinate system. In the next step S105, the CPU 36 determines whether the Z value of the pixel to be written is larger than the depth information (Z value) of the enemy character (item) to be written. That is, it is determined whether an enemy character or item should be drawn. Therefore, if “NO” is determined in the step S105, the process proceeds to a step S111 as it is.
[0068]
If “YES” is determined in step S105, the Z value (Z buffer) of the pixel is updated in the next step S107, and the texture (color information) of the enemy character (item) is added to the pixel in step S109. draw. Then, until the end of all the pixels in the next step S81 is detected, the above-described steps S103 to S109 are repeatedly executed, and when the drawing process for all the pixels on the display screen of the monitor 34 is completed, the process proceeds to step S67 in FIG. Return and execute the reduced map drawing process.
[0069]
The reduced map drawing processing routine in step S67 (FIG. 8) is shown in detail in FIG. In the first step S121 of FIG. 12, the CPU 36 reads texture data for displaying a reduced map from the reduced map texture data storage area 70 of the main memory 40 (FIGS. 2 and 3). Subsequently, in step S123, the CPU 36 reads the arrangement coordinate position of the player character determined in the previous step S53 (FIG. 6). At the same time, in step S125, the CPU 36 reads information indicating the orientation of the player character used in the previous step S51 (FIG. 6).
[0070]
In step S127, the CPU 36 reads the arrow texture data from the arrow texture data storage area 72 (FIG. 3), determines the direction of the arrow according to the direction of the player character obtained previously, and becomes the direction. As shown, paste the arrow texture onto the reduced map texture. Therefore, for example, as shown in FIG. 13A, an arrow 88 indicating a direction corresponding to the orientation of the player character at that time is synthesized in the reduced map 86.
[0071]
In the subsequent step S129, the CPU 36 reads out the movement speed of the player character set in the previous step S39, S43, S47 or S49 in FIG. 6 from the memory, and reduces the map image (arrow) according to the movement distance (movement amount). 86) (including 88).
[0072]
In the embodiment, when the moving distance is the smallest α, as shown in FIG. 13A, the transparency of the reduced map 86 is set to “0%”, for example. When the movement distance is α, for example, the player character is stopped or hardly moves. In such a case, even if the reduced map 86 is completely displayed, that is, the reduced map. Even if the part of the game image is blocked or concealed at 86, the operation by the game player is hardly affected.
[0073]
When the moving distance is the second smallest β, as shown in FIG. 13B, the transparency of the reduced map 86 is set to “20%”, for example. Similarly, when the movement distance is the third smallest γ, as shown in FIG. 13C, the transparency of the reduced map 86 is set to “50%”, for example. When ε is the longest moving distance, as shown in FIG. 13D, the transparency of the reduced map 86 is set to “80%”, for example. In other words, in this embodiment, the greater the moving distance of the player character is, the smaller the transparency of the reduced map 86 is set, thereby causing as little trouble as possible when the game player operates the player character moving at high speed. Like that.
[0074]
Further, in the next step S131, the drawing position of the reduced map 86 is determined with reference to the orientation of the player character captured in step S125. That is, the display of the reduced map 86 changes the transparency of the map as described above, but affects the field of view of the game player. Therefore, the reduced map is displayed in the direction (direction) in which the player character is moving. It is intended to minimize the effect on the field of view by not displaying.
[0075]
As shown in FIG. 14, a game image including a player character 74 and a terrain object is displayed on the game screen 34A, and a reduced map 86 is displayed on the game screen 34A. In the case shown in FIG. In this case, since the player character 74 is directed, for example, in the upper left direction on the game screen 34A, the display (drawing) position of the reduced map 86 is determined as, for example, the lower right on the game screen 34A. In the case shown in FIG. 14 (B), the player character 74 is directed, for example, in the lower right direction on the game screen 34A. In this case, the display position of the reduced map 86 is determined as, for example, the upper left of the game screen 34A.
[0076]
In this way, in step S131, the drawing position of the reduced map 86 is determined in order to minimize the influence on the operation of the game player.
[0077]
In step S133, the CPU 36 and the GPU 72 determine the color information of each pixel of the game image at the drawing position of the reduced map set in step S131 and the color information of each pixel of the reduced map 86 in the transparency determined in step S129. The color information is written in each corresponding pixel of the frame buffer 48 (FIG. 2). Therefore, the reduced map is displayed at a predetermined position with a predetermined transparency.
[0078]
Then, until the end of all the pixels is detected in the next step S135, the above-described step S133 is repeatedly executed, and when the drawing process for all the pixels on the display screen of the monitor 34 is completed, the process returns to step S19 in FIG. To do.
[Brief description of the drawings]
FIG. 1 is an illustrative view showing a game system according to one embodiment of the present invention;
FIG. 2 is a block diagram showing in detail the game machine of FIG. 1 embodiment;
FIG. 3 is an illustrative view showing one example of a memory map of a main memory in FIG. 2;
FIG. 4 is a flowchart showing the operation of the embodiment in FIG. 1;
FIG. 5 is an illustrative view showing a world coordinate system and a camera coordinate system;
FIG. 6 is a flowchart showing a player character position determination process;
FIG. 7 is an illustrative view showing one example of data (operation signal) input from a controller;
FIG. 8 is a flowchart showing the operation of the game image generation process in FIG.
FIG. 9 is a flowchart showing an operation of drawing processing of a terrain object or the like in FIG.
FIG. 10 is a flowchart showing the operation of the pre-character drawing process in FIG. 8;
FIG. 11 is a flowchart showing an operation of drawing processing of enemy characters (and items) in FIG. 8;
12 is a flowchart showing an operation of a reduction map drawing process in FIG. 8; FIG.
FIG. 13 is an illustrative view showing that the reduction map changes the transparency according to the moving speed of the player character in the embodiment.
FIG. 14 is an illustrative view showing that the reduced map changes the display position according to the moving direction of the player character in the embodiment.
[Explanation of symbols]
10 ... Game system
12 ... Game console
22 ... Controller
34 ... Monitor
34A ... Game screen
36 ... CPU
40 ... main memory
42… GPU
86 ... Reduced map
88 ... Arrow

Claims (11)

ゲーム空間内のプレイヤキャラクタの位置を示すための縮小マップをゲーム画面上に表示するゲーム装置であって、
プレイヤの操作に応じて、前記ゲーム空間における前記プレイヤキャラクタの移動速度を決定する移動速度決定手段、および
前記移動速度に応じた透明度で前記縮小マップを前記ゲーム画面上に描画する縮小マップ描画手段を備える、ゲーム装置。
A game device that displays on a game screen a reduced map for indicating a position of a player character in a game space,
A moving speed determining means for determining a moving speed of the player character in the game space according to a player's operation; and a reduced map drawing means for drawing the reduced map on the game screen with transparency according to the moving speed. A game device.
前記縮小マップ描画手段は、前記移動速度が大きくなるに従って前記透明度を大きくする、請求項1記載のゲーム装置。The game apparatus according to claim 1, wherein the reduced map drawing means increases the transparency as the moving speed increases. 前記縮小マップ描画手段は、前記プレイヤキャラクタが停止している状態では前記透明度を0%とする、請求項1または2記載のゲーム装置。The game apparatus according to claim 1, wherein the reduced map drawing means sets the transparency to 0% when the player character is stopped. 前記プレイヤキャラクタの移動方向を決定する移動方向決定手段をさらに備え、
前記縮小マップ描画手段は、前記移動方向とは異なる前記ゲーム画面上の位置に前記縮小マップを描画する、請求項1ないし3のいずれかに記載のゲーム装置。
A moving direction determining means for determining a moving direction of the player character;
The game apparatus according to claim 1, wherein the reduced map drawing means draws the reduced map at a position on the game screen different from the moving direction.
前記プレイヤキャラクタの移動方向を決定する移動方向決定手段をさらに備え、
前記縮小マップ描画手段は、前記移動方向に応じた方向指示記号を前記縮小マップ内に表示する矢印表示手段を含む、請求項1ないし3のいずれかに記載のゲーム装置。
A moving direction determining means for determining a moving direction of the player character;
4. The game apparatus according to claim 1, wherein the reduced map drawing means includes an arrow display means for displaying a direction indication symbol corresponding to the moving direction in the reduced map.
ゲーム空間内のプレイヤキャラクタの位置を示すための縮小マップをゲーム画面上に表示するゲーム装置において、ゲームプロセサに次のステップを実行させるためのゲームプログラム:
プレイヤの操作に応じて、前記ゲーム空間における前記プレイヤキャラクタの移動速度を決定する移動速度決定ステップ、および
前記移動速度に応じた透明度で前記縮小マップを前記ゲーム画面上に描画する縮小マップ描画ステップ。
A game program for causing a game processor to execute the following steps in a game device that displays a reduced map for indicating a position of a player character in a game space on a game screen:
A moving speed determining step for determining a moving speed of the player character in the game space in accordance with a player's operation; and a reduced map drawing step for drawing the reduced map on the game screen with transparency according to the moving speed.
前記縮小マップ描画ステップでは、前記移動速度が大きくなるに従って前記透明度を大きくする、請求項6記載のゲームプログラム。The game program according to claim 6, wherein in the reduced map drawing step, the transparency is increased as the moving speed increases. 前記縮小マップ描画ステップでは、前記プレイヤキャラクタが停止している状態では前記透明度を0%とする、請求項6または7記載のゲームプログラム。The game program according to claim 6 or 7, wherein, in the reduced map drawing step, the transparency is set to 0% when the player character is stopped. 前記ゲームプロセサに、プレイヤキャラクタの移動方向を決定する移動方向決定ステップをさらに実行させ、そして
前記縮小マップ描画ステップでは、前記移動方向とは異なる前記ゲーム画面上の位置に前記縮小マップを描画する、請求項6ないし8のいずれかに記載のゲームプログラム。
Causing the game processor to further execute a moving direction determining step for determining a moving direction of the player character, and in the reducing map drawing step, the reducing map is drawn at a position on the game screen different from the moving direction; The game program according to claim 6.
前記ゲームプロセサに、プレイヤキャラクタの移動方向を決定する移動方向決定ステップをさらに実行させ、そして
前記縮小マップ描画ステップは、前記移動方向に応じた方向指示記号を前記縮小マップ内に表示する方向指示記号表示ステップを含む、請求項6ないし9のいずれかに記載のゲームプログラム。
The game processor is further caused to execute a moving direction determining step for determining a moving direction of the player character, and the reduced map drawing step includes a direction indicating symbol for displaying a direction indicating symbol corresponding to the moving direction in the reduced map. The game program according to claim 6, comprising a display step.
ゲーム空間内のプレイヤキャラクタの位置を示すための縮小マップをゲーム画面上に表示するゲーム装置において、次のステップを含むゲーム表示方法:
プレイヤの操作に応じて、前記ゲーム空間における前記プレイヤキャラクタの移動速度を決定する移動速度決定ステップ、および
前記移動速度に応じた透明度で前記縮小マップを前記ゲーム画面上に描画する縮小マップ描画ステップ。
A game display method including the following steps in a game device that displays a reduced map for indicating a position of a player character in a game space on a game screen:
A moving speed determining step for determining a moving speed of the player character in the game space in accordance with a player's operation; and a reduced map drawing step for drawing the reduced map on the game screen with transparency according to the moving speed.
JP2002161148A 2002-06-03 2002-06-03 GAME DEVICE AND GAME PROGRAM Expired - Lifetime JP3839355B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002161148A JP3839355B2 (en) 2002-06-03 2002-06-03 GAME DEVICE AND GAME PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002161148A JP3839355B2 (en) 2002-06-03 2002-06-03 GAME DEVICE AND GAME PROGRAM

Publications (2)

Publication Number Publication Date
JP2004000368A true JP2004000368A (en) 2004-01-08
JP3839355B2 JP3839355B2 (en) 2006-11-01

Family

ID=30430291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002161148A Expired - Lifetime JP3839355B2 (en) 2002-06-03 2002-06-03 GAME DEVICE AND GAME PROGRAM

Country Status (1)

Country Link
JP (1) JP3839355B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007068581A (en) * 2005-09-02 2007-03-22 Nintendo Co Ltd Game device and game program
JP2015016358A (en) * 2014-09-25 2015-01-29 株式会社スクウェア・エニックス Video game processing device, video game processing method, and video game processing program
US9517411B2 (en) 2010-04-28 2016-12-13 Kabushiki Kaisha Square Enix Transparent user interface game control processing method, apparatus, and medium
JP2020032206A (en) * 2019-10-28 2020-03-05 株式会社スクウェア・エニックス Video game processor, video game processing method, and video game processing program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007068581A (en) * 2005-09-02 2007-03-22 Nintendo Co Ltd Game device and game program
US8723867B2 (en) 2005-09-02 2014-05-13 Nintendo Co., Ltd. Game apparatus, storage medium storing a game program, and game controlling method
US9517411B2 (en) 2010-04-28 2016-12-13 Kabushiki Kaisha Square Enix Transparent user interface game control processing method, apparatus, and medium
US10751615B2 (en) 2010-04-28 2020-08-25 Kabushiki Kaisha Square Enix User interface processing apparatus, method of processing user interface, and non-transitory computer-readable medium embodying computer program for processing user interface having variable transparency
JP2015016358A (en) * 2014-09-25 2015-01-29 株式会社スクウェア・エニックス Video game processing device, video game processing method, and video game processing program
JP2020032206A (en) * 2019-10-28 2020-03-05 株式会社スクウェア・エニックス Video game processor, video game processing method, and video game processing program
JP7017549B2 (en) 2019-10-28 2022-02-08 株式会社スクウェア・エニックス Video game processor, video game processing method, and video game processing program

Also Published As

Publication number Publication date
JP3839355B2 (en) 2006-11-01

Similar Documents

Publication Publication Date Title
JP3637031B2 (en) GAME DEVICE AND GAME PROGRAM
US7753785B2 (en) Game apparatus, storing medium that stores control program of virtual camera, and control method of virtual camera
JP4791852B2 (en) GAME DEVICE, GAME PROGRAM, AND GAME CONTROL METHOD
US6413163B1 (en) Video game machine, method for switching viewpoint on game screen of video game, and computer-readable recording medium containing game-screen-viewpoint switching program
JP4242318B2 (en) 3D image generation apparatus and 3D image generation program
US8647197B2 (en) Storage medium storing game program and game apparatus
US6878065B2 (en) Video game system, character action control method, and readable storage medium storing character action control program
US6762746B2 (en) Entertainment apparatus, storage medium and operation method of manipulating object
US6326967B1 (en) Image creating apparatus, image creating method, and computer-readable recording medium containing image creating program
JP4355512B2 (en) Image processing apparatus and image processing program
JP3602835B2 (en) VIDEO GAME DEVICE, ITS CONTROL METHOD, AND GAME PROGRAM
EP0948978B1 (en) Image creating apparatus, image creating method, and computer-readable recording medium containing image creating program
EP0992945B1 (en) Video game apparatus, model display and readable recording medium therefor
JP3839355B2 (en) GAME DEVICE AND GAME PROGRAM
JP2004242706A (en) Game program and game device
JP4054708B2 (en) GAME DEVICE AND GAME PROGRAM
JP4219766B2 (en) Image generation program and image generation apparatus
JP2005152081A (en) Character movement control program and game device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060802

R150 Certificate of patent or registration of utility model

Ref document number: 3839355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090811

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090811

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100811

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100811

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110811

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110811

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120811

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120811

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120811

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130811

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130811

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term