JP4261211B2 - GAME DEVICE AND INFORMATION STORAGE MEDIUM - Google Patents

GAME DEVICE AND INFORMATION STORAGE MEDIUM Download PDF

Info

Publication number
JP4261211B2
JP4261211B2 JP2003032157A JP2003032157A JP4261211B2 JP 4261211 B2 JP4261211 B2 JP 4261211B2 JP 2003032157 A JP2003032157 A JP 2003032157A JP 2003032157 A JP2003032157 A JP 2003032157A JP 4261211 B2 JP4261211 B2 JP 4261211B2
Authority
JP
Japan
Prior art keywords
viewpoint
display object
image
game
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003032157A
Other languages
Japanese (ja)
Other versions
JP2003281570A (en
Inventor
俊明 松野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2003032157A priority Critical patent/JP4261211B2/en
Publication of JP2003281570A publication Critical patent/JP2003281570A/en
Application granted granted Critical
Publication of JP4261211B2 publication Critical patent/JP4261211B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、ゲーム装置及び情報記憶媒体に関する。
【0002】
【背景技術】
従来より、仮想的な3次元空間であるオブジェクト空間内に複数のオブジェクトを配置し、オブジェクト空間内の所与の視点から見える画像を生成するゲーム装置が知られており、いわゆる仮想現実を体験できるものとして人気が高い。戦闘機の操縦を楽しむことができるゲーム装置を例にとれば、プレーヤは、自身が操作する戦闘機をオブジェクト空間内で飛行させ、他のプレーヤやコンピュータが操作する戦闘機と対戦してゲームを楽しむ。
【0003】
【特許文献1】
特開平9−269723号公報
【特許文献2】
特開平9−69169号公報
【特許文献3】
特開平9−115000号公報
【0004】
【発明が解決しようとする課題】
さて、このようなゲーム装置では、プレーヤの仮想現実感の向上のために、よりリアルな画像を生成することが重要な技術的課題になっている。従って、例えば、高速で飛行する戦闘機の速度感や気流(流れる雲)などについてもリアルに表現できる画像を生成することが望まれる。
【0005】
しかしながら、画像のリアルさをあまりに追求しすぎると、今度は、画像生成の処理負担が極端に重くなってしまうという問題が生じる。特に、プレーヤの操作などに応じて画像をリアルタイムに生成する必要があるゲーム装置では、画像生成の処理負担が増加すると、1フレーム内で全ての表示物を描画できなくなり、画像に欠落が生じる等の問題が生じてしまう。
【0006】
本発明は、以上のような課題を解決するためになされたものであり、その目的とするところは、速度感等をより感じ取ることができるリアルな画像を少ない処理負担で生成できるゲーム装置及び情報記憶媒体を提供することにある。
【0007】
【課題を解決するための手段】
上記課題を解決するために、本発明は、画像を生成するためのゲーム装置であって、複数の表示物の中の第1の表示物についての透視変換の際に使用される第1の画角と、複数の表示物の中の第2の表示物についての透視変換の際に使用される第2の画角とが異なるように、画角を設定するための手段と、前記第1、第2の表示物を含む表示物の画像を生成するための手段とを含むことを特徴とする。また本発明に係る情報記憶媒体は、上記手段を実現するための情報を含むことを特徴とする。
【0008】
本発明によれば、第1の表示物についての透視変換の際には第1の画角が使用され、第2の表示物についての透視変換の際には第2の画角が使用される。従って、互いに異なる画角により透視変換された第1、第2の表示物を、画面上に混在させて表示することが可能になる。そして、例えば第1の画角を小さくし、第2の画角を通常の画角に設定すれば、第1の表示物が注視点付近に集まって表示される一方で、第2の表示物については通常の画角で画像が生成されるようになる。従って、画像生成の処理負担をそれほど大きくすることなく、速度感等を、より感じ取ることができるリアルな画像を生成できるようになる。
【0009】
なお、第1、第2の表示物は同一画面に表示されるものであることが望ましい。また、第1、第2、第3・・・・第Nの表示物についての第1、第2、第3・・・・第Nの画角を異ならせる場合も、本発明の範囲内に含まれる。
【0010】
また本発明に係るゲーム装置及び情報記憶媒体では、視点の移動速度が速くなるにつれて、前記第1の画角が広くなるようにしてもよい。このようにすれば、視点の移動速度が速くなるにつれて、第1の表示物が画面の注視点付近に更に集中して表示されるようになる。この結果、プレーヤの感じる速度感を更に向上できる。
【0011】
また本発明に係るゲーム装置及び情報記憶媒体は、視点の移動速度が速くなるにつれて、前記第1の表示物の視認性が高くなるように前記第1の表示物の画像が変化することを特徴とする。このようにすれば、視点の移動速度が速くなるにつれて、第1の表示物の画像(色、輝度等)が変化し、第1の表示物が目立って見えるようになる。従って、第1、第2の画角を異ならせる手法との相乗効果で、プレーヤの感じる速度感の更なる向上を図れるようになる。
【0012】
また本発明は、画像を生成するためのゲーム装置であって、オブジェクト空間内で移動する視点の制御を行うための手段と、視点の移動速度が速くなるにつれて、複数の表示物の中の第1の表示物の視認性が高くなるように前記第1の表示物の画像を変化させるための手段と、前記第1の表示物を含む表示物の画像を生成するための手段とを含むことを特徴とする。また本発明に係る情報記憶媒体は、上記手段を実現するための情報を含むことを特徴とする。
【0013】
本発明によれば、視点の移動速度が速くなるにつれて、第1の表示物が目立って見えるようになり、視点(移動体)が高速で移動しているという感覚をプレーヤに効果的に伝えることが可能になる。なお本発明では、視点の移動速度が速くなるにつれて、第1の表示物については視認性が高くなるように画像を変化させる一方で、第2の表示物については画像を変化させないようにすることが望ましい。
【0014】
また本発明に係るゲーム装置及び情報記憶媒体は、視点の移動速度が速くなるにつれて、前記第1の表示物の特徴色が濃く見えるようにすることで、前記第1の表示物の視認性が高くなることを特徴とする。このようにすれば、視点の移動速度が速くなるにつれて、第1の表示物の特徴色が、より目立って見えるようになり、視点が移動しているという感覚を、更に効果的にプレーヤに伝えることができる。
【0015】
また本発明に係るゲーム装置及び情報記憶媒体は、視点の移動速度が速くなるにつれて、前記第1の表示物が、視点の移動ベクトルの方向に伸張して見えることを特徴とする。このようにすれば、視点の移動速度が速くなるにつれて、あたかも、視点の移動ベクトルの方向に第1の表示物が流れて行くように見え、視点が移動しているという移動感覚を更に増すことができる。
【0016】
また本発明に係るゲーム装置及び情報記憶媒体は、視点の移動速度が所与の第1の速度よりも速くなった場合及び視点の移動速度が所与の第2の速度よりも遅くなった場合の少なくとも一方の場合に、前記第1の表示物の画像生成処理が省略されることを特徴とする。このようにすれば、視点の移動速度が非常に速くなった場合や非常に遅くなった場合に、不自然な画像が生成される事態を効果的に防止できる。
【0017】
また本発明は、画像を生成するためのゲーム装置であって、所与の点と視点移動ベクトルとに基づいて第1、第2の点を求め、前記第1、第2の点を透視変換することでスクリーン座標系での第1’、第2’の点を求め、前記第1、第2の点の奥行き値に基づいて第1、第2の幅を求め、前記第1’の点と前記第1の幅とに基づいてスクリーン座標系での第3’、第4’の点を求め、前記第2’の点と前記第2の幅とに基づいてスクリーン座標系での第5’、第6’の点を求めるための処理を行う手段と、前記第3’、第4’、第5’、第6’の点により特定される第1の表示物を含む表示物の画像を生成するための手段とを含むことを特徴とする。また本発明に係る情報記憶媒体は、上記手段を実現するための情報を含むことを特徴とする。
【0018】
本発明によれば、第1、第2の点を求めるための所与の点(第1又は第2の点と所与の点が同一の点であってもよい)を用意しておくだけで、第1の表示物の画像を生成できるようになる。そして、第1、第2の点は、視点移動ベクトルに基づいて求められるため、第1、第2の点の位置関係(即ち第1の表示物の形状)に、視点移動ベクトルの大きさや方向などを反映させることができる。従って、視点の移動に伴い流れて見える表示物などのリアルな表現を、少ない処理負担で実現できるようになる。また、第1、第2の幅は、第1、第2の点の奥行き値に基づいて求められるため、第1の表示物に適正な遠近感を与えることも可能になる。
【0019】
また本発明に係るゲーム装置及び情報記憶媒体は、前記第3’、第4’の点が、前記第1’、第2’の点を結ぶ線に直交し且つ前記第1’の点を通る第1の線により区画される2つの領域の中で、前記第2’の点が属しない方の領域に設けられ、前記第5’、第6’の点が、前記第1’、第2’の点を結ぶ線に直交し且つ前記第2’の点を通る第2の線により区画される2つの領域の中で、前記第1’の点が属しない方の領域に設けられることを特徴とする。このようにすれば、第1、第2の点の間の距離が短くなることで第1の表示物の視認性が極端に低くなるという事態を、効果的に解消できる。
【0020】
また本発明に係るゲーム装置及び情報記憶媒体は、前記第1の表示物についての透視変換の際に使用される画角が、複数の表示物の中の第2の表示物についての透視変換の際に使用される画角よりも広いことを特徴とする。このようにすれば、第1の表示物を画面の注視点付近に集中して表示できるようになり、プレーヤが感じ取ることができる速度感を更に向上できる。
【0021】
また本発明に係るゲーム装置及び情報記憶媒体は、前記視点移動ベクトルの長さが長くなるにつれて前記第1の表示物の視認性が高くなるように、前記第1の表示物の画像が変化することを特徴とする。このようにすることで、視点ベクトルの長さが長くなるにつれて(視点の移動速度が速くなるにつれて)、第1の表示物が目立って見えるようになり、視点が高速で移動しているという感覚をプレーヤに効果的に伝えることが可能になる。なお、視点移動ベクトルの長さが長くなるにつれて、第1の表示物の特徴色が濃く見えるようにすることで、第1の表示物の視認性を高くすることが、特に望ましい。
【0022】
【発明の実施の形態】
以下、本発明の好適な実施形態について図面を用いて説明する。なお以下では、本発明を戦闘機ゲーム(フライトシミュレータ)に適用した場合を例にとり説明するが、本発明はこれに限定されず、種々のゲームに適用できる。
【0023】
1.構成
図1に、本実施形態のブロック図の一例を示す。なお同図において本実施形態のゲーム装置は、少なくとも処理部100を含めばよく(或いは処理部100と記憶部140、或いは処理部100と記憶部140と情報記憶媒体150を含めばよく)、それ以外のブロック(例えば操作部130、画像生成部160、表示部162、音生成部170、音出力部172、通信部174、I/F部176、メモリーカード180等)については、任意の構成要素とすることができる。
【0024】
ここで処理部100は、装置全体の制御、装置内の各ブロックへの命令の指示、ゲーム演算などの各種の処理を行うものであり、その機能は、CPU(CISC型、RISC型)、DSP、或いはASIC(ゲートアレイ等)などのハードウェアや、所与のプログラム(ゲームプログラム)により実現できる。
【0025】
操作部130は、プレーヤが操作情報を入力するためのものであり、その機能は、レバー、ボタンなどのハードウェアにより実現できる。
【0026】
記憶部140は、処理部100、画像生成部160、音生成部170、通信部174、I/F部176などのワーク領域となるもので、その機能はRAMなどのハードウェアにより実現できる。
【0027】
情報記憶媒体(コンピュータにより情報の読み取りが可能な記憶媒体)150は、プログラムやデータなどの情報を格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いは半導体メモリ(ROM)などのハードウェアにより実現できる。処理部100は、この情報記憶媒体150に格納される情報に基づいて本発明(本実施形態)の種々の処理を行う。即ち情報記憶媒体150には、本発明(本実施形態)の手段(特に処理部100に含まれるブロック)を実現するための種々の情報が格納される。
【0028】
なお、情報記憶媒体150に格納される情報の一部又は全部は、装置への電源投入時等に記憶部140に転送されることになる。また情報記憶媒体150に記憶される情報は、本発明の処理を行うためのプログラムコード、画像情報、音情報、表示物の形状情報、テーブルデータ、リストデータ、プレーヤ情報や、本発明の処理を指示するための情報、その指示に従って処理を行うための情報等の少なくとも1つを含むものである。
【0029】
画像生成部160は、処理部100からの指示等にしたがって、各種の画像を生成し表示部162に出力するものであり、その機能は、画像生成用ASIC、CPU、或いはDSPなどのハードウェアや、所与のプログラム(画像生成プログラム)、画像情報により実現できる。
【0030】
音生成部170は、処理部100からの指示等にしたがって、各種の音を生成し音出力部172に出力するものであり、その機能は、音生成用ASIC、CPU、或いはDSPなどのハードウェアや、所与のプログラム(音生成プログラム)、音情報(波形データ等)により実現できる。
【0031】
通信部174は、外部装置(例えばホスト装置や他のゲーム装置)との間で通信を行うための各種の制御を行うものであり、その機能は、通信用ASIC、或いはCPUなどのハードウェアや、所与のプログラム(通信プログラム)により実現できる。
【0032】
なお本発明(本実施形態)の処理を実現するための情報は、ホスト装置が有する情報記憶媒体からネットワーク、通信部174を介してゲーム装置が有する情報記憶媒体に配信するようにしてもよい。このようなホスト装置の情報記憶媒体の使用やゲーム装置の情報記憶媒体の使用も本発明の範囲内に含まれる。
【0033】
また処理部100の機能の一部又は全部を、画像生成部160、音生成部170、又は通信部174の機能により実現するようにしてもよい。或いは、画像生成部160、音生成部170、又は通信部174の機能の一部又は全部を、処理部100の機能により実現するようにしてもよい。
【0034】
I/F部176は、処理部100からの指示等にしたがってメモリーカード(広義には、携帯型ミニゲーム装置などを含む携帯型情報記憶装置)180との間で情報交換を行うためのインターフェースとなるものであり、その機能は、メモリーカードを挿入するためのスロットや、データ書き込み・読み出し用コントローラICなどにより実現できる。なお、メモリーカード180との間の情報交換を赤外線などの無線を用いて実現する場合には、I/F部176の機能は、半導体レーザ、赤外線センサーなどのハードウェアにより実現できる。
【0035】
処理部100は、ゲーム演算部110を含む。
【0036】
ここでゲーム演算部110は、コイン(代価)の受け付け処理、ゲームモードの設定処理、ゲームの進行処理、選択画面の設定処理、移動体(戦闘機、弾、炎等)の位置や方向を決める処理、視点位置や視線方向を決める処理、移動体のモーションを再生する処理、オブジェクト空間へオブジェクトを配置する処理、ヒットチェック処理、ゲーム成果(成績)を演算する処理、複数のプレーヤが共通のゲーム空間でプレイするための処理、或いはゲームオーバー処理などの種々のゲーム演算処理を、操作部130からの操作情報、メモリーカード180からの情報、ゲームプログラムなどに基づいて行う。なお、本発明を戦闘機ゲーム以外のゲームに適用した場合には、移動体としては、戦闘機以外の飛行機、船(ボート、戦艦、潜水艦、ヨット、モーターボート等)、水上バイク、水上スキー、サーフボード、車、バイク、戦車、ロボット、宇宙船、キャラクタ等、種々のものを考えることができる。
【0037】
ゲーム演算部110は、移動体演算部112、視点制御部114、画角設定部116、画像変化部118、表示物伸張部120を含む。
【0038】
ここで移動体演算部112は、戦闘機などの移動体の移動情報(位置情報、方向情報等)を演算するものであり、例えば操作部130から入力される操作情報や所与のプログラムに基づき、移動体をオブジェクト空間内で移動させる処理などを行う。即ち、プレーヤ(自プレーヤ、他プレーヤ)からの操作情報や、コンピュータからの命令(所与の移動制御アルゴリズム)に基づいて、移動体をオブジェクト空間内で移動させる処理などを行う。
【0039】
より具体的には、移動体演算部112は、移動体の位置や方向を例えば1フレーム(1/60秒)毎に求める処理を行う。例えば(k−1)フレームでの移動体の位置をPMk-1、速度をVMk-1、加速度をAMk-1、1フレームの時間を△tとする。するとkフレームでの移動体の位置PMk、速度VMkは例えば下式(1)、(2)のように求められる。
【0040】
PMk=PMk-1+VMk-1×△t (1)
VMk=VMk-1+AMk-1×△t (2)
視点制御部114は、移動体演算部112で得られた移動体の位置や方向の情報などに基づいて、視点位置や視線方向等を求める処理を行う。より具体的には、例えば、プレーヤの操作する移動体の位置又は方向に追従するように視点位置又は視線方向を変化させる処理を行う。この場合、移動体の位置又は方向に対して、例えば慣性を持ちながら視点位置又は視線方向を追従させることが望ましい。画像生成部150は、この視点制御部114により制御される視点において見える画像を生成することになる。
【0041】
画角設定部116は、画像生成部160内の透視変換部164での透視変換の際に使用される画角の設定処理を行う。より具体的には、第1の表示物(視点が移動するにつれて相対的に流れて見える表示物、例えば気流)についての透視変換の際に使用される第1の画角と、第2の表示物(視点が移動するにつれて相対的に流れて見えない表示物、或いは流れの程度が第1の表示物に比べて遅く見える表示物、例えば戦闘機、マップ)についての透視変換の際に使用される第2の画角とが異なるように、画角を設定する。このように、同一画面に表示される第1の表示物と第2の表示物とで画角の設定を異ならせることで(異なる画角が設定された第1、第2の表示物を同一画面内に混在させることで)、より速度感を感じ取ることができる画像を、少ない処理負担で生成できるようになる。
【0042】
なお、この場合、視点(移動体)の移動速度が速くなるにつれて、第1の画角が広くなるようにしてもよい。
【0043】
画像変化部118は、視点の移動速度が速くなるにつれて、第1の表示物(例えば気流)の視認性が高くなるように、第1の表示物の画像を変化させるための処理を行う。より具体的には、例えば、背景表示物と第1の表示物との半透明処理の際の半透明係数を制御することで、視点の移動速度が速くなるにつれて、第1の表示物の特徴色が濃く見えるようにする。このようにすることで、視点の移動速度が速くなるにつれて、第1の表示物がより目立って見えるようになり、移動感覚を更に向上できる。
【0044】
表示物伸張部120は、視点の移動速度が速くなるにつれて、第1の表示物が、視点の移動ベクトルの方向に伸張して見えるようにする処理を行う。このようにすることで、第1の表示物が画面の奥から流れて来るように見えるようになり、プレーヤの感じる速度感を更に向上できる。
【0045】
なお、本実施形態のゲーム装置は、1人のプレーヤがプレイするシングルプレーヤモードによるゲームプレイと、複数のプレーヤがプレイするマルチプレーヤモードによるゲームプレイの両方が可能になっている。
【0046】
また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つのゲーム装置を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数のゲーム装置を用いて生成してもよい。
【0047】
2.本実施形態の特徴
図2(A)、(B)、図3に、本実施形態により生成されるゲーム画像の例を示す。
【0048】
本実施形態により実現される戦闘機ゲームでは、プレーヤは、図2(A)に示されるようなゲーム画像を見ながら、自身の戦闘機22を操縦してオブジェクト空間内で飛行させる。そして他のプレーヤやコンピュータが操作する戦闘機と対戦してゲームを楽しむ。
【0049】
図2(A)は、戦闘機22の後方視点(ビハインド・ビュー。3人称視点)でのゲーム画像例である。同図に示すように、本実施形態によれば、画面の注視点(中心)付近から流れ出てくるように見える気流(流れる雲)20を表現できる。これにより、プレーヤの感じる速度感を向上できる。
【0050】
なお、図2(B)は、戦闘機22の右に視点を設定した場合のゲーム画像例であり、図3は、戦闘機22の右前に視点を設定した場合のゲーム画像例である。このように本実施形態によれば、視点の設定位置に依らずに視点(戦闘機)の移動方向に沿って伸張する気流20を表現できる。
【0051】
さて、このような気流(流れる雲)の表現のために本実施形態では次のような処理を行っている。
【0052】
即ち図4に示すように、気流20についての透視変換の際に使用する画角θ1を、戦闘機22、マップ(島、湖、ビル)24についての透視変換の際に使用する画角θ2よりも広くしている。即ち、気流20についての透視変換の際に使用するスクリーン距離(視点VPとスクリーン30の距離)SD1を、戦闘機22、マップ24についての透視変換の際に使用するスクリーン距離SD2よりも小さくしている。
【0053】
例えば、画角θ1と画角θ2が同一になるように画角を設定した場合には、図5(A)のようなゲーム画像が生成される。しかしながら、このゲーム画像では、気流20が注視点(画面中心)付近に集中しないため、今一つ、リアルな画像表現を実現できない。
【0054】
これに対して、本実施形態では画角θ1を画角θ2よりも広くしている。従って、図5(B)に示すように、気流20が注視点付近から流れ出てくるように見えるようになる。このため、画像のリアル感を格段に増すことができる。
【0055】
しかも、本実施形態では、気流20以外の表示物、例えば戦闘機22、マップ24については、画角θ1よりも狭い画角θ2を使用して透視変換が行われる。従って、処理負担をそれほど増すことなくリアルな画像表現を実現できる。
【0056】
即ち、この種のゲーム装置では、プレーヤの操作などに応じて画像をリアルタイムに生成する必要がある。しかしながら、気流20の画角θ1のみならず、気流20以外の表示物(戦闘機22、マップ24)の画角θ2についても広くしてしまうと、透視変換や描画の対象となる表示物の個数(範囲)が増えてしまう。従って、画像生成の処理負担が極端に増加し、1フレーム内で全ての表示物を描画できなくなってしまう。この結果、描画できない表示物が生じ、画像に欠落が生じる等の問題が生じてしまう。
【0057】
本実施形態では、気流20については広い画角θ1を使用する一方で、その他の表示物については通常の画角θ2が使用される。従って、画像生成の処理負担をそれほど増すことなく、注視点付近から気流20が流れ出て見えるという画像表現を実現できるようになる。
【0058】
なお、図6に示すように、視点の移動速度が速くなるにつれて、気流20についての画角θ1を広くするようにしてもよい。このようにすれば、視点の移動速度が速くなるにつれて、気流20が、より注視点付近に集中して表示されるようになる。この結果、プレーヤの感じる速度感を更に向上できる。
【0059】
例えば、プレーヤの速度感を向上させる手法として、視点の移動速度が速くなるにつれて、気流20、戦闘機22、マップ24等の全ての表示物についての画角を広くする手法を考えることができる。しかしながら、この手法では、視点の移動速度が速くなるにつれて、透視変換や描画の対象となる表示物の個数が非常に増えてしまい、画像生成の処理負担が極端に重くなる。
【0060】
一方、図6の手法では、移動速度に応じて画角θ1だけが広くなるため、透視変換や描画の対象となる表示物の増加数を少なくでき、少ない処理の負担でリアルな画像表現が可能になる。
【0061】
また、本実施形態では、視点(戦闘機)の移動速度が速くなるにつれて、気流(第1の表示物)の視認性が高くなるように気流の画像を変化させている。
【0062】
より具体的には、図7(A)、(B)に示すように、視点の移動速度が速くなるにつれて、気流20の特徴色が、より濃く見えるようにする。これにより、移動速度が速くなるにつれて、気流20が、より目立って見えるようになり、気流20の存在をプレーヤが、より感じるようになる。従って、前述のように視点の移動に伴い注視点付近から気流20が流れ出て見える映像効果との相乗効果で、プレーヤの感じる速度感を更に向上できるようになる。
【0063】
なお、視点の移動速度が速くなるにつれて気流の特徴色を濃く見せる手法は、背景表示物(例えば空)と気流(第1の表示物)との半透明加算処理(広義には半透明処理)における半透明係数を制御することで実現できる。
【0064】
即ち、半透明加算処理は、例えば次のような式(3)、(4)、(5)により表すことができる。
【0065】
XR=BR+α×CR (3)
XG=BG+α×CG (4)
XB=BB+α×CB (5)
ここで、BR、BG、BBは背景表示物の色情報のR、G、B成分であり、CR、CG、CBは気流の色情報(気流の特徴色)のR、G、B成分であり、XR、XG、XBは、半透明加算処理により得られる出力画像の色情報のR、G、B成分である。また、αは、半透明加算処理における半透明係数(輝度加算処理における輝度)である。
【0066】
上式(3)、(4)、(5)によれば、半透明係数α=0とすることで、気流を非表示にすることができる。また、視点の移動速度が速くなるにつれてαを大きくすることで、移動速度が速くなるにつれて気流の特徴色(CR、CG、CB)が濃くなるように見せることが可能になる。
【0067】
なお、式(3)、(4)、(5)では、視点の移動速度が速くなるにつれて気流の特徴色を濃く見せる手法を実現するために半透明加算処理を採用しているが、半透明ブレンド処理を採用してもよい。この場合には、BR、BG、BBの各々に、例えば(1−α)を乗算することになる。
【0068】
また、本実施形態では、視点の移動速度が速くなるにつれて、気流(第1の表示物)が、視点の移動ベクトルの方向に伸張して見えるようにしている。
【0069】
より具体的には、図7(A)、(B)に示すように、視点の移動速度が速くなるにつれて、視点の移動ベクトル方向での気流20の長さが長くなるようにしている。このようにすることで、気流20が流れ出てくるという様子を更にリアルに表現できるようになる。また、プレーヤの感じる速度感を更に向上できる。
【0070】
なお、図7(A)、(B)のように気流20を伸張させる場合には、画面から奥に行くにつれて(奥行き値が大きくなるにつれて)、気流20の幅が狭くなるようにすることが望ましい。このようにすることで、気流20の適正な遠近感を表現できるようになる。
【0071】
また、本実施形態では、視点の移動速度が、所与の第1の速度VVUよりも速くなった場合、或いは、所与の第2の速度VVLよりも遅くなった場合に、気流の画像生成処理を省略するようにしている。
【0072】
例えば図8(A)では、プレーヤの戦闘機22の後方にあった視点VPが、敵の戦闘機23の後方に移動している。この場合の視点VPの移動速度は、非常に高速なものとなる(VVUよりも速くなる)。従って、このような場合に、図6のように視点VPの移動速度に応じて画角θ1を変化させる処理や、図7(A)、(B)のように視点VPの移動速度に応じて気流20の視認性を高める処理や気流20を伸張させる処理を行うと、不自然な画像が生成される可能性がある。例えば、画角θ1が広くなりすぎたり、気流20の視認性(特徴色)が強調されすぎたり、視点移動ベクトルの方向に気流20が伸張されすぎたりする等の事態が生じる。
【0073】
また、図8(B)では、視点VPが停止している。このような場合に、視点VPの移動速度に応じて画角や、気流の視認性や、気流の伸張の度合いを変化させる処理を行っても、やはり、不自然な画像が生成される可能性がある。
【0074】
そこで本実施形態では、視点の移動速度が、VVUよりも速くなったり、VVLよりも小さくなった場合に、気流の画像生成処理を省略する手法を採用している。このようにすることで、不自然な画像が生成される事態を防止できる。特に、この手法を、視点の移動速度に応じて気流の特徴色の濃淡を変化させる手法と組み合わせれば、視点の移動速度が遅くなるにつれて気流の特徴色が薄くなり、移動速度がVVLよりも遅くなると、気流が非表示になるようになる。従って、更に自然な画像を生成できるようになる。
【0075】
3.本実施形態の処理
次に、本実施形態の詳細な処理例について図9、図10のフローチャートを用いて説明する。
【0076】
まず、図11(A)に示すように、視点VPの移動ベクトルEVP(例えば1又は複数フレーム前の視点位置と現在の視点位置とを結んだベクトル)を求める(ステップS1)。
【0077】
次に、視点移動ベクトルEVPの長さLVP(視点の移動速度に相当)が、速度VVU(第1の速度)よりも大きいか、或いは、速度VVL(第2の速度)よりも小さいかを判断する(ステップS2)。そして、図8(A)、(B)で説明したように、LVPが、VVUよりも大きい、或いは、VVLよりも小さい場合には、その後のステップS3〜S14の処理を省略する。
【0078】
次に、視点移動ベクトルEVPの長さLVP(視点の移動速度)に基づき、気流の半透明係数α(上式(3)、(4)、(5)参照)を求める(ステップS3)。より具体的には、LVPが長ければαを大きくし、LVPが短ければαを小さくする。このようにすることで、図7(A)、(B)で説明したように、視点の移動速度が速くなるにつれて、気流20の視認性(気流20の特徴色の濃度)を高めることが可能になる。
【0079】
次に、画角が、通常の画角よりも広くなるように設定する(ステップS4)。即ち、図4で説明したように、気流用の画角θ1を、通常の画角θ2よりも広くする。このようにすることで、図5(A)、(B)で説明したように、気流20が画面の注視点付近から流れて来るように見えるというリアルな表現が可能となり、プレーヤの感じる速度感を向上できる。
【0080】
次に、視点位置、視線方向に基づき、図11(B)に示すような座標ループ領域CLRの中心位置(代表位置)CPを求める(ステップS5)。即ち、視点VPの位置から視線方向に沿ってオフセット距離DOFFだけ離れた位置をCPとする。
【0081】
次に、座標ループ領域CLRの中心位置CPの座標と所与の乱数テーブルとに基づいて、座標ループ領域CLR内での所与の点PNの座標(気流座標)を求める(ステップS6)。この点PNは、ワールド(絶対)座標系において、その位置が固定されている点(静止している点)である。
【0082】
なお、本実施形態では、図12のように視点VPが移動したり、図13のように視線方向が変化しても、点PN(例えばP1〜P8)が常に座標ループ領域CLR内の点になるように、座標ループ処理が行われる。例えば図12のG1、G2、G3、G4に示すように、視点VPの移動により点P7、P8が座標ループ領域CLRの外に出た場合を考える。この場合にも、G5、G6に示すように、点P7、P8が再び座標ループ領域CLR内の点になるように、座標ループ処理が行われる。
【0083】
そして、本実施形態では、座標ループ領域CLRの中心位置CPが、視点VPの位置ではなく、視点VPの位置から視線方向に沿ってオフセット距離DOFFだけ離れた位置に設定されている。従って、中心位置CPを視点VPの位置に設定する場合に比べて、より多くの点PN(気流)が視野範囲内に入るようになり、少ない処理負担で画像のリアル度を増すことが可能になる。
【0084】
次に、ステップS1で得られた視点の移動ベクトルEVPとステップS6で得られた点PNとに基づいて、図14(A)に示すような点PN1、PN2(第1、第2の点)を求める(ステップS7)。このようにすることで、図7(A)、(B)で説明したように、視点の移動速度が速くなるにつれて(移動ベクトルEVPの長さLVPが長くなるにつれて)、視点の移動ベクトルEVPの方向に沿って気流20が伸張して見えるようになる。
【0085】
次に、図14(B)に示すように、点PN1、PN2を透視変換することで、スクリーン30の座標系での点PT1、PT2(第1’、第2’の点)を求める(ステップS8)。なお、この場合の透視変換は、ステップS4で設定された画角(図4のθ1)を用いて行われることになる。
【0086】
次に、点PT1、PT2の両方がスクリーン30の外にあるか否かを判断し(ステップS9)、両方が外にある場合には、その後のステップS10〜S13の処理を省略する。
【0087】
次に、点PN1、PN2の奥行き値(Z座標)に基づき、幅W1、W2(第1、第2の幅)を求める(ステップS10)。この幅W1、W2は、各々、点PN1、PN2の奥行き値が大きいほど(点PN1、PN2が視点VPから離れているほど)、小さくなる値となっている。幅W1、W2をこのような値にすることで、気流の遠近感を適正に表現することが可能になる。
【0088】
次に、スクリーン30の座標系での点PT1、PT2と、ステップS10で得られた幅W1、W2とに基づき、図15(A)に示すように、スクリーン30の座標系での点PT3、PT4、PT5、PT6(第3’、第4’、第5’、第6’の点)を求める(ステップS11)。そして、図15(B)に示すように、点PT3、PT4、PT5、PT6を頂点とするポリゴン40(プリミティブ面)を生成(特定)する(ステップS12)。このポリゴン40に気流(流れる雲)の絵柄のテクスチャ42をマッピングすることで、図2(A)〜図3に示すような気流20の画像の生成が可能になる。
【0089】
次に、全て(N個)のPN(P1〜P8)についての処理が終了したか否かを判断し(ステップS13)、終了していない場合にはステップS6に戻り、終了した場合には、画角を通常の画角に戻す(ステップS14)。即ち、図4の画角θ2に戻す。
【0090】
なお、点PT1、PT2と幅W1、W2から、点PT3、PT4、PT5、PT6を求める手法としては、種々の手法を考えることができる。
【0091】
例えば図16(A)では、点PT1から、点PT1、PT2を結ぶ線50に直交する方向にW1だけ離れた点をPT3、PT4としている。また点PT2から、線50に直交する方向にW2だけ離れた点をPT5、PT6としている。
【0092】
しかしながら、この手法では、図16(B)に示すように点PT1とPT2間の距離が短い場合に、生成されるポリゴン40が極端に細くなってしまい、ポリゴン40(気流)がプレーヤから見えなくなってしまう(視認性が極端に低くなる)という事態が生じる。
【0093】
一方、図16(C)では、点PT1、PT2を結ぶ線50に直交し且つ点PT1を通る線52(第1の線)により区画される2つの領域AR1、AR2の中で、点PT2が属しない方の領域AR2に、点PT3、PT4が位置するようにしている。また、線50に直交し且つ点PT2を通る線54(第2の線)により区画される2つの領域AR3、AR4の中で、点PT1が属しない方の領域AR3に、点PT5、PT6が位置するようにしている。即ち、点PT1、PT2を結ぶ線50の方向に沿って、ポリゴン40を伸張させている。このようにすれば、図16(D)に示すように点PT1、PT2間の距離が短い場合にも、ポリゴン40が極端に細くなってしまいポリゴン40が見えなくなってしまうという事態を、簡易な処理で効果的に防止できるようになる。
【0094】
4.ハードウェア構成
次に、本実施形態を実現できるハードウェアの構成の一例について図17を用いて説明する。同図に示す装置では、CPU1000、ROM1002、RAM1004、情報記憶媒体1006、音生成IC1008、画像生成IC1010、I/Oポート1012、1014が、システムバス1016により相互にデータ送受信可能に接続されている。そして前記画像生成IC1010にはディスプレイ1018が接続され、音生成IC1008にはスピーカ1020が接続され、I/Oポート1012にはコントロール装置1022が接続され、I/Oポート1014には通信装置1024が接続されている。
【0095】
情報記憶媒体1006は、プログラム、表示物を表現するための画像データ、音データ等が主に格納されるものである。例えば家庭用ゲーム装置ではゲームプログラム等を格納する情報記憶媒体としてCD−ROM、ゲームカセット、DVD等が用いられる。また業務用ゲーム装置ではROM等のメモリが用いられ、この場合には情報記憶媒体1006はROM1002になる。
【0096】
コントロール装置1022はゲームコントローラ、操作パネル等に相当するものであり、プレーヤがゲーム進行に応じて行う判断の結果を装置本体に入力するための装置である。
【0097】
情報記憶媒体1006に格納されるプログラム、ROM1002に格納されるシステムプログラム(装置本体の初期化情報等)、コントロール装置1022によって入力される信号等に従って、CPU1000は装置全体の制御や各種データ処理を行う。RAM1004はこのCPU1000の作業領域等として用いられる記憶手段であり、情報記憶媒体1006やROM1002の所与の内容、あるいはCPU1000の演算結果等が格納される。また本実施形態を実現するための論理的な構成を持つデータ構造は、このRAM又は情報記憶媒体上に構築されることになる。
【0098】
更に、この種の装置には音生成IC1008と画像生成IC1010とが設けられていてゲーム音やゲーム画像の好適な出力が行えるようになっている。音生成IC1008は情報記憶媒体1006やROM1002に記憶される情報に基づいて効果音やバックグラウンド音楽等のゲーム音を生成する集積回路であり、生成されたゲーム音はスピーカ1020によって出力される。また、画像生成IC1010は、RAM1004、ROM1002、情報記憶媒体1006等から送られる画像情報に基づいてディスプレイ1018に出力するための画素情報を生成する集積回路である。なおディスプレイ1018として、いわゆるヘッドマウントディスプレイ(HMD)と呼ばれるものを使用することもできる。
【0099】
また、通信装置1024はゲーム装置内部で利用される各種の情報を外部とやりとりするものであり、他のゲーム装置と接続されてゲームプログラムに応じた所与の情報を送受したり、通信回線を介してゲームプログラム等の情報を送受することなどに利用される。
【0100】
そして図1〜図16(D)で説明した種々の処理は、プログラムやデータなどの情報を格納した情報記憶媒体1006、この情報記憶媒体1006からの情報等に基づいて動作するCPU1000、画像生成IC1010或いは音生成IC1008等によって実現される。なお画像生成IC1010、音生成IC1008等で行われる処理は、CPU1000あるいは汎用のDSP等によりソフトウェア的に行ってもよい。
【0101】
図18(A)に、本実施形態を業務用ゲーム装置に適用した場合の例を示す。プレーヤは、ディスプレイ1100上に映し出されたゲーム画像を見ながら、レバー1102、ボタン1104等を操作してゲームを楽しむ。装置に内蔵されるシステムボード(サーキットボード)1106には、CPU、画像生成IC、音生成IC等が実装される。そして、本実施形態の処理(本発明の手段)を実行(実現)するための情報は、システムボード1106上の情報記憶媒体である半導体メモリ1108に格納される。以下、この情報を格納情報と呼ぶ。
【0102】
図18(B)に、本実施形態を家庭用のゲーム装置に適用した場合の例を示す。プレーヤはディスプレイ1200に映し出されたゲーム画像を見ながら、ゲームコントローラ1202、1204を操作してゲームを楽しむ。この場合、上記格納情報は、本体装置に着脱自在な情報記憶媒体であるCD−ROM1206、メモリーカード1208、1209等に格納されている。
【0103】
図18(C)に、ホスト装置1300と、このホスト装置1300と通信回線(LANのような小規模ネットワークや、インターネットのような広域ネットワーク)1302を介して接続される端末1304-1〜1304-nとを含むシステムに本実施形態を適用した場合の例を示す。この場合、上記格納情報は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、半導体メモリ等の情報記憶媒体1306に格納されている。端末1304-1〜1304-nが、CPU、画像生成IC、音処理ICを有し、スタンドアロンでゲーム画像、ゲーム音を生成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を生成するためのゲームプログラム等が端末1304-1〜1304-nに配送される。一方、スタンドアロンで生成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を生成し、これを端末1304-1〜1304-nに伝送し端末において出力することになる。
【0104】
なお、図18(C)の構成の場合に、本発明の処理を、ホスト装置と端末とで(サーバーを設ける場合にはホスト装置とサーバーと端末とで)分散して処理するようにしてもよい。また、本発明を実現するための上記格納情報を、ホスト装置の情報記憶媒体と端末の情報記憶媒体(或いはホスト装置の情報記憶媒体とサーバの情報記憶媒体と端末の情報記憶媒体)に分散して格納するようにしてもよい。
【0105】
また通信回線に接続する端末は、家庭用ゲーム装置であってもよいし業務用ゲーム装置であってもよい。そして、業務用ゲーム装置を通信回線に接続する場合には、業務用ゲーム装置との間で情報のやり取りが可能であると共に家庭用ゲーム装置との間でも情報のやり取りが可能な携帯型情報記憶装置(メモリーカード、携帯型ゲーム装置)を用いることが望ましい。
【0106】
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。
【0107】
例えば本実施形態では、第1の表示物についての画角θ1と第2の表示物についての画角θ2を異ならせる場合について説明した。しかしながら、本発明はこれに限定されず、第1の表示物についての画角θ1、第2の表示物についての画角θ2、第3の表示物についての画角θ3・・・・第Nの表示物についての画角θNを異ならせる場合も、本発明の範囲内に含まれる。
【0108】
また本実施形態では、第1の表示物が気流(流れる雲)であり、第2の表示物が戦闘機やマップである場合を例にとり説明したが、本発明における第1、第2の表示物はこれに限定されない。例えば第1の表示物としては、視点(移動体)が移動するにつれて相対的に流れて見えるような表示物が特に望ましく、気流以外にも、例えば雨、雪、星、霧等の種々の表示物を考えることができる。また、第2の表示物としては、視点が移動するにつれて相対的に流れて見えない表示物、或いは流れの程度が第2の表示物に比べて遅く見える表示物であることが特に望ましく、戦闘機、マップ以外にも種々の表示物を考えることができる。
【0109】
また本実施形態では、画角を直接設定する場合について説明したが、画角と均等(例えば数学的に等価)なパラメータ(例えばスクリーン距離)を設定する場合も、本発明の範囲内に含まれる。
【0110】
また、視点の移動速度そのものではなく視点の移動速度と均等なパラメータに基づいて、第1の画角、第1の表示物の視認性、或いは第1の表示物の伸張の度合いを変化させる場合も、本発明の範囲内に含まれる。
【0111】
また本実施形態では、第1の表示物の代表位置(点PN)のみをオブジェクト空間(ワールド座標系)に配置する手法について説明した。このように代表位置のみを配置する手法は、処理負担の軽減化の観点から特に望ましいが、3次元的な第1の表示物自体をオブジェクト空間に配置するようにしてもよい。
【0112】
また、視点の移動速度が速くなるにつれて第1の表示物の視認性を高める手法は、図7(A)、(B)で説明した手法が特に望ましいが、これに限定されるものではない。
【0113】
また本発明は戦闘機ゲーム以外にも種々のゲーム(戦闘機以外の飛行機のゲーム、宇宙船ゲーム、競争ゲーム、格闘ゲーム、ロボット対戦ゲーム、スポーツゲーム、シューティングゲーム、ロールプレイングゲーム等)に適用できる。
【0114】
また本発明は、業務用ゲーム装置、家庭用ゲーム装置、多数のプレーヤが参加する大型アトラクション装置、シミュレータ、マルチメディア端末、画像生成装置、ゲーム画像を生成するシステム基板等の種々のゲーム装置に適用できる。
【図面の簡単な説明】
【図1】本実施形態のゲーム装置のブロック図の例である。
【図2】図2(A)、(B)は、本実施形態により生成されるゲーム画像の例を示す図である。
【図3】本実施形態により生成されるゲーム画像の例を示す図である。
【図4】画角θ1とθ2を異ならせる手法について説明するための図である。
【図5】図5(A)、(B)は、画角θ1とθ2を異ならせた場合に生成される画像について説明するための図である。
【図6】視点の移動速度に応じて画角θ1を変化させる手法について説明するための図である。
【図7】図7(A)、(B)は、視点の移動速度に応じて、気流の視認性や伸張の度合いを変化させる手法について説明するための図である。
【図8】図8(A)、(B)は、視点の移動速度が速度VVUよりも速い場合や速度VVLよりも遅い場合に、気流の画像生成処理を省略する手法について説明するための図である。
【図9】本実施形態の詳細な処理例を示すフローチャートの一例である。
【図10】本実施形態の詳細な処理例を示すフローチャートの一例である。
【図11】図11(A)、(B)は、視点の移動ベクトルや座標ループ領域について説明するための図である。
【図12】座標ループ領域での座標ループ処理について説明するための図である。
【図13】座標ループ領域での座標ループ処理について説明するための図である。
【図14】図14(A)、(B)は、PNからPN1、PN2を求め、PN1、PN2からスクリーン上のPT1、PT2を求める手法について説明するための図である。
【図15】図15(A)、(B)は、PT1、PT2とW1、W2からPT3〜PT6を求め、気流を表現するためのポリゴンを生成する手法について説明するための図である。
【図16】図16(A)、(B)、(C)、(D)は、PT1、PT2とW1、W2からPT3〜PT6を求める種々の手法について説明するための図である。
【図17】本実施形態を実現できるハードウェアの構成の一例を示す図である。
【図18】図18(A)、(B)、(C)は、本実施形態が適用される種々の形態の装置の例を示す図である。
【符号の説明】
20 気流(流れる雲)
22 戦闘機
23 敵の戦闘機
24 マップ
30 スクリーン
40 ポリゴン
42 テクスチャ
50 PT1とPT2を結ぶ線
52 第1の線
54 第2の線
100 処理部
110 ゲーム演算部
112 移動体演算部
114 視点制御部
116 画角設定部
118 画像変化部
120 表示物伸張部
130 操作部
140 記憶部
150 情報記憶媒体
160 画像生成部
162 表示部
164 透視変換部
170 音生成部
172 音出力部
174 通信部
176 I/F部
180 メモリーカード
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a game device and an information storage medium.
[0002]
[Background]
2. Description of the Related Art Conventionally, a game apparatus that arranges a plurality of objects in an object space that is a virtual three-dimensional space and generates an image that can be seen from a given viewpoint in the object space is known, and a so-called virtual reality can be experienced. Popular as a thing. Taking a game device that can be used to control a fighter as an example, a player flies a fighter operated by the player in the object space, and plays a game against a fighter operated by another player or computer. have fun.
[0003]
[Patent Document 1]
JP-A-9-269723
[Patent Document 2]
JP-A-9-69169
[Patent Document 3]
JP-A-9-115000
[0004]
[Problems to be solved by the invention]
Now, in such a game device, it is an important technical problem to generate a more realistic image in order to improve the virtual reality of the player. Therefore, for example, it is desired to generate an image that can realistically represent the sense of speed and airflow (flowing clouds) of a fighter flying at high speed.
[0005]
However, if the realism of the image is pursued too much, a problem arises that this time the processing load for image generation becomes extremely heavy. In particular, in a game device that needs to generate an image in real time according to a player's operation or the like, if the processing load of image generation increases, it becomes impossible to draw all display objects within one frame, and the image is lost, etc. Problem arises.
[0006]
The present invention has been made to solve the above-described problems, and the object of the present invention is to provide a game apparatus and information capable of generating a realistic image that can sense a sense of speed and the like with a small processing load. It is to provide a storage medium.
[0007]
[Means for Solving the Problems]
In order to solve the above-described problem, the present invention provides a game device for generating an image, wherein the first image used for the perspective transformation of the first display object among the plurality of display objects. Means for setting an angle of view such that the angle and the second angle of view used in the perspective transformation of the second display object among the plurality of display objects are different from each other; And means for generating an image of the display object including the second display object. The information storage medium according to the present invention includes information for realizing the above means.
[0008]
According to the present invention, the first angle of view is used for the perspective conversion of the first display object, and the second angle of view is used for the perspective conversion of the second display object. . Therefore, it is possible to display the first and second display objects that are perspective-transformed at different angles of view in a mixed manner on the screen. For example, if the first angle of view is reduced and the second angle of view is set to a normal angle of view, the first display object is displayed near the gazing point while the second display object is displayed. For, an image is generated at a normal angle of view. Therefore, it is possible to generate a realistic image that can feel a sense of speed and the like without increasing the processing load of image generation so much.
[0009]
Note that the first and second display objects are desirably displayed on the same screen. In addition, the first, second, third,..., Nth display objects may have different first, second, third,... Nth angles of view within the scope of the present invention. included.
[0010]
In the game device and the information storage medium according to the present invention, the first angle of view may be increased as the viewpoint moving speed increases. In this way, as the moving speed of the viewpoint increases, the first display object is displayed more concentrated near the gazing point on the screen. As a result, the feeling of speed felt by the player can be further improved.
[0011]
In the game device and the information storage medium according to the present invention, as the moving speed of the viewpoint increases, the image of the first display object changes so that the visibility of the first display object increases. And In this way, as the moving speed of the viewpoint increases, the image (color, brightness, etc.) of the first display object changes, and the first display object becomes conspicuous. Therefore, the speed feeling felt by the player can be further improved by a synergistic effect with the technique of making the first and second angles of view different.
[0012]
The present invention is also a game device for generating an image, the means for controlling the viewpoint moving in the object space, and the first of the plurality of display objects as the moving speed of the viewpoint increases. Means for changing the image of the first display object so that the visibility of one display object is high, and means for generating an image of the display object including the first display object It is characterized by. The information storage medium according to the present invention includes information for realizing the above means.
[0013]
According to the present invention, as the moving speed of the viewpoint increases, the first display object becomes conspicuous and effectively conveys to the player that the viewpoint (moving body) is moving at high speed. Is possible. In the present invention, as the moving speed of the viewpoint increases, the image is changed so that the visibility of the first display object is increased, while the image is not changed for the second display object. Is desirable.
[0014]
In addition, the game device and the information storage medium according to the present invention make the first display object visible by making the characteristic color of the first display object appear darker as the moving speed of the viewpoint increases. It is characterized by an increase. In this way, as the viewpoint moving speed increases, the characteristic color of the first display object becomes more conspicuous, and the player feels that the viewpoint is moving more effectively. be able to.
[0015]
The game device and the information storage medium according to the present invention are characterized in that the first display object appears to expand in the direction of the viewpoint movement vector as the viewpoint movement speed increases. In this way, as the moving speed of the viewpoint increases, it appears as if the first display object flows in the direction of the moving vector of the viewpoint, further increasing the sense of movement that the viewpoint is moving. Can do.
[0016]
In the game device and the information storage medium according to the present invention, the moving speed of the viewpoint is faster than the given first speed, and the moving speed of the viewpoint is slower than the given second speed. In at least one of the cases, the image generation processing of the first display object is omitted. In this way, it is possible to effectively prevent a situation in which an unnatural image is generated when the moving speed of the viewpoint becomes very fast or very slow.
[0017]
The present invention is also a game device for generating an image, wherein first and second points are obtained based on a given point and a viewpoint movement vector, and the first and second points are perspective-transformed. Thus, the first and second points in the screen coordinate system are obtained, the first and second widths are obtained based on the depth values of the first and second points, and the first and second points are obtained. 3 ′ and 4 ′ points in the screen coordinate system are obtained based on the first width and the first width, and the fifth point in the screen coordinate system is obtained based on the second ′ point and the second width. An image of a display object including means for performing processing for obtaining a ', sixth' point, and a first display object specified by the third ', fourth', fifth ', and sixth' points Means for generating. The information storage medium according to the present invention includes information for realizing the above means.
[0018]
According to the present invention, only a given point (the first point or the second point may be the same point as the given point) for obtaining the first and second points is prepared. Thus, an image of the first display object can be generated. Since the first and second points are obtained based on the viewpoint movement vector, the size and direction of the viewpoint movement vector are included in the positional relationship between the first and second points (that is, the shape of the first display object). Etc. can be reflected. Accordingly, it is possible to realize realistic expressions such as display objects that flow as the viewpoint moves with a small processing load. Further, since the first and second widths are obtained based on the depth values of the first and second points, it is possible to give an appropriate perspective to the first display object.
[0019]
In the game device and the information storage medium according to the present invention, the third ′ and fourth ′ points are orthogonal to a line connecting the first ′ and second ′ points and pass through the first ′ point. Of the two regions defined by the first line, the second ′ point is provided in a region to which the second ′ point does not belong, and the fifth ′ and sixth ′ points are the first ′ and second Among the two regions defined by the second line that is orthogonal to the line connecting the points of 'and passing through the second' point, the first 'point is provided in a region that does not belong to Features. If it does in this way, the situation where the visibility of the 1st display thing becomes extremely low because the distance between the 1st and 2nd point becomes short can be canceled effectively.
[0020]
In the game device and the information storage medium according to the present invention, the angle of view used in the perspective conversion for the first display object is a perspective conversion for the second display object in the plurality of display objects. It is characterized by being wider than the angle of view used at the time. In this way, the first display object can be displayed in a concentrated manner near the point of interest on the screen, and the sense of speed that can be felt by the player can be further improved.
[0021]
Further, in the game device and the information storage medium according to the present invention, the image of the first display object changes so that the visibility of the first display object becomes higher as the viewpoint movement vector becomes longer. It is characterized by that. By doing in this way, as the length of the viewpoint vector becomes longer (as the moving speed of the viewpoint increases), the first display object becomes more conspicuous, and the sense that the viewpoint is moving at high speed. Can be effectively transmitted to the player. Note that it is particularly desirable to increase the visibility of the first display object by making the characteristic color of the first display object appear darker as the length of the viewpoint movement vector becomes longer.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the following, the case where the present invention is applied to a fighter game (flight simulator) will be described as an example. However, the present invention is not limited to this and can be applied to various games.
[0023]
1. Constitution
FIG. 1 shows an example of a block diagram of this embodiment. In the figure, the game device of this embodiment may include at least the processing unit 100 (or may include the processing unit 100 and the storage unit 140, or the processing unit 100, the storage unit 140, and the information storage medium 150). Other than the blocks (for example, the operation unit 130, the image generation unit 160, the display unit 162, the sound generation unit 170, the sound output unit 172, the communication unit 174, the I / F unit 176, the memory card 180, etc.) It can be.
[0024]
Here, the processing unit 100 performs various processes such as control of the entire apparatus, instruction instruction to each block in the apparatus, game calculation, and the like, and functions thereof are a CPU (CISC type, RISC type), DSP. Alternatively, it can be realized by hardware such as an ASIC (gate array or the like) or a given program (game program).
[0025]
The operation unit 130 is used by the player to input operation information, and the function can be realized by hardware such as a lever and a button.
[0026]
The storage unit 140 serves as a work area such as the processing unit 100, the image generation unit 160, the sound generation unit 170, the communication unit 174, and the I / F unit 176, and its functions can be realized by hardware such as a RAM.
[0027]
An information storage medium (storage medium from which information can be read by a computer) 150 stores information such as programs and data, and functions thereof are an optical disk (CD, DVD), a magneto-optical disk (MO), and a magnetic field. It can be realized by hardware such as a disk, a hard disk, a magnetic tape, or a semiconductor memory (ROM). The processing unit 100 performs various processes of the present invention (this embodiment) based on information stored in the information storage medium 150. That is, the information storage medium 150 stores various information for realizing the means of the present invention (this embodiment) (particularly, the blocks included in the processing unit 100).
[0028]
Part or all of the information stored in the information storage medium 150 is transferred to the storage unit 140 when the apparatus is powered on. Information stored in the information storage medium 150 includes program code, image information, sound information, shape information of display objects, table data, list data, player information, and processing of the present invention. It includes at least one of information for instructing, information for performing processing in accordance with the instruction, and the like.
[0029]
The image generation unit 160 generates various images in accordance with instructions from the processing unit 100 and outputs them to the display unit 162. The function of the image generation unit 160 is hardware such as an image generation ASIC, CPU, or DSP, It can be realized by a given program (image generation program) and image information.
[0030]
The sound generation unit 170 generates various sounds in accordance with instructions from the processing unit 100 and outputs them to the sound output unit 172. The function of the sound generation unit 170 is a hardware such as a sound generation ASIC, CPU, or DSP. Or a given program (sound generation program) and sound information (waveform data, etc.).
[0031]
The communication unit 174 performs various controls for communicating with an external device (for example, a host device or another game device). The function of the communication unit 174 includes hardware such as a communication ASIC or CPU, It can be realized by a given program (communication program).
[0032]
Information for realizing the processing of the present invention (this embodiment) may be distributed from the information storage medium of the host device to the information storage medium of the game device via the network and the communication unit 174. Such use of the information storage medium of the host device and use of the information storage medium of the game device are also included in the scope of the present invention.
[0033]
Further, part or all of the functions of the processing unit 100 may be realized by the functions of the image generation unit 160, the sound generation unit 170, or the communication unit 174. Alternatively, part or all of the functions of the image generation unit 160, the sound generation unit 170, or the communication unit 174 may be realized by the function of the processing unit 100.
[0034]
The I / F unit 176 is an interface for exchanging information with a memory card (in a broad sense, a portable information storage device including a portable mini game device) 180 according to an instruction from the processing unit 100 and the like. The function can be realized by a slot for inserting a memory card, a controller IC for data writing / reading, and the like. In the case where information exchange with the memory card 180 is realized using radio waves such as infrared rays, the function of the I / F unit 176 can be realized by hardware such as a semiconductor laser and an infrared sensor.
[0035]
The processing unit 100 includes a game calculation unit 110.
[0036]
Here, the game calculation unit 110 determines a coin (price) acceptance process, a game mode setting process, a game progress process, a selection screen setting process, and a position and direction of a moving object (fighter, bullet, flame, etc.). Processing, processing to determine the viewpoint position and line-of-sight direction, processing to reproduce the motion of a moving object, processing to place an object in the object space, hit check processing, processing to calculate game results (results), a game in which multiple players are common Various game calculation processes such as a process for playing in a space or a game over process are performed based on operation information from the operation unit 130, information from the memory card 180, a game program, and the like. When the present invention is applied to a game other than a fighter game, as a moving body, an airplane other than a fighter, a ship (boat, battleship, submarine, yacht, motorboat, etc.), water bike, water ski, surfboard Various things such as cars, motorcycles, tanks, robots, spaceships, and characters can be considered.
[0037]
The game calculation unit 110 includes a moving object calculation unit 112, a viewpoint control unit 114, an angle-of-view setting unit 116, an image change unit 118, and a display object expansion unit 120.
[0038]
Here, the moving object calculation unit 112 calculates movement information (position information, direction information, etc.) of a moving object such as a fighter, and is based on operation information input from the operation unit 130 or a given program, for example. Processing for moving the moving object in the object space is performed. That is, a process of moving the moving body in the object space is performed based on operation information from the player (self player, other player) and a command from the computer (a given movement control algorithm).
[0039]
More specifically, the moving body computing unit 112 performs a process for obtaining the position and direction of the moving body, for example, every frame (1/60 seconds). For example, assume that the position of the moving body in the (k-1) frame is PMk-1, the speed is VMk-1, the acceleration is AMk-1, and the time of one frame is Δt. Then, the position PMk and the speed VMk of the moving body in k frames are obtained, for example, by the following equations (1) and (2).
[0040]
PMk = PMk-1 + VMk-1 * .DELTA.t (1)
VMk = VMk-1 + AMk-1 * .DELTA.t (2)
The viewpoint control unit 114 performs processing for obtaining the viewpoint position, the line-of-sight direction, and the like based on the information on the position and direction of the moving object obtained by the moving object calculation unit 112. More specifically, for example, a process of changing the viewpoint position or the line-of-sight direction so as to follow the position or direction of the moving body operated by the player is performed. In this case, it is desirable to follow the viewpoint position or the line-of-sight direction with respect to the position or direction of the moving body, for example, while having inertia. The image generation unit 150 generates an image that can be seen at the viewpoint controlled by the viewpoint control unit 114.
[0041]
The angle-of-view setting unit 116 performs an angle-of-view setting process used for perspective transformation in the perspective transformation unit 164 in the image generation unit 160. More specifically, a first field of view and a second display used for perspective conversion of a first display object (a display object that appears to flow relatively as the viewpoint moves, for example, an air flow). Used for perspective transformation of objects (display objects that flow relatively invisible as the viewpoint moves, or display objects that appear slower than the first display object, such as fighters, maps, etc.) The angle of view is set so as to be different from the second angle of view. In this way, by setting the angle of view to be different between the first display object and the second display object displayed on the same screen (the first and second display objects having different angle of view are set to the same By mixing them in the screen, it is possible to generate an image that can feel a sense of speed with less processing load.
[0042]
In this case, the first angle of view may be increased as the moving speed of the viewpoint (moving body) increases.
[0043]
The image changing unit 118 performs a process for changing the image of the first display object so that the visibility of the first display object (for example, the airflow) increases as the moving speed of the viewpoint increases. More specifically, for example, by controlling the semi-transparency coefficient in the semi-transparent processing of the background display object and the first display object, the feature of the first display object increases as the viewpoint moving speed increases. Make the color look darker. By doing in this way, as the moving speed of the viewpoint increases, the first display object becomes more conspicuous and the movement feeling can be further improved.
[0044]
The display object extension unit 120 performs a process of making the first display object appear to expand in the direction of the viewpoint movement vector as the viewpoint movement speed increases. By doing so, the first display object appears to flow from the back of the screen, and the feeling of speed felt by the player can be further improved.
[0045]
Note that the game apparatus according to the present embodiment is capable of both game play in a single player mode played by one player and game play in a multiplayer mode played by a plurality of players.
[0046]
Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one game device, or connected via a network (transmission line, communication line), etc. It may be generated using a plurality of game devices.
[0047]
2. Features of this embodiment
2A, 2B, and 3 show examples of game images generated by the present embodiment.
[0048]
In the fighter game realized by the present embodiment, the player controls his / her fighter 22 to fly in the object space while viewing the game image as shown in FIG. The game is played against other players and fighters operated by the computer.
[0049]
FIG. 2A shows an example of a game image from the rear viewpoint (behind view, third person viewpoint) of the fighter 22. As shown in the figure, according to the present embodiment, it is possible to represent an airflow (flowing cloud) 20 that appears to flow out from the vicinity of the gazing point (center) of the screen. Thereby, the feeling of speed felt by the player can be improved.
[0050]
2B is an example of a game image when the viewpoint is set to the right of the fighter plane 22, and FIG. 3 is an example of a game image when the viewpoint is set to the front right of the fighter plane 22. As described above, according to the present embodiment, it is possible to represent the airflow 20 that extends along the moving direction of the viewpoint (fighter) regardless of the setting position of the viewpoint.
[0051]
Now, in order to express such an air flow (flowing cloud), the present embodiment performs the following processing.
[0052]
That is, as shown in FIG. 4, the angle of view θ1 used for the perspective transformation of the airflow 20 is determined from the angle of view θ2 used for the perspective transformation of the fighter plane 22 and the map (island, lake, building) 24. It is also wide. That is, the screen distance (distance between the viewpoint VP and the screen 30) SD1 used for the perspective conversion of the airflow 20 is made smaller than the screen distance SD2 used for the perspective conversion of the fighter plane 22 and the map 24. Yes.
[0053]
For example, when the angle of view is set so that the angle of view θ1 and the angle of view θ2 are the same, a game image as shown in FIG. 5A is generated. However, in this game image, the airflow 20 does not concentrate near the gazing point (the center of the screen).
[0054]
In contrast, in the present embodiment, the angle of view θ1 is made wider than the angle of view θ2. Therefore, as shown in FIG. 5B, the airflow 20 appears to flow out from the vicinity of the gazing point. For this reason, the real feeling of an image can be increased markedly.
[0055]
In addition, in the present embodiment, for the display object other than the airflow 20, for example, the fighter plane 22 and the map 24, perspective transformation is performed using an angle of view θ2 narrower than the angle of view θ1. Therefore, a realistic image expression can be realized without increasing the processing load so much.
[0056]
That is, in this type of game device, it is necessary to generate an image in real time in accordance with a player's operation. However, if not only the angle of view θ1 of the airflow 20 but also the angle of view θ2 of a display object other than the airflow 20 (fighter plane 22, map 24) is widened, the number of display objects to be subject to perspective transformation or drawing. (Range) will increase. Accordingly, the processing load for image generation is extremely increased, and it becomes impossible to draw all display objects within one frame. As a result, a display object that cannot be drawn is generated, and a problem such as a loss of an image occurs.
[0057]
In the present embodiment, a wide angle of view θ1 is used for the airflow 20, while a normal angle of view θ2 is used for other display objects. Therefore, it is possible to realize an image expression in which the airflow 20 appears to flow out from the vicinity of the gazing point without increasing the processing load of image generation so much.
[0058]
As shown in FIG. 6, the angle of view θ1 for the airflow 20 may be increased as the viewpoint moving speed increases. In this way, as the moving speed of the viewpoint increases, the airflow 20 is displayed more concentrated near the gazing point. As a result, the feeling of speed felt by the player can be further improved.
[0059]
For example, as a technique for improving the player's sense of speed, it is possible to consider a technique for widening the angle of view for all display objects such as the airflow 20, the fighter plane 22, and the map 24 as the viewpoint moving speed increases. However, with this method, as the moving speed of the viewpoint increases, the number of display objects to be subjected to perspective transformation or drawing increases greatly, and the processing load for image generation becomes extremely heavy.
[0060]
On the other hand, in the method of FIG. 6, since only the angle of view θ1 is increased according to the moving speed, the number of display objects to be subjected to perspective transformation or drawing can be reduced, and realistic image expression can be performed with a small processing load. become.
[0061]
In the present embodiment, the airflow image is changed so that the visibility of the airflow (first display object) increases as the moving speed of the viewpoint (fighter) increases.
[0062]
More specifically, as shown in FIGS. 7A and 7B, as the moving speed of the viewpoint increases, the characteristic color of the airflow 20 is made to appear darker. As a result, as the moving speed increases, the airflow 20 becomes more conspicuous, and the player feels the presence of the airflow 20 more. Therefore, as described above, the speed feeling felt by the player can be further improved by the synergistic effect with the video effect in which the airflow 20 flows out from the vicinity of the gazing point as the viewpoint moves.
[0063]
Note that, as the viewpoint moving speed increases, the method of making the airflow feature color darker is a semi-transparent addition process (translucent process in a broad sense) between the background display object (for example, the sky) and the air flow (first display object). This can be realized by controlling the translucency coefficient in.
[0064]
That is, the translucent addition process can be expressed by, for example, the following expressions (3), (4), and (5).
[0065]
XR = BR + α × CR (3)
XG = BG + α × CG (4)
XB = BB + α × CB (5)
Here, BR, BG, and BB are R, G, and B components of the color information of the background display object, and CR, CG, and CB are R, G, and B components of the color information of the air current (characteristic color of the air current). , XR, XG, XB are R, G, B components of the color information of the output image obtained by the translucent addition process. Α is a translucency coefficient (luminance in luminance addition processing) in the semitransparent addition processing.
[0066]
According to the above formulas (3), (4), and (5), the airflow can be hidden by setting the translucency coefficient α = 0. Further, by increasing α as the moving speed of the viewpoint increases, it becomes possible to make the airstream feature colors (CR, CG, CB) appear darker as the moving speed increases.
[0067]
In equations (3), (4), and (5), a semi-transparent addition process is employed to realize a technique for making the characteristic color of the air current appear darker as the viewpoint moving speed increases. A blending process may be employed. In this case, each of BR, BG, and BB is multiplied by, for example, (1-α).
[0068]
Further, in the present embodiment, as the moving speed of the viewpoint becomes faster, the airflow (first display object) appears to expand in the direction of the moving vector of the viewpoint.
[0069]
More specifically, as shown in FIGS. 7A and 7B, the length of the airflow 20 in the direction of the movement vector of the viewpoint increases as the movement speed of the viewpoint increases. By doing so, it becomes possible to more realistically express the state in which the airflow 20 flows out. Further, the feeling of speed felt by the player can be further improved.
[0070]
In addition, when extending the airflow 20 as shown in FIGS. 7A and 7B, the width of the airflow 20 may be narrowed from the screen toward the back (as the depth value increases). desirable. By doing so, an appropriate perspective of the airflow 20 can be expressed.
[0071]
Further, in the present embodiment, when the moving speed of the viewpoint becomes faster than the given first speed VVU, or when it becomes slower than the given second speed VVL, the airflow image generation Processing is omitted.
[0072]
For example, in FIG. 8A, the viewpoint VP that was behind the player's fighter plane 22 has moved behind the enemy fighter plane 23. In this case, the moving speed of the viewpoint VP is very high (higher than VVU). Therefore, in such a case, the process of changing the angle of view θ1 according to the moving speed of the viewpoint VP as shown in FIG. 6 or the moving speed of the viewpoint VP as shown in FIGS. If processing for improving the visibility of the airflow 20 or processing for expanding the airflow 20 is performed, an unnatural image may be generated. For example, the angle of view θ1 becomes too wide, the visibility (characteristic color) of the airflow 20 is emphasized too much, or the airflow 20 is excessively extended in the direction of the viewpoint movement vector.
[0073]
In FIG. 8B, the viewpoint VP is stopped. In such a case, even if processing for changing the angle of view, the visibility of the airflow, and the degree of expansion of the airflow according to the moving speed of the viewpoint VP, an unnatural image may still be generated. There is.
[0074]
Therefore, in the present embodiment, a method is adopted in which the airflow image generation process is omitted when the moving speed of the viewpoint becomes faster than VVU or lower than VVL. By doing in this way, the situation where an unnatural image is generated can be prevented. In particular, when this method is combined with a method of changing the density of the airflow feature color according to the moving speed of the viewpoint, the airflow characteristic color becomes lighter as the moving speed of the viewpoint becomes slower, and the moving speed is lower than VVL. As it slows, the airflow disappears. Therefore, a more natural image can be generated.
[0075]
3. Processing of this embodiment
Next, a detailed processing example of the present embodiment will be described with reference to the flowcharts of FIGS.
[0076]
First, as shown in FIG. 11A, a movement vector EVP of the viewpoint VP (for example, a vector connecting the viewpoint position one or more frames before and the current viewpoint position) is obtained (step S1).
[0077]
Next, it is determined whether the length LVP (corresponding to the viewpoint movement speed) of the viewpoint movement vector EVP is larger than the speed VVU (first speed) or smaller than the speed VVL (second speed). (Step S2). Then, as described with reference to FIGS. 8A and 8B, when the LVP is larger than the VVU or smaller than the VVL, the subsequent steps S3 to S14 are omitted.
[0078]
Next, based on the length LVP (viewpoint moving speed) of the viewpoint movement vector EVP, the translucency coefficient α (see the above formulas (3), (4), and (5)) is obtained (step S3). More specifically, α is increased if LVP is long, and α is decreased if LVP is short. In this way, as described in FIGS. 7A and 7B, the visibility of the airflow 20 (the density of the characteristic color of the airflow 20) can be increased as the viewpoint moving speed increases. become.
[0079]
Next, the angle of view is set to be wider than the normal angle of view (step S4). That is, as described with reference to FIG. 4, the angle of view θ1 for airflow is made wider than the normal angle of view θ2. In this way, as described with reference to FIGS. 5A and 5B, a realistic expression that the airflow 20 appears to flow from the vicinity of the gazing point on the screen is possible, and the feeling of speed felt by the player Can be improved.
[0080]
Next, the center position (representative position) CP of the coordinate loop region CLR as shown in FIG. 11B is obtained based on the viewpoint position and the line-of-sight direction (step S5). That is, a position that is separated from the position of the viewpoint VP by the offset distance DOFF along the line-of-sight direction is defined as CP.
[0081]
Next, based on the coordinates of the center position CP of the coordinate loop area CLR and a given random number table, the coordinates (airflow coordinates) of a given point PN in the coordinate loop area CLR are obtained (step S6). This point PN is a point whose position is fixed (a stationary point) in the world (absolute) coordinate system.
[0082]
In this embodiment, even if the viewpoint VP moves as shown in FIG. 12 or the line-of-sight direction changes as shown in FIG. 13, the point PN (for example, P1 to P8) is always set to a point in the coordinate loop area CLR. As described above, a coordinate loop process is performed. For example, as shown in G1, G2, G3, and G4 in FIG. 12, consider a case where the points P7 and P8 are out of the coordinate loop region CLR due to the movement of the viewpoint VP. Also in this case, as shown in G5 and G6, the coordinate loop process is performed so that the points P7 and P8 become the points in the coordinate loop region CLR again.
[0083]
In this embodiment, the center position CP of the coordinate loop region CLR is set not at the viewpoint VP but at a position separated from the position of the viewpoint VP by the offset distance DOFF along the line-of-sight direction. Therefore, as compared with the case where the center position CP is set to the position of the viewpoint VP, more points PN (airflow) are included in the visual field range, and the realism of the image can be increased with a small processing load. Become.
[0084]
Next, based on the viewpoint movement vector EVP obtained in step S1 and the point PN obtained in step S6, points PN1 and PN2 (first and second points) as shown in FIG. Is obtained (step S7). In this way, as described with reference to FIGS. 7A and 7B, as the moving speed of the viewpoint increases (as the length LVP of the moving vector EVP increases), the moving vector EVP of the viewpoint The airflow 20 appears to expand along the direction.
[0085]
Next, as shown in FIG. 14B, the points PT1 and PT2 (first and second points) in the coordinate system of the screen 30 are obtained by perspective-transforming the points PN1 and PN2 (step 1). S8). In this case, the perspective transformation is performed using the angle of view (θ1 in FIG. 4) set in step S4.
[0086]
Next, it is determined whether or not both of the points PT1 and PT2 are outside the screen 30 (step S9), and if both are outside, the subsequent steps S10 to S13 are omitted.
[0087]
Next, widths W1 and W2 (first and second widths) are obtained based on the depth values (Z coordinates) of the points PN1 and PN2 (step S10). The widths W1 and W2 are smaller values as the depth values of the points PN1 and PN2 are larger (as the points PN1 and PN2 are farther from the viewpoint VP). By setting the widths W1 and W2 to such values, it is possible to appropriately express the perspective of the airflow.
[0088]
Next, based on the points PT1 and PT2 in the coordinate system of the screen 30 and the widths W1 and W2 obtained in step S10, as shown in FIG. PT4, PT5, and PT6 (third point, fourth point, fifth point, and sixth point) are obtained (step S11). Then, as shown in FIG. 15B, a polygon 40 (primitive surface) having points PT3, PT4, PT5, and PT6 as vertices is generated (specified) (step S12). By mapping the texture 42 of the airflow (flowing cloud) pattern on the polygon 40, an image of the airflow 20 as shown in FIGS. 2A to 3 can be generated.
[0089]
Next, it is determined whether or not the processing for all (N) PNs (P1 to P8) has been completed (step S13). If not completed, the process returns to step S6, and if completed, The angle of view is returned to the normal angle of view (step S14). That is, the angle of view is returned to the angle of view θ2 in FIG.
[0090]
Various methods can be considered as methods for obtaining the points PT3, PT4, PT5, and PT6 from the points PT1 and PT2 and the widths W1 and W2.
[0091]
For example, in FIG. 16A, points separated from the point PT1 by W1 in a direction orthogonal to the line 50 connecting the points PT1 and PT2 are designated as PT3 and PT4. Points that are separated from the point PT2 by W2 in the direction orthogonal to the line 50 are designated as PT5 and PT6.
[0092]
However, with this method, as shown in FIG. 16B, when the distance between the points PT1 and PT2 is short, the generated polygon 40 becomes extremely thin and the polygon 40 (airflow) becomes invisible to the player. (Visibility becomes extremely low).
[0093]
On the other hand, in FIG. 16C, among the two regions AR1 and AR2 defined by the line 52 (first line) orthogonal to the line 50 connecting the points PT1 and PT2 and passing through the point PT1, the point PT2 is The points PT3 and PT4 are positioned in the area AR2 which does not belong. In addition, among the two areas AR3 and AR4 that are orthogonal to the line 50 and defined by the line 54 (second line) passing through the point PT2, the points PT5 and PT6 are located in the area AR3 to which the point PT1 does not belong. To be located. That is, the polygon 40 is stretched along the direction of the line 50 connecting the points PT1 and PT2. In this way, even when the distance between the points PT1 and PT2 is short as shown in FIG. 16D, the situation in which the polygon 40 becomes extremely thin and the polygon 40 becomes invisible can be simplified. It can be effectively prevented by processing.
[0094]
4). Hardware configuration
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. In the apparatus shown in the figure, a CPU 1000, a ROM 1002, a RAM 1004, an information storage medium 1006, a sound generation IC 1008, an image generation IC 1010, and I / O ports 1012, 1014 are connected to each other via a system bus 1016 so that data can be transmitted and received. A display 1018 is connected to the image generation IC 1010, a speaker 1020 is connected to the sound generation IC 1008, a control device 1022 is connected to the I / O port 1012, and a communication device 1024 is connected to the I / O port 1014. Has been.
[0095]
The information storage medium 1006 mainly stores programs, image data for expressing display objects, sound data, and the like. For example, a consumer game device uses a CD-ROM, game cassette, DVD, or the like as an information storage medium for storing a game program or the like. The arcade game machine uses a memory such as a ROM. In this case, the information storage medium 1006 is a ROM 1002.
[0096]
The control device 1022 corresponds to a game controller, an operation panel, and the like, and is a device for inputting a result of a determination made by the player in accordance with the progress of the game to the device main body.
[0097]
In accordance with a program stored in the information storage medium 1006, a system program stored in the ROM 1002 (such as device initialization information), a signal input by the control device 1022, the CPU 1000 controls the entire device and performs various data processing. . The RAM 1004 is a storage means used as a work area of the CPU 1000 and stores the given contents of the information storage medium 1006 and the ROM 1002 or the calculation result of the CPU 1000. A data structure having a logical configuration for realizing the present embodiment is constructed on the RAM or the information storage medium.
[0098]
Further, this type of apparatus is provided with a sound generation IC 1008 and an image generation IC 1010 so that game sounds and game images can be suitably output. The sound generation IC 1008 is an integrated circuit that generates game sounds such as sound effects and background music based on information stored in the information storage medium 1006 and the ROM 1002, and the generated game sounds are output by the speaker 1020. The image generation IC 1010 is an integrated circuit that generates pixel information to be output to the display 1018 based on image information sent from the RAM 1004, the ROM 1002, the information storage medium 1006, and the like. As the display 1018, a so-called head mounted display (HMD) can be used.
[0099]
The communication device 1024 exchanges various types of information used inside the game device with the outside. The communication device 1024 is connected to other game devices to send and receive given information according to the game program, and to connect a communication line. It is used for sending and receiving information such as game programs.
[0100]
Various processes described with reference to FIGS. 1 to 16D include an information storage medium 1006 that stores information such as programs and data, a CPU 1000 that operates based on information from the information storage medium 1006, and an image generation IC 1010. Alternatively, it is realized by a sound generation IC 1008 or the like. The processing performed by the image generation IC 1010, the sound generation IC 1008, and the like may be performed by software using the CPU 1000 or a general-purpose DSP.
[0101]
FIG. 18A shows an example in which the present embodiment is applied to an arcade game device. The player enjoys the game by operating the lever 1102, the button 1104, and the like while viewing the game image displayed on the display 1100. A CPU, an image generation IC, a sound generation IC, and the like are mounted on a system board (circuit board) 1106 built in the apparatus. Information for executing (implementing) the processing (means of the present invention) of this embodiment is stored in a semiconductor memory 1108 that is an information storage medium on the system board 1106. Hereinafter, this information is referred to as storage information.
[0102]
FIG. 18B shows an example in which the present embodiment is applied to a home game device. The player enjoys the game by operating the game controllers 1202 and 1204 while viewing the game image displayed on the display 1200. In this case, the stored information is stored in a CD-ROM 1206, memory cards 1208, 1209, etc., which are information storage media detachable from the main unit.
[0103]
FIG. 18C shows a host apparatus 1300 and terminals 1304-1 to 1304- connected to the host apparatus 1300 via a communication line (small network such as a LAN or wide area network such as the Internet) 1302. An example in which the present embodiment is applied to a system including n will be shown. In this case, the stored information is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a semiconductor memory that can be controlled by the host device 1300, for example. When the terminals 1304-1 to 1304-n have a CPU, an image generation IC, and a sound processing IC and can generate game images and game sounds stand-alone, the host device 1300 receives game images and games. A game program or the like for generating sound is delivered to the terminals 1304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, which is transmitted to the terminals 1304-1 to 1304-n and output at the terminal.
[0104]
In the case of the configuration shown in FIG. 18C, the processing according to the present invention may be performed in a distributed manner between the host device and the terminal (when a server is provided, the host device, the server, and the terminal). Good. The storage information for realizing the present invention is distributed to the information storage medium of the host device and the information storage medium of the terminal (or the information storage medium of the host device, the information storage medium of the server, and the information storage medium of the terminal). May be stored.
[0105]
The terminal connected to the communication line may be a home game device or an arcade game device. When the arcade game device is connected to a communication line, portable information storage that can exchange information with the arcade game device and also exchange information with the home game device. It is desirable to use a device (memory card, portable game device).
[0106]
The present invention is not limited to that described in the above embodiment, and various modifications can be made.
[0107]
For example, in the present embodiment, the case where the angle of view θ1 for the first display object is different from the angle of view θ2 for the second display object has been described. However, the present invention is not limited to this, and the angle of view θ1 for the first display object, the angle of view θ2 for the second display object, the angle of view θ3 for the third display object,. The case where the angle of view θN for the display object is varied is also included in the scope of the present invention.
[0108]
In the present embodiment, the case where the first display object is an airflow (flowing cloud) and the second display object is a fighter plane or a map has been described as an example. However, the first and second displays in the present invention are described. Things are not limited to this. For example, as the first display object, a display object that relatively flows as the viewpoint (moving body) moves is particularly desirable. In addition to the air current, various displays such as rain, snow, stars, fog, and the like are possible. I can think of things. The second display object is particularly desirable to be a display object that does not appear to flow relatively as the viewpoint moves, or is a display object that appears to be slower than the second display object. Various displays can be considered in addition to machines and maps.
[0109]
In this embodiment, the case where the angle of view is directly set has been described. However, the case where a parameter (for example, a screen distance) equivalent to the angle of view (for example, a screen distance) is set is also included in the scope of the present invention. .
[0110]
When changing the first angle of view, the visibility of the first display object, or the degree of expansion of the first display object based on parameters equivalent to the viewpoint movement speed, not the viewpoint movement speed itself. Are also included within the scope of the present invention.
[0111]
In the present embodiment, the method of arranging only the representative position (point PN) of the first display object in the object space (world coordinate system) has been described. The method of arranging only the representative positions as described above is particularly desirable from the viewpoint of reducing the processing load, but the three-dimensional first display object itself may be arranged in the object space.
[0112]
In addition, the method described with reference to FIGS. 7A and 7B is particularly preferable as a method for increasing the visibility of the first display object as the moving speed of the viewpoint increases. However, the method is not limited to this.
[0113]
Further, the present invention can be applied to various games other than fighter games (airplane games other than fighter aircraft, spaceship games, competitive games, fighting games, robot battle games, sports games, shooting games, role playing games, etc.). .
[0114]
Further, the present invention is applied to various game devices such as a business game device, a home game device, a large attraction device in which a large number of players participate, a simulator, a multimedia terminal, an image generation device, and a system board for generating a game image. it can.
[Brief description of the drawings]
FIG. 1 is an example of a block diagram of a game device according to an embodiment of the present invention.
FIGS. 2A and 2B are diagrams showing examples of game images generated according to the present embodiment.
FIG. 3 is a diagram illustrating an example of a game image generated according to the present embodiment.
FIG. 4 is a diagram for explaining a method of making the angles of view θ1 and θ2 different.
FIGS. 5A and 5B are diagrams for explaining an image generated when the angles of view θ1 and θ2 are different from each other.
FIG. 6 is a diagram for explaining a method of changing the angle of view θ1 according to the moving speed of the viewpoint.
FIGS. 7A and 7B are diagrams for explaining a method of changing the visibility of airflow and the degree of expansion according to the moving speed of the viewpoint.
FIGS. 8A and 8B are diagrams for explaining a method of omitting the airflow image generation processing when the viewpoint moving speed is faster than the speed VVU or slower than the speed VVL. It is.
FIG. 9 is an example of a flowchart showing a detailed processing example of the present embodiment.
FIG. 10 is an example of a flowchart showing a detailed processing example of the present embodiment.
FIGS. 11A and 11B are diagrams for explaining a viewpoint movement vector and a coordinate loop region; FIGS.
FIG. 12 is a diagram for explaining coordinate loop processing in a coordinate loop region;
FIG. 13 is a diagram for explaining coordinate loop processing in a coordinate loop region;
FIGS. 14A and 14B are diagrams for explaining a method of obtaining PN1 and PN2 from PN and obtaining PT1 and PT2 on the screen from PN1 and PN2.
FIGS. 15A and 15B are diagrams for explaining a technique for obtaining PT3 to PT6 from PT1, PT2, W1, and W2 and generating a polygon for expressing an airflow.
16 (A), (B), (C), and (D) are diagrams for explaining various methods for obtaining PT3 to PT6 from PT1, PT2, and W1, W2.
FIG. 17 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.
18A, 18B, and 18C are diagrams illustrating examples of various types of apparatuses to which the present embodiment is applied.
[Explanation of symbols]
20 Airflow (flowing clouds)
22 Fighter
23 Enemy Fighter
24 maps
30 screens
40 polygons
42 texture
50 Line connecting PT1 and PT2
52 First line
54 Second line
100 processor
110 Game calculation part
112 Mobile object calculation unit
114 Viewpoint control unit
116 Angle setting section
118 Image change section
120 Display object extension
130 Operation unit
140 Storage unit
150 Information storage medium
160 Image generator
162 Display section
164 Perspective conversion unit
170 Sound generator
172 sound output unit
174 Communication Department
176 I / F section
180 memory card

Claims (6)

画像を生成するためのゲーム装置であって、
オブジェクト空間内で移動する視点の制御を行うための手段と、
視点の移動速度が速くなるにつれて、複数の表示物の中の第1の表示物の特徴色の濃度が高くなるように前記第1の表示物の画像を変化させるための処理を行う画像変化手段と、
前記第1の表示物を含む表示物の画像を生成するための手段とを含み、
前記画像変化手段が、
視点の移動速度に基づき前記第1の表示物の半透明係数を求め、求めた半透明係数に基づき前記第1の表示物の半透明処理を行うことで、前記第1の表示物の特徴色の濃度を高くすることを特徴とするゲーム装置。
A game device for generating an image,
Means for controlling the viewpoint moving in the object space;
Image changing means for performing processing for changing the image of the first display object such that the density of the characteristic color of the first display object among the plurality of display objects increases as the moving speed of the viewpoint increases. When,
Means for generating an image of a display object including the first display object,
The image changing means is
A characteristic color of the first display object is obtained by obtaining a semi-transparency coefficient of the first display object based on a moving speed of the viewpoint, and performing a semi-transparency process of the first display object based on the obtained semi-transparency coefficient. A game device characterized by increasing the density of the game.
請求項1において、
視点の移動速度が速くなるにつれて、前記第1の表示物を視点の移動ベクトルの方向に伸張させる手段を更に含むことを特徴とするゲーム装置。
In claim 1,
The game apparatus further comprising means for extending the first display object in the direction of the viewpoint movement vector as the viewpoint movement speed increases.
請求項1又は2において、
前記画像変化手段が、
視点の移動速度が所与の第1の速度よりも速くなった場合及び視点の移動速度が所与の第2の速度よりも遅くなった場合の少なくとも一方の場合に、視点の移動速度が速くなるにつれて第1の表示物の特徴色の濃度を高くする処理を省略することを特徴とするゲーム装置。
In claim 1 or 2,
The image changing means is
The viewpoint movement speed is high when the movement speed of the viewpoint becomes faster than the given first speed and / or when the movement speed of the viewpoint becomes slower than the given second speed. A game device characterized by omitting the process of increasing the density of the characteristic color of the first display object.
コンピュータにより情報の読み取りが可能であり、画像を生成するための情報記憶媒体であって、
オブジェクト空間内で移動する視点の制御を行うための手段と、
視点の移動速度が速くなるにつれて、複数の表示物の中の第1の表示物の特徴色の濃度が高くなるように前記第1の表示物の画像を変化させるための処理を行う画像変化手段と、
前記第1の表示物を含む表示物の画像を生成するための手段として、
コンピュータを機能させるプログラムを記憶し
前記画像変化手段が、
視点の移動速度に基づき前記第1の表示物の半透明係数を求め、求めた半透明係数に基づき前記第1の表示物の半透明処理を行うことで、前記第1の表示物の特徴色の濃度を高くすることを特徴とする情報記憶媒体。
An information storage medium capable of reading information by a computer and generating an image,
Means for controlling the viewpoint moving in the object space;
Image changing means for performing processing for changing the image of the first display object such that the density of the characteristic color of the first display object among the plurality of display objects increases as the moving speed of the viewpoint increases. When,
As means for generating an image of a display object including the first display object,
Memorize the program that makes the computer work,
The image changing means is
A characteristic color of the first display object is obtained by obtaining a semi-transparency coefficient of the first display object based on a moving speed of the viewpoint, and performing a semi-transparency process of the first display object based on the obtained semi-transparency coefficient. An information storage medium characterized by increasing the concentration of
請求項4において、
視点の移動速度が速くなるにつれて、前記第1の表示物を視点の移動ベクトルの方向に伸張させる手段として更にコンピュータを機能させるプログラムを記憶したことを特徴とする情報記憶媒体。
In claim 4,
An information storage medium storing a program for further causing a computer to function as means for extending the first display object in the direction of a viewpoint movement vector as the viewpoint movement speed increases.
請求項4又は5において、
前記画像変化手段が、
視点の移動速度が所与の第1の速度よりも速くなった場合及び視点の移動速度が所与の第2の速度よりも遅くなった場合の少なくとも一方の場合に、視点の移動速度が速くなるにつれて第1の表示物の特徴色の濃度を高くする処理を省略させることを特徴とする情報記憶媒体。
In claim 4 or 5,
The image changing means is
The viewpoint movement speed is high when the movement speed of the viewpoint becomes faster than the given first speed and / or when the movement speed of the viewpoint becomes slower than the given second speed. An information storage medium characterized by omitting the process of increasing the density of the characteristic color of the first display object.
JP2003032157A 2003-02-10 2003-02-10 GAME DEVICE AND INFORMATION STORAGE MEDIUM Expired - Lifetime JP4261211B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003032157A JP4261211B2 (en) 2003-02-10 2003-02-10 GAME DEVICE AND INFORMATION STORAGE MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003032157A JP4261211B2 (en) 2003-02-10 2003-02-10 GAME DEVICE AND INFORMATION STORAGE MEDIUM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP02159099A Division JP3420959B2 (en) 1999-01-29 1999-01-29 GAME DEVICE AND INFORMATION STORAGE MEDIUM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008333860A Division JP4521836B2 (en) 2008-12-26 2008-12-26 GAME DEVICE AND INFORMATION STORAGE MEDIUM

Publications (2)

Publication Number Publication Date
JP2003281570A JP2003281570A (en) 2003-10-03
JP4261211B2 true JP4261211B2 (en) 2009-04-30

Family

ID=29244420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003032157A Expired - Lifetime JP4261211B2 (en) 2003-02-10 2003-02-10 GAME DEVICE AND INFORMATION STORAGE MEDIUM

Country Status (1)

Country Link
JP (1) JP4261211B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108525299A (en) * 2012-11-16 2018-09-14 索尼互动娱乐美国有限责任公司 A kind of system and method for enhancing the computer application of remote service

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5957258B2 (en) * 2012-03-29 2016-07-27 株式会社バンダイナムコエンターテインメント Program, information storage medium, game device, and server system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108525299A (en) * 2012-11-16 2018-09-14 索尼互动娱乐美国有限责任公司 A kind of system and method for enhancing the computer application of remote service
CN108525299B (en) * 2012-11-16 2021-09-21 索尼互动娱乐美国有限责任公司 System and method for enhancing computer applications for remote services

Also Published As

Publication number Publication date
JP2003281570A (en) 2003-10-03

Similar Documents

Publication Publication Date Title
JP3227158B2 (en) 3D game device
JP3707995B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4610748B2 (en) Image generation system, program, and information storage medium
JP3786670B1 (en) Program, information storage medium, and image generation system
JP3420957B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP3467197B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2007105499A (en) Game system, program and information storage medium
JP3420959B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
US6890261B2 (en) Game system, program and image generation method
JP4261211B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP3401204B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP3917532B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4651204B2 (en) Image generation system, program, and information storage medium
JP4187192B2 (en) Image generation system, program, and information storage medium
JP4707078B2 (en) Image generation system, program, and information storage medium
JP4521836B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4521837B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP3420986B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP5054908B2 (en) Program, information storage medium, and image generation system
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP3420961B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4001556B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JPH10113465A (en) Game device, screen generating method, and information memory medium
JP4698701B2 (en) Image generation system, program, and information storage medium
JP2007181713A (en) Game machine and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081029

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090204

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140220

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term