JP2005319029A - プログラム、情報記憶媒体および画像生成システム - Google Patents

プログラム、情報記憶媒体および画像生成システム Download PDF

Info

Publication number
JP2005319029A
JP2005319029A JP2004138919A JP2004138919A JP2005319029A JP 2005319029 A JP2005319029 A JP 2005319029A JP 2004138919 A JP2004138919 A JP 2004138919A JP 2004138919 A JP2004138919 A JP 2004138919A JP 2005319029 A JP2005319029 A JP 2005319029A
Authority
JP
Japan
Prior art keywords
effect
virtual camera
event
image
boundary surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004138919A
Other languages
English (en)
Other versions
JP4412715B2 (ja
Inventor
Shigeto Murata
茂人 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2004138919A priority Critical patent/JP4412715B2/ja
Priority to US11/117,544 priority patent/US7312804B2/en
Publication of JP2005319029A publication Critical patent/JP2005319029A/ja
Application granted granted Critical
Publication of JP4412715B2 publication Critical patent/JP4412715B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • A63F2300/643Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car by determining the impact between objects, e.g. collision detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6638Methods for processing data by generating or executing the game program for rendering three dimensional images for simulating particle systems, e.g. explosion, fireworks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】 エフェクト・イベントの発生をプレーヤに確実に認識させることができるプログラム、情報記憶媒体及び画像生成システムを提供する。
【解決手段】 エフェクトブオジェクトEFの発生するエフェクト・イベントが発生したと判定された場合に、エフェクト・イベントの発生位置EPに基づいて設定されるエフェクト範囲ER内に仮想カメラVCが存在するか否かを判定し、エフェクト範囲ER内に仮想カメラVCが存在すると判定された場合に、少なくとも仮想カメラVCの視野外に配置設定されるエフェクトブオジェクトEFを、仮想カメラVCの視野内に移動して配置する。
【選択図】 図3

Description

本発明は、プログラム、情報記憶媒体および画像生成システムに関する。
従来より、キャラクタなどのオブジェクトが配置設定されるオブジェクト空間内(仮想的な3次元空間)において仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。プレーヤがキャラクタを操作してオブジェクト空間を移動させたり、キャラクタに何らかの行動を行わせるアクションゲームのゲームの画像を生成する画像生成システムを例にとれば、イベント発生時にゲーム演出として爆発、炎、煙などをエフェクトオブジェクトを用いて表現した3次元画像が生成される。このような3次元画像を生成するシステムでは、処理を簡便なものとするために、スプライトポリゴン(ビルボード表示のポリゴン)などエフェクトを2次元的に表現するオブジェクトが用いられる手法がある。
しかしながらこの手法では、例えばエフェクトオブジェクトを発生させるイベント(エフェクト・イベント)がプレーヤキャラクタの近くで発生したために、エフェクトオブジェクトが仮想カメラの後ろ側などに配置設定されると、実際には見えるべき映像エフェクトがプレーヤには認識できない状況が発生しうる。仮想カメラの前方にエフェクトオブジェクトが配置設定されたとしても、その位置が仮想カメラとスクリーンとの間の位置である場合にも同様な状況が発生しうる。特に、エフェクトオブジェクトによりプレーヤの操作するキャラクタにヒット・ダメージを与えるような効果が与えられている場合には、プレーヤには映像エフェクトを認識できないにもかかわらず、自己のキャラクタがダメージを負うといった不自然な状況が起こりうる。
特開平10−179932号公報
本発明は上記事情に鑑みてなされたものであり、その目的は、エフェクト・イベントの発生をプレーヤに確実に認識させることができるプログラム、情報記憶媒体及び画像生成システムを提供することにある。
本発明は、画像を生成する画像生成システムであって、エフェクトブオジェクトの発生するエフェクト・イベントが発生したか否かを判定するイベント発生判定部と、前記エフェクト・イベントが発生したと判定された場合に、該エフェクト・イベントの発生位置に基づいて設定される所与のエフェクト範囲内に仮想カメラ又はプレーヤが操作するプレーヤキャラクタが存在するか否かを判定する位置判定部と、前記エフェクト範囲内に前記仮想カメラ又はプレーヤキャラクタが存在すると判定された場合に、少なくとも前記仮想カメラの視野外に配置設定されるエフェクトブオジェクト又は予め用意されたダミーエフェクトオブジェクトを、前記仮想カメラの視野内に配置するエフェクト配置処理部と、オブジェクト空間における前記仮想カメラから見た画像を生成する画像生成部とを含む画像生成システムに関係する。また、本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また、本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。
本発明によれば、エフェクト・イベントが発生した場合に、仮想カメラ(所与の視点)の視野外に配置設定されるエフェクトオブジェクトを仮想カメラの視野内に配置変更する、あるいは予め用意されたダミーエフェクトオブジェクトを仮想カメラの視野内に配置することにより、仮想カメラあるいはプレーヤの操作するプレーヤキャラクタの近傍でエフェクト・イベントが発生したことをプレーヤに確実に伝達するようにエフェクトオブジェクトが表現された画像を生成することができる。
また本発明に係る画像生成システム、プログラムおよび情報記憶媒体では、前記エフェクト・イベントに基づいて複数の前記エフェクトオブジェクトが発生する場合に、前記エフェクト配置処理部が、少なくとも前記複数のエフェクトオブジェクトのカメラ座標系の奥行き方向における配置順列を変更せずに、各エフェクトオブジェクトを移動して配置するようにしてもよい。このようにすれば、エフェクトオブジェクトの配置変更により各オブジェクトの配置順列が乱れて生成画像が不自然になることを防止することができる。
また本発明に係る画像生成システム、プログラムおよび情報記憶媒体では、カメラ座標系における前記仮想カメラの前方に設定される第1の境界面と、カメラ座標系における該仮想カメラの後方に設定される第2の境界面との間が所与の奥行き範囲として設定されており、前記エフェクト配置処理部が、前記第1の境界面とスクリーンとの間の第1の距離と、前記第1の境界面と第2の境界面との間の第2の距離との比に基づいて、前記複数のエフェクトオブジェクトが前記第1の境界面と前記スクリーンとの間に配置されるように各エフェクトオブジェクトのカメラ座標系の奥行き情報を演算し、求められた前記奥行き情報に基づいて前記所与の奥行き範囲内に配置設定される各エフェクトオブジェクトを移動して配置するようにしてもよい。このようにすれば、第1の境界面と第2の境界面とによって区画された所与の領域内に配置されるエフェクトオブジェクトのみが配置変更されるため、生成画像が不自然になりにくく、処理負担が大きくなることも防止することができる。また各エフェクトオブジェクトの配置が変更される際には、所定の境界面との関係で決まる距離比に基づいて変更配置後のエフェクトオブジェクトの奥行き情報が求められるため、エフェクトオブジェクトの配置順列のみならず配置間隔比も変更されることはなく、より自然なエフェクト表現が実現できる。
また本発明に係る画像生成システム、プログラムおよび情報記憶媒体では、前記エフェクト・イベントに基づいて複数の前記エフェクトオブジェクトが発生する場合に、前記エフェクト配置処理部が、少なくとも前記複数のエフェクトオブジェクトのカメラ座標系の奥行き方向における配置順列に従って、各エフェクトオブジェクトに対応する複数のダミーエフェクトオブジェクトを前記仮想カメラの視野内に配置するようにしてもよい。このようにすれば、複数のエフェクトオブジェクトに対応する複数のダミーエフェクトオブジェクトが各エフェクトオブジェクトの配置順列に従って配置されるため、生成画像が不自然になることを防止することができる。
また本発明に係る画像生成システム、プログラムおよび情報記憶媒体では、カメラ座標系における前記仮想カメラの前方に設定される第1の境界面と、カメラ座標系における該仮想カメラの後方に設定される第2の境界面との間が所与の奥行き範囲として設定されており、前記エフェクト配置処理部が、前記第1の境界面とスクリーンとの間の第1の距離と、前記第1の境界面と第2の境界面との間の第2の距離との比に基づいて、前記複数のエフェクトオブジェクトが前記第1の境界面と前記スクリーンとの間に配置される場合の各エフェクトオブジェクトのカメラ座標系の奥行き情報を演算し、求められた前記奥行き情報に基づいて前記所与の奥行き範囲内に配置設定される各エフェクトオブジェクトに対応する複数のダミーエフェクトオブジェクトを前記仮想カメラの視野内に配置するようにしてもよい。このようにすれば、少なくとも第1の境界面と第2の境界面とによって区画された所与の領域内に配置されるエフェクトオブジェクトに対応するダミーエフェクトオブジェクトを発生させればよいため、処理負担が大きくなることを防止することができる。また仮想カメラの視野内に配置されるダミーエフェクトオブジェクトは、所定の境界面との関係で決まる距離比に基づいてその配置位置を決定する奥行き情報が求められるため、ダミーエフェクトオブジェクトの配置順列のみならず配置間隔比もエフェクトオブジェクトの配置順列および配置間隔比に対して変更されることはなく、より自然なエフェクト表現が実現できる。
また本発明に係る画像生成システム、プログラムおよび情報記憶媒体では、前記エフェクト配置処理部により配置されたエフェクトオブジェクト又はダミーエフェクトオブジェクトのカメラ座標系における奥行き情報に基づいて、前記エフェクトオブジェクト又はダミーエフェクトオブジェクトの位置がスクリーン位置又は仮想カメラの位置に近くなるほど透明度が高くなるように半透明合成処理を行う半透明処理部を含んでいてもよい。このようにすれば、プレーヤの操作するプレーヤキャラクタが見えにくくなることを防止することができる。また、プレーヤキャラクタと共に仮想カメラが移動している場合(仮想カメラがプレーヤキャラクタの移動・動作に追従するように制御される場合)にも、エフェクトが不自然に消滅するように表現されることを防止することができる。
また本発明に係る画像生成システム、プログラムおよび情報記憶媒体では、第1〜第N(Nは2以上の整数)の画像により分割して表示される場合に、前記画像生成部が、前記第1〜第Nの画像として、第1〜第Nの仮想カメラから見える画像を生成し、前記位置判定部が、前記エフェクト・イベントの発生位置に基づいて設定される所与のエフェクト範囲内に前記第1〜第Nの仮想カメラ又は第1〜第Nのプレーヤキャラクタが存在するか否かを判定し、前記エフェクト配置処理部が、前記第1〜第Nの仮想カメラのうち第K(1≦K≦N)の仮想カメラ又は第Kのプレーヤキャラクタが前記エフェクト範囲内に存在すると判定された場合に限って、少なくとも該第Kの仮想カメラの視野外に配置設定されるエフェクトブオジェクト又は予め用意されたダミーエフェクトオブジェクトを、該第Kの仮想カメラの視野内に配置するようにしてもよい。この場合、第1〜第Nの仮想カメラのうち第L(1≦L≦N)の仮想カメラ又は第Lのプレーヤキャラクタがエフェクト範囲内に存在しないと判定された場合には、第Lの仮想カメラから見える画像を生成するにあたってエフェクトオブジェクトを移動しないで配置する(配置設定された通りに配置する)とともに、ダミーエフェクトオブジェクトも第Lの仮想カメラの視野内に配置されない。
このようにすれば、エフェクトの影響を受けているプレーヤ用の画像にはエフェクトオブジェクトの配置変更あるいはダミーエフェクトオブジェクトの配置を行ってエフェクトに巻き込まれていることをプレーヤに確実に伝達することができ、これを他の仮想カメラ(視点)で見るプレーヤ用の画像には、イベント発生位置にそのままエフェクトオブジェクトを配置して自然な画像表現を実現することができる。
また本発明は、画像を生成する画像生成システムであって、エフェクトブオジェクトの発生するエフェクト・イベントが発生したか否かを判定するイベント発生判定部と、前記エフェクト・イベントが発生したと判定された場合に、該エフェクト・イベントの発生位置に基づいて設定される所与のエフェクト範囲内に仮想カメラ又はプレーヤが操作するプレーヤキャラクタが存在するか否かを判定する位置判定部と、前記エフェクト範囲内に前記仮想カメラ又はプレーヤキャラクタが存在すると判定された場合に、少なくとも前記仮想カメラの視野外に配置設定されるエフェクトブオジェクトが、前記仮想カメラの視野内に存在するように、前記仮想カメラの位置を移動する仮想カメラ制御部と、オブジェクト空間における前記仮想カメラから見た画像を生成する画像生成部とを含む画像生成システムに関係する。また、本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また、本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。
本発明によれば、エフェクト・イベントが発生した場合に、仮想カメラ(所与の視点)の視野外に配置設定されるエフェクトオブジェクトが仮想カメラの視野内に存在するように仮想カメラの位置を移動(変更)することにより、仮想カメラあるいはプレーヤの操作するプレーヤキャラクタの近傍でエフェクト・イベントが発生したことをプレーヤに確実に伝達するようにエフェクトオブジェクトが表現された画像を生成することができる。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.構成
図1に本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
操作部160は、プレーヤがプレーヤオブジェクト(プレーヤが操作するプレーヤキャラクタ)の操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。
携帯型情報記憶装置194は、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。通信部196は外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。
なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。
処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は記憶部170内の主記憶部171をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。
処理部100は、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部114、イベント発生判定部116、位置判定部118、エフェクト配置処理部120、ヒット判定部122、画像生成部130、音生成部140を含む。なおこれらの一部を省略する構成としてもよい。
オブジェクト空間設定部110は、キャラクタ、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。
移動・動作処理部112は、オブジェクト(キャラクタ、車、又は飛行機等)の移動・動作演算(移動・動作シミュレーション)を行う。即ち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、オブジェクト(プレーヤオブジェクト;プレーヤキャラクタを表現するオブジェクト)をオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させる処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。
仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。
例えば仮想カメラによりオブジェクト(例えばキャラクタ、ボール、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。
また本実施の形態では、後述する位置判定部118においてエフェクト範囲内に仮想カメラ又はプレーヤキャラクタが存在すると判定された場合に、仮想カメラ制御部114が少なくとも仮想カメラの視野外に配置設定されるエフェクトブオジェクトが仮想カメラの視野内に存在するように、仮想カメラの位置を移動する制御を行うようにしてもよい。
イベント発生判定部116は、エフェクトブオジェクトの発生するエフェクト・イベントが発生したか否かを判定する。なおエフェクト・イベントは、所与の条件が満たされたことによりプログラムに従って発生するものであってもよいし、プレーヤのキャラクタ操作などにより爆弾を爆発させるなどしてプレーヤの意思に基づき発生させることができるものであってもよい。
位置判定部118は、イベント発生判定部116においてエフェクト・イベントが発生したと判定された場合に、エフェクト・イベントの発生位置に基づいて設定される所与のエフェクト範囲内に仮想カメラあるいはプレーヤが操作するプレーヤキャラクタ(プレーヤオブジェクト)が存在するか否かを判定する。すなわち、エフェクト範囲内に仮想カメラあるいはプレーヤキャラクタが存在する場合には、エフェクトオブジェクトの配置設定位置が仮想カメラの視野外となる可能性があるため、この場合にはエフェクトオブジェクトの配置を変更する必要性(あるいはダミーエフェクトオブジェクトを配置する必要性)が高いことを意味する。ここでエフェクト範囲とは、エフェクトの種類に応じて個別にその大きさを設定することができる範囲であり、例えばエフェクトオブジェクトで表現されるエフェクトが見えるべき範囲(例えば爆発の大きさなど)を示すものとすることができる。また後述するヒット判定部122では、このエフェクト範囲をヒットチェック範囲として用いる。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の判定処理が行われる。
エフェクト配置処理部120は、位置判定部118においてエフェクト範囲内に仮想カメラあるいはプレーヤキャラクタが存在すると判定された場合に、少なくとも仮想カメラの視野(画角と同義)外に配置設定されるエフェクトブオジェクトを、仮想カメラの視野内に移動して配置する。これにより仮想カメラあるいはプレーヤキャラクタの近傍で発生したエフェクト・イベントをプレーヤに確実に認識させることができる。
またエフェクト配置処理部120は、エフェクト・イベントに基づいて複数のエフェクトオブジェクトが発生する場合に、少なくとも複数のエフェクトオブジェクトのカメラ座標系の奥行き方向における配置順列(Zソート順序と同義)を変更せずに、各エフェクトオブジェクトを移動して配置する。このようにすれば、エフェクトオブジェクトの配置変更により各オブジェクトの配置順列が乱れて生成画像が不自然になることを防止することができる。
例えば、カメラ座標系における仮想カメラの前方に設定される第1の境界面と、カメラ座標系における仮想カメラの後方に設定される第2の境界面との間を所与の奥行き範囲として設定しておく。そして、第1の境界面とスクリーンとの間の第1の距離と、第1の境界面と第2の境界面との間の第2の距離との比に基づいて、複数のエフェクトオブジェクトが第1の境界面とスクリーンとの間に配置されるように各エフェクトオブジェクトのカメラ座標系の奥行き情報を演算して、求められた奥行き情報に基づいて所与の奥行き範囲内に配置設定される各エフェクトオブジェクトを移動して配置する。
またエフェクト配置処理部120は、位置判定部118においてエフェクト範囲内に仮想カメラあるいはプレーヤキャラクタが存在すると判定された場合に、少なくとも仮想カメラの視野(画角と同義)外に配置設定されるエフェクトブオジェクトと対応するダミーエフェクトオブジェクトを、記憶部170のダミーエフェクトオブジェクトデータ記憶部179から読み出し、仮想カメラの視野内に配置する処理を行う。このようにしても仮想カメラあるいはプレーヤキャラクタの近傍で発生したエフェクト・イベントをプレーヤに確実に認識させることができる。
またエフェクト配置処理部120は、エフェクト・イベントに基づいて複数のエフェクトオブジェクトが発生する場合に、少なくとも複数のエフェクトオブジェクトのカメラ座標系の奥行き方向における配置順列(Zソート順序と同義)に従って、各エフェクトオブジェクトに対応するダミーエフェクトオブジェクトを仮想カメラの視野内に配置する。このようにすれば、ダミーエフェクトオブジェクトの配置順列が、これと対応するエフェクトオブジェクトの配置順列と一致するため生成画像が不自然になることを防止することができる。
例えば、カメラ座標系における仮想カメラの前方に設定される第1の境界面と、カメラ座標系における仮想カメラの後方に設定される第2の境界面との間を所与の奥行き範囲として設定しておく。そして、第1の境界面とスクリーンとの間の第1の距離と、第1の境界面と第2の境界面との間の第2の距離との比に基づいて、複数のエフェクトオブジェクトが第1の境界面とスクリーンとの間に配置される場合の各エフェクトオブジェクトのカメラ座標系の奥行き情報を演算して、求められた奥行き情報に基づいて所与の奥行き範囲内に配置設定される各エフェクトオブジェクトに対応する複数のダミーエフェクトオブジェクトを仮想カメラの視野内に配置する。
なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについてエフェクトオブジェクトの配置を変更すべきか否か(あるいはダミーエフェクトオブジェクトを配置すべき否か)が判断され、エフェクト範囲内に存在すると判定された仮想カメラ(エフェクト範囲内に存在するプレーヤキャラクタに追従する仮想カメラ)については、少なくともその仮想カメラの視野外に配置設定されるエフェクトブオジェクト(あるいは仮想カメラの視野外に配置設定されるエフェクトブオジェクトに対応するダミーエフェクトオブジェクト)を、その仮想カメラの視野内に配置し、エフェクト範囲内に存在しないと判定された仮想カメラ(エフェクト範囲内に存在しないプレーヤキャラクタに追従する仮想カメラ)については、エフェクトオブジェクトを移動しないで(あるいはダミーエフェクトブジェクトを配置しないで)そのまま配置する(配置設定された通りに配置する)。
ヒット判定部122は、オブジェクト間のヒット判定処理(ヒットチェック)を行う。例えば、エフェクト・イベントにより発生したエフェクトオブジェクトと他のオブジェクト(プレーヤオブジェクト)とのヒット判定を、上述したエフェクト範囲を用いて行う。
画像生成部130は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まず、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、或いは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を描画バッファ173(フレームバッファ、中間バッファなどのピクセル単位で画像情報を記憶できるバッファ。VRAM)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように生成する。
画像生成部130は、テクスチャマッピング部132、半透明処理部134、隠面消去部136を含む。
テクスチャマッピング部132は、テクスチャ記憶部175に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理を行う。具体的には、オブジェクト(プリミティブ面)の頂点に設定(付与)されるテクスチャ座標等を用いてテクスチャ記憶部175からテクスチャ(色、α値などの表面プロパティ)を読み出す。そして、2次元の画像又はパターンであるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理やバイリニア補間(テクセル補間)などを行う。
半透明処理部134はα値(A値)に基づく半透明合成処理(通常αブレンディング、α加算ブレンディング又はα減算ブレンディング等)を行う。例えば通常αブレンディングの場合には下式の処理を行う。
=(1−α)×R+α×R (1)
=(1−α)×G+α×G (2)
=(1−α)×B+α×B (3)
一方、加算αブレンディングの場合には下式の処理を行う。
=R+α×R (4)
=G+α×G (5)
=B+α×B (6)
ここで、R、G、Bは、描画バッファ173に既に描画されている画像(元画像)のRGB成分であり、R、G、Bは、描画バッファ173に描画すべき画像のRGB成分である。また、R、G、Bは、αブレンディングにより得られる画像のRGB成分である。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。
特に本実施の形態では、エフェクトオブジェクトについてエフェクト配置処理部120により移動して配置されたエフェクトオブジェクト(あるいはダミーエフェクトオブジェクトデータ記憶部179から読み出された配置されたダミーエフェクトオブジェクト)のカメラ座標系における奥行き情報に基づいて、エフェクトオブジェクトの位置がスクリーン位置あるいは仮想カメラの位置に近くなるほど透明度が高くなるように半透明合成処理を行う。このようにすれば、画像中に表現されるキャラクタが見えにくくなることを防止することができる。また、スクリーン位置に近いものほど透明度が高くなるようにしておけば、キャラクタと共に仮想カメラ(視点)が移動している場合にも、エフェクトが不自然に消滅するように表現されることを防止することができる。
隠面消去部136は、各ピクセルのZ値(奥行き情報)が格納されるZバッファ177(奥行きバッファ)を用いて、Zバッファ法(奥行き比較法、Zテスト)により隠面消去処理を行う。すなわちオブジェクトのプリミティブ面の各ピクセルを描画する際に、Zバッファ177に格納されるZ値を参照する。そして参照されたZバッファ177のZ値と、プリミティブ面の描画対象ピクセルでのZ値とを比較し、描画対象ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、そのピクセルの描画処理を行うとともにZバッファ177のZ値を新たなZ値に更新する。
音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。
なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。
2.本実施形態の手法
次に本実施形態の手法について図面を用いて説明する。なお以下では、ゲーム画像において爆発エフェクトを表現する際に本実施形態の手法を採用した場合について主に説明するが、本実施形態の手法は、このようなゲーム画像の表現のみならず、種々の画像表現に適用できる。
図2(A)〜図2(C)に本実施の形態で用いられるエフェクトオブジェクトEFの例を示す。エフェクトオブジェクトEFは、オブジェクト空間の所与の位置で発生する各種のエフェクト・イベントによる特殊効果を擬似的に表現するオブジェクトであり、その種類としては、爆発表現オブジェクト、炎表現オブジェクト、煙表現オブジェクト、雷表現オブジェクト、その他の特殊効果表現オブジェクト等がある。エフェクトオブジェクトEFには、エフェクト(爆発、炎、煙、雷)を表現するテクスチャがマッピングされる。またエフェクトオブジェクトEFは、仮想カメラVCに正対するように(ビルボードプリミティブ面の法線ベクトルと、仮想カメラの視線方向ベクトルとのなす角度が180度になるように)3次元のオブジェクト空間内に配置設定されるスプライトポリゴン(ビルボード表示のポリゴン)である。すなわち本実施の形態ではエフェクト表現テクスチャがマッピングされたスプライトポリゴンをスクリーンSCに投影変換して、エフェクトを3次元的に表現することができる。
本実施の形態では、図2(B)に示すように、エフェクトオブジェクトEFを一枚のスプライトポリゴンとしてエフェクト発生位置EPに配置設定することでエフェクトを表現することができる。またエフェクトの表現手法としては、図2(C)に示すように、いわゆるパーティクルシステムを採用することができる。パーティクルシステムでは、複数のパーティクルに位置や色などの属性情報を持たせ、所与の規則に従って発生、移動、消滅するパーティクルの集合により、爆発や炎、煙などの不定形なエフェクトを表現することができる。この場合、パーティクルは、スプライトポリゴンにより生成することができる。
またエフェクトオブジェクトEFには、エフェクト・イベントに応じてエフェクト発生位置EPを中心としたエフェクト範囲ERが設定されている。本実施の形態でエフェクト範囲ERは、仮想カメラVCの位置の判定に用いられるとともに、エフェクトオブジェクトEFと他のオブジェクトとのヒット判定を行うためのヒットチェック範囲として用いることができる。
そして本実施の形態では、所定の条件を満たした場合に、仮想カメラVCの視野外に配置されるエフェクトオブジェクトEFを仮想カメラVCの視野内に移動して配置する処理を行っている。図3(A)および図3(B)に本実施の形態で行うエフェクトオブジェクトEFの配置変更の手法を示す。
例えばプレーヤの操作するキャラクタを表現するプレーヤオブジェクトPOBを後方から撮影するように仮想カメラVCが設定される状況を考える。
このとき仮想カメラVCの後方の位置EPにおいてエフェクト範囲ERのエフェクト・イベント(例えば爆発イベント)が発生した場合に、エフェクトオブジェクトEFは、図3(A)に示すように、エフェクト発生位置EPの付近に配置設定される。この場合、エフェクトオブジェクトEFの配置設定位置は、スクリーンSCより後方である。すなわち、エフェクトオブジェクトEFは仮想カメラVCの視野外に配置設定されることになり、仮想カメラVCから見える画像中にはエフェクトが表現されない。そしてエフェクト範囲ERが他のオブジェクトにより表現されるキャラクタにヒット・ダメージを与えるためのヒットチェック範囲として設定されていると、プレーヤにはプレーヤオブジェクトPOBがエフェクトに巻き込まれていないように見えるにもかかわらず、プレーヤキャラクタがヒット・ダメージを受ける事態が生じる。
そこで本実施の形態では、図3(A)に示すように、エフェクトオブジェクトEFのエフェクト範囲ER内に仮想カメラVCが存在する場合であって、エフェクトオブジェクトEFが仮想カメラVCの視野外に配置設定される場合に、図3(B)に示すように、エフェクトオブジェクトEFを仮想カメラVCの視野内に移動して配置することによりプレーヤにエフェクトを認識させることができる。より具体的には、エフェクトオブジェクトEFのカメラ座標系の奥行き情報(カメラ座標系のZ値)を少なくともスクリーンSCの位置より前方に配置されるように演算して、エフェクトオブジェクトEFを仮想カメラVCの視野内へと移動する。
このように本実施の形態の手法を用いれば、エフェクト・イベントが発生した場合に、仮想カメラVCの視野外に配置設定されるエフェクトオブジェクトEFを仮想カメラVCの視野内に配置変更することにより、仮想カメラVCあるいはプレーヤオブジェクトPOBの近傍でエフェクト・イベントが発生したことをプレーヤに確実に伝達するようにエフェクトが表現された画像を生成することができる。
また本実施の形態では図3(B)に示すように、仮想カメラVCの視野内にエフェクトオブジェクトEFを移動する代わりに、図3(C)に示すように、予め用意されたダミーエフェクトオブジェクトDEFを仮想カメラVCの視野内に配置する手法を採用することもできる。ダミーエフェクトオブジェクトDEFは、エフェクトオブジェクトEFと同様のエフェクト表現テクスチャがマッピングされたスプライトポリゴンである。このようにしても、図3(B)に示す場合と同様に、仮想カメラVCあるいはプレーヤオブジェクトPOBの近傍でエフェクト・イベントが発生したことをプレーヤに確実に伝達するようにエフェクトが表現された画像を生成することができる。
また本実施の形態では、上述したようにエフェクトオブジェクトEFを移動して配置したりダミーエフェクトオブジェクトDEFを発生させたりするのではなく、仮想カメラVCを移動することによって本来仮想カメラVCの視野外に配置設定されるエフェクトオブジェクトEFをプレーヤに認識させるようにすることもできる。
例えば、図4(A)に示すように、仮想カメラVCの後方にエフェクトオブジェクトEFが配置設定される場合に、図4(B)に示すように、仮想カメラVCの位置(視点位置)を少なくともスクリーンSCよりも前方にエフェクトオブジェクトEFが位置するように(少なくともスクリーンSCがエフェクトオブジェクトEFの後方に位置するように)仮想カメラVCを移動する制御を行う。これによりエフェクトオブジェクトEFを移動したり、ダミーエフェクトオブジェクトDEFを発生させたりしなくとも、仮想カメラVCの視野内に配置されたエフェクトオブジェクトEFをプレーヤに認識させることができる。
また本実施の形態の手法は、図2(C)に示したように、エフェクトを複数のエフェクトオブジェクトを用いて表現するパーティクルシステムを採用する場合にも有用である。
図5(A)に複数のエフェクトオブジェクトEFn(n=1,2,3,・・・)を用いて爆発等のエフェクト表現を行う場合のエフェクトオブジェクトEF1〜EF3の配置変更例を示す。この場合には、少なくともエフェクトオブジェクトEF1〜EF3のカメラ座標系の奥行き方向における配置順列(Zソート順序)を変更せずに、各エフェクトオブジェクトEFnを移動して配置する。このようにすれば、エフェクトオブジェクトEF1〜EF3の配置順列が乱れて生成画像が不自然になることを防止することができる。
具体的には、仮想カメラVCの前方の位置に第1の境界面VTH1と、仮想カメラVCの後方の位置に第2の境界面VTH2とを設定しておく。第1の境界面VTH1および第2の境界面VTH2と仮想カメラVCとの相対的な位置関係は、固定的であってもよいし、発生したエフェクト・イベントに応じて変更可能としてもよい。第1の境界面VTH1および第2の境界面VTH2と仮想カメラVCとの相対的な位置関係を変更可能とする場合には、例えば、エフェクト範囲ERの大きさ(広さ)に応じて第1の境界面VTH1および第2の境界面VTH2の位置を設定することができる。また第1の境界面VTHと第2の境界面VTH2とは仮想カメラVCと正対する面(あるいはスクリーンSCと正対する面)として設定することができる。
そして図5(A)に示す例においては、発生したエフェクト・イベントのエフェクト範囲ER内に仮想カメラVCが存在すると判断される場合に、第1の境界面VTH1と第2の境界面VTHとにより区画されるカメラ座標系の奥行き範囲内に配置されるエフェクトオブジェクトEF1〜EF3のカメラ座標系の奥行き情報(Z値)を変更して第1の境界面VTH1とスクリーンSCとの間に移動して配置する処理を行う。具体的には、第1の境界面VTH1とスクリーンSCとの間の第1の距離d1と、第1の境界面VTH1と第2の境界面VTH2との間の第2の距離d2との比(d1/d2)に基づいて、エフェクトオブジェクトEF1〜EF3が第1の境界面VTH1とスクリーンSCとの間に配置されるようにエフェクトオブジェクトEF1〜EF3のカメラ座標系の奥行き情報(Z値)を演算して配置を変更する。
このようにすれば、生成された画像が不自然になりにくいばかりでなく、第1の境界面VTH1と第2の境界面VTH2とによって区画された所与の領域内に配置されるエフェクトオブジェクトEF1〜EF3のみが配置変更されるため、処理負担が大きくなることも防止することができる。また図4に示す手法によれば、エフェクトオブジェクトEF1〜EF3の配置順列(Zソート順序)のみならずエフェクトオブジェクトEF1〜EF3の間の配置間隔比も変更されることはなく、より自然なエフェクト表現が実現できる。
なおエフェクトオブジェクトEF1〜EF3を配置変更する代わりに、エフェクトオブジェクトEF1〜EF3に対応するダミーエフェクトオブジェクトDEF1〜DEF3を配置する場合には、エフェクトオブジェクトEF1〜EF3の移動すべき位置、すなわち第1の境界面VTH1とスクリーンSCとの間の第1の距離d1と、第1の境界面VTH1と第2の境界面VTH2との間の第2の距離d2との比(d1/d2)に基づいて求められたカメラ座標系の奥行き情報(Z値)に基づいてエフェクトオブジェクトDEF1〜DEF3を配置すればよい。
またエフェクトを複数のエフェクトオブジェクトを用いて表現するパーティクルシステムを採用する場合には、エフェクトオブジェクトEF1〜EF3がスクリーンSCの前方に位置するように(スクリーンSCがエフェクトオブジェクトEF1〜EF3よりも後方に位置するように)仮想カメラVCの位置(視点位置)を移動する手法を採用してもよい。
具体的には、図5(B)に示すように、仮想カメラVCの後方に第3の境界面VTH3を設定しておき、移動前の仮想カメラVCの位置に基づいて設定されるスクリーンSCの位置と第3の境界面VTH3との間に配置設定されるエフェクトオブジェクトEF1〜EF3が仮想カメラVCの視野内に入るように仮想カメラVCの位置を求めて、仮想カメラVCを移動する。例えば、仮想カメラVCの移動後の位置は、スクリーンSCの位置が第3の境界面VTH3よりも後方の位置とすることができる。なお、仮想カメラVCの移動後の位置は、少なくともスクリーンSCと第3の境界面VTH3との間に配置設定されるエフェクトオブジェクトEF1〜EF3よりもスクリーンSCが後方に位置するようにすればよい。
また本実施の形態の手法は、マルチプレーヤゲームシステムを採用した場合に、表示画面に第1〜第Nのプレーヤの操作する第1〜第Nのプレーヤキャラクタに対応する第1〜第N(Nは2以上の整数)の画像が分割して表示される場合にも有用である。この場合には、第1〜第Nの画像として、第1〜第Nの複数の仮想カメラVCから見える画像が生成される。
例えば図6(A)および図6(B)に第1の仮想カメラVC1と第2の仮想カメラVC2とから見える画像が第1の画像および第2の画像として生成される場合が示されている。この場合には、エフェクト・イベントの発生位置EPに基づいて設定されるエフェクト範囲ER内に第1,第2の仮想カメラVC1,VC2が存在するか否かが判定される。
そして、図6(A)に示すように、第1の仮想カメラVC1に関しては、エフェクト範囲ER内に存在すると判定されるため、少なくとも第1の仮想カメラVC1の視野外に配置設定されるエフェクトブオジェクトEF1を、上述した手法を用いて第1の仮想カメラVC1の視野内に移動して配置する。
また、図6(B)に示すように、第2の仮想カメラVC2に関しては、エフェクト範囲ER内に存在しないと判定されるため、エフェクトオブジェクトEF2を移動しないでそのまま配置する。
このようにすることで、エフェクトの影響を受けているプレーヤオブジェクトPOBに追従する第1の仮想カメラVC1から見える画像(スクリーンSC1に投影された画像)にはエフェクトオブジェクトEF1の配置変更を行ってエフェクトに巻き込まれていることをプレーヤに確実に伝達することができ、第2の仮想カメラVC2から見える画像(スクリーンSC2に投影された画像)には、イベント発生位置EPに基づいて配置を変更せずにエフェクトオブジェクトEF2を配置してプレーヤオブジェクトPOBがエフェクトに巻き込まれている様子を伝える自然な画像表現を実現することができる。
また本実施の形態では、エフェクトオブジェクトEFnについてカメラ座標系における奥行き情報(Z値、Z座標と同義)に基づいて、エフェクトオブジェクトEFnの位置がスクリーンSCの位置に近くなるほど透明度が高くなるように半透明合成処理を行う。このようにすれば、画像中に表現されるプレーヤオブジェクトPOBが見えにくくなることを防止することができる。また、スクリーンSCの位置に近いものほど透明度が高くなるようにしておけば、プレーヤオブジェクトPOBが移動することによりプレーヤオブジェクトPOBと共に仮想カメラVCが移動する場合にも、エフェクトが不自然に消滅するように表現されることを防止することができる。
ここで、図7および図8に本実施の形態の手法を用いて生成される画像の例を示す。図7(A)および図7(B)は、オブジェクト空間にプレーヤオブジェクトとエフェクトオブジェクトのみを配置した場合の画像の例を示す。また、図8(A)および図8(B)は、図7(A)および図7(B)の画像にさらに地形オブジェクトなどの背景オブジェクトをZバッファ法により合成した画像を示す。
図7および図8では、図6について説明した状況が表現されている。図7(A)および図8(A)は、エフェクトオブジェクトEFの配置を変更する前の画像を示し、図7(B)および図8(B)は、エフェクトオブジェクトEFの配置を変更した後の画像を示している。図7(A)および図8(A)に示すように、配置を変更しない場合では、第2の仮想カメラVC2から見える画像(スクリーンSC2に投影された画像)については、プレーヤオブジェクトPOBが爆発エフェクトに巻き込まれている様子がわかるように表現されているが、第1の仮想カメラVC1から見える画像(スクリーンSC2に投影された画像)については、プレーヤオブジェクトPOBが爆発エフェクトに巻き込まれていることが認識できない。
一方、図7(B)および図8(B)に示すように本実施の形態の手法によりエフェクトオブジェクトEFの配置を変更した場合には、第1,第2の仮想カメラVC1,VC2のいずれから見た画像においてもプレーヤオブジェクトPOBが爆発エフェクトに巻き込まれている様子が表現されている。このように本実施の形態の手法によれば、スプライトポリゴンを用いた簡易的なエフェクト表現でも、実際の状況に即したリアルな画像表現を実現することができる。
3.本実施形態の処理
次に、本実施形態の詳細な処理例について図9、図10のフローチャートを用いて説明する。
図9には、エフェクトオブジェクトの配置変更あるいはダミーエフェクトオブジェクトの配置を行う場合の処理例を示す。
まずイベント発生判定部116が、エフェクトオブジェクトEFnが発生するエフェクト・イベントが発生したか否かを判定する(ステップS10)。エフェクト・イベントが発生したと判断される場合には(ステップS10でY)、仮想カメラVC(あるいはプレーヤオブジェクトPOB)が、エフェクト範囲ER内に存在するか否かを判定する(ステップS11)。そして仮想カメラVC(あるいはプレーヤオブジェクトPOB)がエフェクト範囲ER内に存在すると判断された場合には(ステップS11でY)、発生したエフェクトオブジェクトEFnが、第1の境界面VTH1と第2の境界面VTH2との間に配置設定されるか否かを判定する(ステップS12)。エフェクトオブジェクトEFnが第1の境界面VTH1と第2の境界面VTH2との間に配置設定される場合には(ステップS12でY)、図5(A)に示したように、第1の境界面VTH1とスクリーンSCとの間の距離d1と第1の境界面VTH1と第2の境界面VTH2との間の距離d2との比率(d1/d2)に基づいて、エフェクトオブジェクトEFn(あるいはダミーエフェクトオブジェクトDFn)のスクリーン座標系の奥行き情報(Z値、Z座標と同義)を演算して、求められた奥行き情報に従ってエフェクトオブジェクトEFn(あるいはダミーエフェクトオブジェクトDFn)を配置する(ステップS13)。続いて、仮想カメラVC(あるいはスクリーンSC)と移動後のエフェクトオブジェクトEFn(あるいは配置されたダミーエフェクトオブジェクトDEFn)との距離から各オブジェクトの半透明度を設定する(ステップS14)。具体的には、仮想カメラVC(あるいはスクリーンSC)に近い位置に配置されたものほど透明度が高くなるように設定する。ステップS12からステップS14にいたる処理が全てのエフェクトオブジェクトEFnに対して行われたら(ステップS15でY)、各オブジェクトを半透明合成して描画バッファに書き込んですべての処理を終了する(ステップS16)。これらの処理により本実施の形態の手法が実現される。
図10には、仮想カメラを移動する場合の処理例を示す。
まずイベント発生判定部116が、エフェクトオブジェクトEFnが発生するエフェクト・イベントが発生したか否かを判定する(ステップS20)。エフェクト・イベントが発生したと判断される場合には(ステップS20でY)、仮想カメラVC(あるいはプレーヤオブジェクトPOB)が、エフェクト範囲ER内に存在するか否かを判定する(ステップS21)。そして仮想カメラVC(あるいはプレーヤオブジェクトPOB)がエフェクト範囲ER内に存在すると判断された場合には(ステップS21でY)、発生したエフェクトオブジェクトEFnが、スクリーンSCと第3の境界面VTH3との間に配置設定されるか否かを判定する(ステップS22)。エフェクトオブジェクトEFnがスクリーンSCと第3の境界面VTH3との間に配置設定される場合には(ステップS22でY)、例えば図5(B)に示したように、第3の境界面VTH3よりもスクリーンSCが後方に位置するような仮想カメラVCの位置を演算して、求められた位置に仮想カメラVCを移動して配置する(ステップS23)。続いて、移動後の仮想カメラVC(あるいはスクリーンSC)とエフェクトオブジェクトEFnとの距離から各オブジェクトの半透明度を設定する(ステップS24)。具体的には、移動後の仮想カメラVC(あるいはスクリーンSC)に近い位置に配置されたものほど透明度が高くなるように設定する。ステップS22からステップS24にいたる処理が全てのエフェクトオブジェクトEFnに対して行われたら(ステップS25でY)、各オブジェクトを半透明合成して描画バッファに書き込んですべての処理を終了する(ステップS26)。これらの処理により本実施の形態の手法が実現される。
4.ハードウェア構成
図11に本実施形態を実現できるハードウェア構成の例を示す。メインプロセッサ900は、CD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。
描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。
サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。
ROM950にはシステムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。DVDドライブ980(CDドライブでもよい)は、プログラム、画像データ、或いは音データなどが格納されるDVD982(CDでもよい)にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。
なお本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。
そして本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語(奥行き情報、配置順列など)として引用された用語(Z値、Z座標、Zソート順序など)は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
またエフェクトオブジェクトの配置変更手法や、半透明合成処理手法も、本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。
また本実施形態では、仮想カメラの前方に第1の境界面を設定し、仮想カメラの後方に第2の境界面を設定し、第1の境界面と第2の境界面との間に配置設定されるエフェクトオブジェクトの配置を変更する場合について説明した。しかしながら本発明はこれに限定されず、仮想カメラの後方にのみ境界面を設定しておき、その境界面とスクリーンとの間に配置設定されるエフェクトオブジェクトを少なくともスクリーンより前方に配置されるようにしてもよい。
また本発明は種々のゲーム(格闘ゲーム、シューティングゲーム、ロボット対戦ゲーム、スポーツゲーム、競争ゲーム、ロールプレイングゲーム、音楽演奏ゲーム、ダンスゲーム等)に適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。
本実施形態の画像生成システムの機能ブロック図の例。 図2(A)(B)(C)は本実施の形態の手法の説明図。 図3(A)(B)(C)は本実施の形態の手法の説明図。 図4(A)(B)は本実施の形態の手法の説明図。 図5(A)(B)は本実施の形態の手法の説明図。 図6(A)(B)は本実施の形態の手法の説明図。 本実施形態の手法で生成された画像の例。 本実施形態の手法で生成された画像の例。 本実施形態の具体的な処理のフローチャート。 本実施形態の具体的な処理のフローチャート。 ハードウェア構成例。
符号の説明
EF(EFn) エフェクトオブジェクト、
DEF(DEFn) ダミーエフェクトオブジェクト、
POB プレーヤオブジェクト、
ER エフェクト範囲、EP エフェクト発生位置
VC(VC0,VC1,VC2) 仮想カメラ、
SC(SC0,SC1,SC2) スクリーン、
VTH1 第1の境界面、VTH2 第2の境界面、VTH3 第3の境界面、
100 処理部、
110 オブジェクト空間設定部、112 移動・動作処理部、
114 仮想カメラ制御部、116 イベント発生判定部、
118 位置判定部、120 エフェクト配置処理部、122 ヒット判定部、
130 画像生成部、
132 テクスチャマッピング部、134 半透明処理部、136 隠面消去部、
140 音生成部、160、操作部、
170 記憶部、
171 主記憶部、173 描画バッファ、
175 テクスチャ記憶部、177 Zバッファ、
179 ダミーエフェクトオブジェクトデータ記憶部、
180 情報記憶媒体、194 携帯型情報記憶装置、
190 表示部、192 音出力部、196 通信部

Claims (11)

  1. 画像を生成するためのプログラムであって、
    エフェクトブオジェクトの発生するエフェクト・イベントが発生したか否かを判定するイベント発生判定部と、
    前記エフェクト・イベントが発生したと判定された場合に、該エフェクト・イベントの発生位置に基づいて設定される所与のエフェクト範囲内に仮想カメラ又はプレーヤが操作するプレーヤキャラクタが存在するか否かを判定する位置判定部と、
    前記エフェクト範囲内に前記仮想カメラ又はプレーヤキャラクタが存在すると判定された場合に、少なくとも前記仮想カメラの視野外に配置設定されるエフェクトブオジェクト又は予め用意されたダミーエフェクトブジェクトを、前記仮想カメラの視野内に配置するエフェクト配置処理部と、
    オブジェクト空間における前記仮想カメラから見た画像を生成する画像生成部として、
    コンピュータを機能させることを特徴とするプログラム。
  2. 請求項1において、
    前記エフェクト・イベントに基づいて複数の前記エフェクトオブジェクトが発生する場合に、
    前記エフェクト配置処理部が、
    少なくとも前記複数のエフェクトオブジェクトのカメラ座標系の奥行き方向における配置順列を変更せずに、各エフェクトオブジェクトを前記仮想カメラの視野内に移動して配置することを特徴とするプログラム。
  3. 請求項2において、
    カメラ座標系における前記仮想カメラの前方に設定される第1の境界面と、カメラ座標系における該仮想カメラの後方に設定される第2の境界面との間が所与の奥行き範囲として設定されており、
    前記エフェクト配置処理部が、
    前記第1の境界面とスクリーンとの間の第1の距離と、前記第1の境界面と第2の境界面との間の第2の距離との比に基づいて、前記複数のエフェクトオブジェクトが前記第1の境界面と前記スクリーンとの間に配置されるように各エフェクトオブジェクトのカメラ座標系の奥行き情報を演算し、求められた前記奥行き情報に基づいて前記所与の奥行き範囲内に配置設定される各エフェクトオブジェクトを前記仮想カメラの視野内に移動して配置することを特徴とするプログラム。
  4. 請求項1において、
    前記エフェクト・イベントに基づいて複数の前記エフェクトオブジェクトが発生する場合に、
    前記エフェクト配置処理部が、
    少なくとも前記複数のエフェクトオブジェクトのカメラ座標系の奥行き方向における配置順列に従って、各エフェクトオブジェクトに対応する複数のダミーエフェクトオブジェクトを前記仮想カメラの視野内に配置することを特徴とするプログラム。
  5. 請求項4において、
    カメラ座標系における前記仮想カメラの前方に設定される第1の境界面と、カメラ座標系における該仮想カメラの後方に設定される第2の境界面との間が所与の奥行き範囲として設定されており、
    前記エフェクト配置処理部が、
    前記第1の境界面とスクリーンとの間の第1の距離と、前記第1の境界面と第2の境界面との間の第2の距離との比に基づいて、前記複数のエフェクトオブジェクトが前記第1の境界面と前記スクリーンとの間に配置される場合の各エフェクトオブジェクトのカメラ座標系の奥行き情報を演算し、求められた前記奥行き情報に基づいて前記所与の奥行き範囲内に配置設定される各エフェクトオブジェクトに対応する複数のダミーエフェクトオブジェクトを前記仮想カメラの視野内に配置することを特徴とするプログラム。
  6. 請求項1〜5のいずれかにおいて、
    前記エフェクト配置処理部により配置されたエフェクトオブジェクト又はダミーエフェクトオブジェクトのカメラ座標系における奥行き情報に基づいて、前記エフェクトオブジェクト又はダミーエフェクトオブジェクトの位置がスクリーン位置又は仮想カメラの位置に近くなるほど透明度が高くなるように半透明合成処理を行う半透明処理部としてコンピュータを機能させることを特徴とするプログラム。
  7. 請求項1〜6のいずれかにおいて、
    第1〜第N(Nは2以上の整数)の画像により分割して表示される場合に、
    前記画像生成部が、
    前記第1〜第Nの画像として、第1〜第Nの仮想カメラから見える画像を生成し、
    前記位置判定部が、
    前記エフェクト・イベントの発生位置に基づいて設定される所与のエフェクト範囲内に前記第1〜第Nの仮想カメラ又は第1〜第Nのプレーヤキャラクタが存在するか否かを判定し、
    前記エフェクト配置処理部が、
    前記第1〜第Nの仮想カメラのうち第K(1≦K≦N)の仮想カメラ又は第1〜第Nのプレーヤキャラクタのうち第Kのプレーヤキャラクタが前記エフェクト範囲内に存在すると判定された場合に限って、少なくとも該第Kの仮想カメラの視野外に配置設定されるエフェクトブオジェクト又は予め用意されたダミーエフェクトオブジェクトを、該第Kの仮想カメラの視野内に配置することを特徴とするプログラム。
  8. 画像を生成するためのプログラムであって、
    エフェクトブオジェクトの発生するエフェクト・イベントが発生したか否かを判定するイベント発生判定部と、
    前記エフェクト・イベントが発生したと判定された場合に、該エフェクト・イベントの発生位置に基づいて設定される所与のエフェクト範囲内に仮想カメラ又はプレーヤが操作するプレーヤキャラクタが存在するか否かを判定する位置判定部と、
    前記エフェクト範囲内に前記仮想カメラ又はプレーヤキャラクタが存在すると判定された場合に、少なくとも前記仮想カメラの視野外に配置設定されるエフェクトブオジェクトが前記仮想カメラの視野内に存在するように、前記仮想カメラの位置を移動する仮想カメラ制御部と、
    オブジェクト空間における前記仮想カメラから見た画像を生成する画像生成部として、
    コンピュータを機能させることを特徴とするプログラム。
  9. コンピュータにより読取可能な情報記憶媒体であって、請求項1〜8のいずれかに記載のプログラムを記憶することを特徴とする情報記憶媒体。
  10. 画像を生成する画像生成システムであって、
    エフェクトブオジェクトの発生するエフェクト・イベントが発生したか否かを判定するイベント発生判定部と、
    前記発生エフェクト・イベントが発生したと判定された場合に、該エフェクト・イベントの発生位置に基づいて設定される所与のエフェクト範囲内に仮想カメラ又はプレーヤが操作するプレーヤキャラクタが存在するか否かを判定する位置判定部と、
    前記エフェクト範囲内に前記仮想カメラが存在すると判定された場合に、少なくとも前記仮想カメラの視野外に配置設定されるエフェクトブオジェクト又は予め用意されたダミーエフェクトオブジェクトを、前記仮想カメラの視野内に配置するエフェクト配置処理部と、
    オブジェクト空間における前記仮想カメラから見た画像を生成する画像生成部と、
    を含むことを特徴とする画像生成システム。
  11. 画像を生成する画像生成システムであって、
    エフェクトブオジェクトの発生するエフェクト・イベントが発生したか否かを判定するイベント発生判定部と、
    前記発生エフェクト・イベントが発生したと判定された場合に、該エフェクト・イベントの発生位置に基づいて設定される所与のエフェクト範囲内に仮想カメラ又はプレーヤが操作するプレーヤキャラクタが存在するか否かを判定する位置判定部と、
    前記エフェクト範囲内に前記仮想カメラが存在すると判定された場合に、少なくとも前記仮想カメラの視野外に配置設定されるエフェクトブオジェクトが、前記仮想カメラの視野内に存在するように、前記仮想カメラの位置を移動する仮想カメラ制御部と、
    オブジェクト空間における前記仮想カメラから見た画像を生成する画像生成部と、
    を含むことを特徴とする画像生成システム。
JP2004138919A 2004-05-07 2004-05-07 プログラム、情報記憶媒体および画像生成システム Expired - Lifetime JP4412715B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004138919A JP4412715B2 (ja) 2004-05-07 2004-05-07 プログラム、情報記憶媒体および画像生成システム
US11/117,544 US7312804B2 (en) 2004-05-07 2005-04-29 Program product, image generation method and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004138919A JP4412715B2 (ja) 2004-05-07 2004-05-07 プログラム、情報記憶媒体および画像生成システム

Publications (2)

Publication Number Publication Date
JP2005319029A true JP2005319029A (ja) 2005-11-17
JP4412715B2 JP4412715B2 (ja) 2010-02-10

Family

ID=35447149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004138919A Expired - Lifetime JP4412715B2 (ja) 2004-05-07 2004-05-07 プログラム、情報記憶媒体および画像生成システム

Country Status (2)

Country Link
US (1) US7312804B2 (ja)
JP (1) JP4412715B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008044708A1 (en) * 2006-10-13 2008-04-17 Kabushiki Kaisha Sega Doing Business As Sega Corporation Electronic play device, control method for electronic play device and game program
JP2008093306A (ja) * 2006-10-13 2008-04-24 Sega Corp 画像処理装置、画像処理方法、ゲームプログラム、及び記録媒体
JP2011096018A (ja) * 2009-10-29 2011-05-12 Namco Bandai Games Inc プログラム、情報記憶媒体、端末及びネットワークシステム
JP2011120645A (ja) * 2009-12-08 2011-06-23 Nintendo Co Ltd ゲームプログラム、ゲーム装置及びゲームの表示方法
JP2011212270A (ja) * 2010-03-31 2011-10-27 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2016096953A (ja) * 2014-11-20 2016-05-30 株式会社藤商事 遊技機
JP2020515930A (ja) * 2016-12-20 2020-05-28 キヤノン株式会社 画像処理システム、画像処理方法、及びプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4521020B2 (ja) * 2007-09-27 2010-08-11 株式会社コナミデジタルエンタテインメント ゲームプログラム、ゲーム装置、およびゲーム制御方法
EP2395768B1 (en) * 2010-06-11 2015-02-25 Nintendo Co., Ltd. Image display program, image display system, and image display method
DE102011122457A1 (de) * 2011-12-24 2013-06-27 Connaught Electronics Ltd. Verfahren zum Betreiben einer Kameraanordnung, Kameraanordnung und Fahrerassistenzsystem
JP6532393B2 (ja) * 2015-12-02 2019-06-19 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
EP3596617A1 (en) * 2017-03-17 2020-01-22 Unity IPR APS Method and system for automated camera collision and composition preservation
CN108509139B (zh) * 2018-03-30 2019-09-10 腾讯科技(深圳)有限公司 虚拟对象的移动控制方法、装置、电子装置及存储介质
CN112090073B (zh) * 2020-09-27 2024-04-26 网易(杭州)网络有限公司 一种游戏展示的方法和装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3141737B2 (ja) * 1995-08-10 2001-03-05 株式会社セガ 仮想画像生成装置及びその方法
JPH10179932A (ja) * 1996-12-26 1998-07-07 Konami Co Ltd 爆発パターンの表示装置,その表示方法,及びコンピュータプログラムを記録した機械読取り可能な記録媒体
JP2000200361A (ja) * 1998-08-07 2000-07-18 Sega Enterp Ltd 画像処理装置及び情報記録媒体
JP2001009156A (ja) * 1999-06-30 2001-01-16 Square Co Ltd コンピュータ読み取り可能な記録媒体、ゲームの表示制御方法およびゲーム装置
JP2004005452A (ja) * 2002-04-16 2004-01-08 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、半導体デバイス、コンピュータプログラム、記録媒体
JP3795856B2 (ja) * 2002-12-09 2006-07-12 株式会社スクウェア・エニックス ビデオゲーム装置、ビデオゲームの進行制御方法、プログラム及び記録媒体
US7098868B2 (en) * 2003-04-08 2006-08-29 Microsoft Corporation Display source divider

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008044708A1 (en) * 2006-10-13 2008-04-17 Kabushiki Kaisha Sega Doing Business As Sega Corporation Electronic play device, control method for electronic play device and game program
JP2008093306A (ja) * 2006-10-13 2008-04-24 Sega Corp 画像処理装置、画像処理方法、ゲームプログラム、及び記録媒体
JP2011096018A (ja) * 2009-10-29 2011-05-12 Namco Bandai Games Inc プログラム、情報記憶媒体、端末及びネットワークシステム
JP2011120645A (ja) * 2009-12-08 2011-06-23 Nintendo Co Ltd ゲームプログラム、ゲーム装置及びゲームの表示方法
JP2011212270A (ja) * 2010-03-31 2011-10-27 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2016096953A (ja) * 2014-11-20 2016-05-30 株式会社藤商事 遊技機
JP2020515930A (ja) * 2016-12-20 2020-05-28 キヤノン株式会社 画像処理システム、画像処理方法、及びプログラム
US11062505B2 (en) 2016-12-20 2021-07-13 Canon Kabushiki Kaisha Method and system for rendering an object in a virtual view

Also Published As

Publication number Publication date
US20050270309A1 (en) 2005-12-08
JP4412715B2 (ja) 2010-02-10
US7312804B2 (en) 2007-12-25

Similar Documents

Publication Publication Date Title
US7312804B2 (en) Program product, image generation method and image generation system
JP4771821B2 (ja) プログラム、情報記憶媒体、及び画像生成システム
US6537153B2 (en) Game system, program and image generating method
JP4305903B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP4651527B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP2007141082A (ja) プログラム、テクスチャデータ構造、情報記憶媒体及び画像生成システム
JP4502678B2 (ja) プログラム、情報記憶媒体、及び画像生成システム
JP3280355B2 (ja) 画像生成システム及び情報記憶媒体
JP4743770B2 (ja) 画像生成システム、プログラム、及び情報記憶媒体
JP4651204B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP4528008B2 (ja) プログラム、情報記憶媒体、及び画像生成システム
JP4187192B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP4913399B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP4488346B2 (ja) プログラム、情報記憶媒体、及び画像生成システム
JP4229317B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP2006318196A (ja) プログラム、情報記憶媒体及び画像生成システム
JP4698701B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP2005128687A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP4476040B2 (ja) プログラム、情報記憶媒体、及び画像生成システム
JP2008077406A (ja) 画像生成システム、プログラム及び情報記憶媒体
JP2007164736A (ja) 画像生成システム、プログラム及び情報記憶媒体
JP4521811B2 (ja) プログラム、情報記憶媒体、及び画像生成システム
JP2001243499A (ja) ゲームシステム及び情報記憶媒体
JP4794597B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP2006277489A (ja) プログラム、情報記憶媒体及び画像生成システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091116

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4412715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131127

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250