JP4165722B2 - Image generating apparatus and information storage medium - Google Patents
Image generating apparatus and information storage medium Download PDFInfo
- Publication number
- JP4165722B2 JP4165722B2 JP06222598A JP6222598A JP4165722B2 JP 4165722 B2 JP4165722 B2 JP 4165722B2 JP 06222598 A JP06222598 A JP 06222598A JP 6222598 A JP6222598 A JP 6222598A JP 4165722 B2 JP4165722 B2 JP 4165722B2
- Authority
- JP
- Japan
- Prior art keywords
- section
- image
- information
- object space
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、オブジェクト空間内の所与の視点での視界画像を生成するための画像生成装置及び情報記憶媒体に関する。
【0002】
【背景技術及び発明が解決しようとする課題】
従来より、仮想的な3次元空間であるオブジェクト空間内に複数のオブジェクトを配置し、所与の視点での視界画像を合成する画像生成装置が知られており、プレーヤがいわゆる仮想現実を体験できるものとして人気が高い。
【0003】
そして、このような画像生成装置においてプレーヤの感じる仮想現実感を更に向上させるためには、画像を如何にして高品質化するかが大きな技術的課題となる。
【0004】
オブジェクト空間内に存在するオブジェクトの画像を生成する際には、オブジェクトをオブジェクト空間に配置する演算や、視点座標系やスクリーン座標系への座標変換演算等の3次元演算が必要となる。
【0005】
かかる3次元演算を行う際、オブジェクト空間内に存在する地形や建物等の背景オブジェクトを個別のモデルとしてモデリングに必要な頂点データや稜線データ等のモデル情報を有し、個別のオブジェクト毎に3次元演算を行う手法がある。
【0006】
前記手法においては、個別のオブジェクト単位に視野の内外等を判断して正確なクリッピング処理を行うことができる。しかし、個別のオブジェクト毎にオブジェクト空間への配置処理や座標変換処理やクリッピング処理が必要となるため、演算用データのアクセス時間や演算回数の増大等で処理効率の悪化を招く。従って処理能力の低いハードウエアでは高品質な画像をリアルタイムに提供することは困難であった。
【0007】
一方、オブジェクト空間に存在するすべてのオブジェクトを一つのモデルとして取り扱う手法もある。しかしこの手法ではモデルが一つしかないため、クリッピング処理により見えない部分を省くことができない。従って、視野外の無駄な演算が発生し、結果として、演算時間の増大をもたらす。従ってかかる手法においても処理能力の低いハードウエアでは高品質な画像をリアルタイムに提供することは困難であった。
【0008】
本発明は、以上のような技術的課題に鑑みなされたものであり、その目的とするところは、演算用データのアクセス時間や演算回数の増大等に起因する処理効率の悪化及び視野外の無駄な演算処理の発生を防止し、少ない演算負荷で高品質の画像を生成することができる画像生成装置及び情報記憶媒体を提供することにある。
【0009】
【課題を解決するための手段】
本発明は、オブジェクト空間内の所与の視点において見える画像を生成する画像生成装置であって、オブジェクト空間を複数の区画に分割し、各区画内に存在する背景オブジェクトを構成するプリミティブ面からなる区画オブジェクトを設定し、当該区画オブジェクトに基づき、前記所与の視点において見える画像を生成するのに必要な3次元演算を行う3次元演算手段と、前記3次元演算手段の演算結果に基づき前記オブジェクト空間の所与の視点における画像を生成する画像生成手段とを含むことを特徴とする。
【0010】
また本発明は、オブジェクト空間内の所与の視点において見える画像を生成するための情報記憶媒体であって、オブジェクト空間を複数の区画に分割し、各区画内に存在する背景オブジェクトを構成するプリミティブ面からなる区画オブジェクトを設定し、当該区画オブジェクトに基づき、前記所与の視点において見える画像を生成するのに必要な3次元演算を行うための情報と、前記3次元演算結果に基づき前記オブジェクト空間の所与の視点における画像を生成するための情報とを含むことを特徴とする。
【0011】
ここにおいて前記3次元演算とは、例えば視点座標系やスクリーン座標系への座標変換及びクリッピング処理のための演算の少なくとも1つを含む。
【0012】
本発明は、これらの3次元演算を区画オブジェクトに基づき行う。区画オブジェクトとは、区画内に存在する複数の背景オブジェクトを構成するプリミティブ面で構成されるオブジェクトをいう。従って例えば区画内に複数の背景オブジェクトが含まれている場合にはこれらの複数の背景オブジェクトを構成するプリミティブ面で区画オブジェクトは構成されることになる。また、大きなオブジェクトが複数の区画にまたがって存在している場合には、これら大きなオブジェクトを区画単位で区切った場合の各部分を構成するプリミティブ面で区画オブジェクトは構成されることになる。
【0013】
背景オブジェクトとは、背景画像を構成するオブジェクトであり、例えば地形や建物等である。ただし、前記背景オブジェクトは静止物に限られない。全体的に移動する物でもよく、また例えばドア等のように一部が移動するものでもよい。
【0014】
また、特に背景オブジェクト以外のオブジェクトを設定する必要はない。即ち、オブジェクト空間内の全てのオブジェクトを背景オブジェクトとして取り扱ってもよい。
【0015】
本発明によれば、区画単位でオブジェクトを設定しているため、効率的な演算処理が可能となる。
【0016】
例えば区画内に複数のオブジェクトが存在する場合には、区画オブジェクトを設定することによりオブジェクト数を削減できるため、オブジェクト単位に発生するデータのアクセス時間等が減少し、演算時間の短縮を図ることができる。
【0017】
一方、複数の区画にまたがるような大きなオブジェクトが存在する場合には、クリッピング処理が困難となり見えない部分についても3次元演算が必要になり無駄な演算が発生する。これに対し、本発明によれば、区画単位で必要な部分を選別できるため、演算時間の短縮をはかることができる。
【0018】
本発明の前記3次元演算手段は、区画オブジェクト単位で設定されたモデル情報に基づき3次元演算を行うことを特徴とする。
【0019】
本発明の情報記憶媒体は、区画オブジェクト単位で設定されたモデル情報に基づき3次元演算を行うための情報を含むことを特徴とする。
【0020】
本発明は、これらの3次元演算を区画オブジェクトのモデル情報に基づき行う。
【0021】
通常は例えば建物や木等の物理的に独立した物単位のオブジェクトでモデリングを行い、モデル情報を設定している。モデル情報とは、モデリングに必要な情報であり、例えばモデルを構成する頂点情報や稜線情報等を含む。
【0022】
本発明によれば、例えば区画内に建物が10棟ある場合には10棟分のモデル情報を設定するのではなく10棟を1つのモデルとしてモデル情報を設定する。このため、区画内の個々のオブジェクト単位のモデル情報を用いて3次元演算を行う場合に比べ、データのアクセス時間が減少し演算時間の短縮を図ることができる。個々のオブジェクトを1モデルとする場合に比べ、区画単位に1モデルとする方がオブジェクト数が少なくて済むためである。
【0023】
一方、オブジェクト空間全体の背景オブジェクトを1つのモデルとしてとらえる手法も考えられる。この手法はデータのアクセス時間は少ないが、見えない部分まで3次元演算が必要になる。このため、無駄な演算が発生し、多数の精度の高いオブジェクトの表示を行おうとすると演算負荷が増大する。
【0024】
これに対し、本発明によれば、区画単位で必要な部分を選別できるため、演算付加の増大を招くことなく多数の精度の高いオブジェクトの表示が可能となる。
【0025】
また、本発明は前記3次元演算手段が、前記区画単位で視野の内外を判断して処理対象区画を決定し、前記処理対象区画に対応する区画オブジェクトに対して、前記3次元演算を行うことを特徴とする。
【0026】
本発明によれば、区画単位で視野の内外を判断して、処理対象となった区画についてのみ以降の処理を行う。このため、視野外の区画についての無駄な3次元演算処理を省き効率のよい処理を実現することができる。
【0027】
また個々の背景オブジェクト単位で視野の内外の判断を行う場合に比べ演算処理が減少し、効率のよいクリッピング処理を行うことができる。
【0028】
また本発明の前記区画は、オブジェクト空間に設けた基準点の周りを所与の角度単位で放射上に区切ったエリアとして設定されており、前記3次元演算手段が、
視線方向に基づいて、前記処理対象区画を決定することを特徴とする。
【0029】
本発明によれば、例えばオブジェクト空間が円形のエリア上に形成されているような場合には、当該円の中心点の周りに複数の扇型の区画が形成されることになる。
【0030】
このような区画に対応した区画オブジェクトは、区画のエリアにそってポリゴンを区切って生成してもよいし、区画の境にポリゴンが存在する場合はそのポリゴンをどちらかの区画に含めるようにしてもよい。前者の場合には区画のエリアに沿った区画オブジェクトが形成され、後者の場合には、区画のエリア内には収まらないが、区画のエリアに近似した区画オブジェクトが形成される。
【0031】
一般に、視点位置が前記基準点の周りの所定のエリア内で移動するように限定されていてその所定のエリアがオブジェクト空間に対して十分に小さい場合には、視線方向のみで、各区画の視野の内外を判断することができる。
【0032】
従って本発明の手法を用いると、クリッピング処理演算を大幅に削減することができる。
【0033】
また本発明は、前記3次元演算手段が、前記区画オブジェクト毎に、頂点データ、テクスチャデータ、稜線データの少なくとも1つ含むモデル情報を記憶する手段を含むことをを特徴とする。
【0034】
このようにすると、個々のオブジェクト単位に記憶されたモデル情報を用いて演算を行う場合に比べ、データのアクセス時間や演算回数の減少を図り、演算効率を高めることができる。このため、少ない演算負荷でリアルタイム処理を実現する事ができる。
【0035】
また本発明の前記モデル情報は、頂点情報を区画単位のローカル座標系のデータとして有しており、前記3次元演算手段が、前記頂点情報の視点座標系及びスクリーン座標系への座標変換演算の少なくとも一方を区画単位のローカル座標系のデータに基づき行うことを特徴とする。
【0036】
ある位置の座標値はワールド座標系で表すよりローカル座標系で表す場合の方が少ない桁数で済む。ローカル座標系はワールド座標系に比べて網羅すべき範囲が狭いからである。従って本発明によれば、3次元演算に必要なデータの桁数が減り、データサイズの縮小を行うことができる。
【0037】
また本発明は、前記3次元演算手段が、オブジェクト空間の同一の位置を表す頂点について、隣り合う2つの区画オブジェクトのそれぞれに頂点情報を有している鞘合、いずれか一方の区画オブジェクトの頂点情報に基づいて行なった3次元演算後の頂点情報に基づいて、他方の区画オブジェクトに含まれる同一の位置を表す頂点についての画像生成に必要な頂点情報を決定することを特徴とする。
【0038】
複数の区画オブジェクトが同一位置を表す頂点情報を含む場合、通常各区画毎に演算を行うと、丸め誤差や演算誤差により、同一位置についての3次元演算後の頂点情報にずれが生じる。従ってずれたまま画像生成を行うと区画オブジェクトの境界線上に隙間を生じる。
【0039】
しかし本発明によれば、いずれか一方の区画の3次元演算後の頂点情報に基づいて、他方の区画の画像を生成に必要な頂点情報を決定するため、誤差を調整して前記隙間の発生を防止することができる。
【0040】
また本発明は、オブジェクト空間内の所与の視点において見える画像を生成する画像生成装置であって、オブジェクト空間を、基準点の周りを所与の角度単位で放射上に区切って設定された区画に分割し、各区画に関連づけて区画内に存在するオブジェクトを登録する手段と、視線方向に基づいて処理対象となる区画を決定し、処理対象となる区画に存在するオブジェクトについて所与の視点において見える画像を生成するのに必要な3次元演算を行う3次元演算手段と、前記3次元演算手段の演算結果に基づき前記オブジェクト空間の所与の視点における画像を生成する画像生成手段とを含むことを特徴とする。
【0041】
また本発明は、オブジェクト空間内の所与の視点において見える画像を生成するための情報記憶媒体であって、オブジェクト空間を、基準点の周りを所与の角度単位で放射上に区切って設定された区画に分割し、各区画に関連づけて区画内に存在するオブジェクトを登録するための情報と、視線方向に基づいて処理対象となる区画を決定し、処理対象となる区画に存在するオブジェクトについて所与の視点において見える画像を生成するのに必要な3次元演算を行うための情報と、
前記3次元演算結果に基づき前記オブジェクト空間の所与の視点における画像を生成するための情報とを含むことを特徴とする。
【0042】
本発明によれば、例えばオブジェクト空間が円形のエリア上に形成されているような場合には、当該円の中心点の周りに複数の扇型の区画が形成されることになる。
【0043】
このような場合視点位置が前記基準点の周りの所定のエリア内で移動するように限定されていてその所定のエリアがオブジェクト空間に対して十分に小さい場合には、視線方向のみで、各区画の視野の内外を判断することができる。
【0044】
このため、クリッピング処理演算を大幅に削減することができる。
【0045】
また本発明は、視点位置の移動がオブジェクト空間内の所与エリアに限定されており、前記所与のエリアがオブジェクト空間に対して十分に小さくなるように設定されていることを特徴とする。
【0046】
例えば、格闘技ゲーム等で生成される画像は、オブジェクト空間の中心付近の所与のリングエリア内で移動を行う仮想カメラで撮影された画像である。従って視線方向は360度すべてにわたって変化するが仮想カメラの位置に連動する視点位置は、前記リング内の移動でよい。
【0047】
このような場合、本発明によれば、少ない演算負荷で視線方向及び視点位置の変化に応じた視野領域の画像生成が可能となる。
【0048】
【発明の実施の形態】
(1)第一の実施の形態
以下、本発明の実施の形態について図面を用いて説明する。なお、以下では本発明を格闘技ゲームに適用した場合を例にとり説明するが、本発明が適用されるのはこれに限られるものではない。
【0049】
図1に本実施の形態に係る画像生成装置の機能ブロック図の一例を示す。ここで操作部10は、プレーヤがレバー、ボタン等を操作してプレーヤキャラクタの操作情報を入力するためのものである。操作部10にて得られた操作情報は処理部100に出力される。
【0050】
処理部100は、この操作情報と、所与のプログラム等に基づいて、表示物を表すオブジェクトが複数配置されて成るオブジェクト空間の所与の視点での画像を生成する処理等を行うものである。この処理部100の機能は、例えばCPU(CICS型、RISC型)、DSP、ASIC(ゲートアレイ等)、メモリなどのハードウェアにより構成される。
【0051】
情報記憶媒体150は、プログラムやデータを記憶するものである。この情報記憶媒体150の機能は、CD−ROM、ゲームカセット、ICカード、MO、FD、DVD、メモリ、ハードディスクなどのハードウェアにより実現できる。処理部100は、この情報記憶媒体150からのプログラム、データに基づいて種々の処理を行うことになる。
【0052】
処理部100は、ゲーム演算部110、区画オブジェクト情報記憶部120、3次元演算部130、画像生成部140を含む。
【0053】
ここでゲーム演算部110は、ゲームモードの設定処理、ゲームの進行処理、ゲームキャラクタの位置や方向、動作を決める処理、視点情報を決める処理等を行う。またゲーム演算部110は、各フレーム毎に視線方向を決定する視線方向決定部112を含む。
【0054】
視線方向決定部112は、ゲームステージにおけるゲームキャラクタの位置や方向、動作に基づいて、ゲームキャラクタが行う格闘技を撮影するのに最適な仮想カメラの位置及び方向を決定する。この時の仮想カメラの方向が視線方向となる。
【0055】
区画オブジェクト情報記憶部120は区画オブジェクト毎に頂点情報、メッシュ情報、テクスチャ情報等のモデル情報を記憶するものである。なお、本実施の形態ではポリゴンオブジェクトを用いて画像生成を行っているため、前記モデル情報はポリゴンオブジェクトに対応したモデル情報を有している。この区画モデル情報は初期状態では情報記憶媒体150に格納されており、電源投入後等に情報記憶媒体150から区画モデル情報記憶部120に転送される。
【0056】
3次元演算部130は、前記視線方向に基づき、3次元演算の対象となる区画オブジェクトを決定し、前記処理対象となる区画オブジェクトのモデル情報に基づき、画像生成に必要な座標変換演算等を行う。
【0057】
画像生成部140は、3次元演算部130の演算結果に基づいてオブジェクト空間での所与の視点での画像を生成する処理を行う。画像生成部140により生成された画像は表示部160において表示される。
【0058】
次に区画と区画オブジェクトの関係について説明する。
【0059】
図2(A)(B)は、本実施の形態のオブジェクト空間と区画の関係を説明するための図である。図2(A)は、本実施の形態のオブジェクト空間が区画に区切られている様子示した平面図であり、図2(B)は、区画とオブジェクト空間の立体的な関係を表した図である。
【0060】
本実施の形態では、オブジェクト空間の中心点の周りを12等分して区切られた各扇型のエリア220−0〜220−11を1区画としている。中央の円形エリアは、リングエリア210である。本画像生成装置によって生成されるのは格闘技ゲームの画像であり、プレーヤキャラクタの格闘は、このリングエリアで行われる。オブジェクト空間の半径は仮想的に約16kmほどに設定されており、リングエリアの半径は仮想的に約16mほどに設定されている。なお、リングエリアに関しては、背景オブジェクトとして区画オブジェクトに含めていない。
【0061】
本実施の形態では、区画毎に1つのモデルを形成する区画オブジェクトを設定している。
【0062】
図3は、各区画毎に設定された区画オブジェクトを説明するための図である。
【0063】
本実施の形態では、図3(A)〜(L)に示すような区画オブジェクトを用いている。これらは図2(A)に示す12の区画に対応して、各区画内に存在するポリゴン面からなるオブジェクトを1つのモデルとして形成したものである。図3(F)の510のように稜線が区画に沿っている区画オブジェクトもあるが、例えば図3(B)の520及び図3(B)の530のように、稜線が必ずしも区画の境と一致していない部分もある。これは、区画をまたがって存在するポリゴン面を区画の稜線で分割せずに、どちらか一方の区画に含めて区画オブジェクトを設定するからである。このように区画の形状と区画オブジェクトは厳密に一致している必要はない。
【0064】
なお、背景オブジェクトが建物等である場合には通常建物毎にモデルを構成するが、背景オブジェクトが地形等である場合、モデルを構成する単位が区画よりも大きい場合もある。例えば図3(C)(D)の滝540、550や図3(E)〜(H)山560、570、580、590等である。このような場合は、大きなオブジェクトを各区に属する部分に分割してモデルを構成することになる。
【0065】
次にモデル情報の構成について、区画内に複数のポリゴンオブジェクトが存在する場合を例にとり説明する。
【0066】
図4(A)(B)、図5(A)(B)は、区画オブジェクトと個々のオブジェクトのモデル情報について説明するための図である。図4(A)に示すようにある区画220−1に3つのオブジェクトOB1、OB2、OB3が存在し、他の区画220−2に2つのオブジェクトOB4、OB5が存在しているとする。
【0067】
図5(A)は、個々のオブジェクト毎にモデルを形成する場合のモデル情報の例を示している。モデル情報は、頂点情報、メッシュ情報、テクスチャ情報を含む。
【0068】
頂点情報は、1つのモデルを形成しているオブジェクトを構成するポリゴンの頂点の座標を、オブジェクトのボディ座標系等のローカル座標系における3次元座標として表したものである。メッシュ情報320とは、オブジェクトを構成するポリゴン面を特定するための稜線情報である。すなわち頂点情報のみでは各頂点がどのように連結してポリゴン面を構成しているのかが特定できない。そこで、オブジェクトを構成するポリゴン面を特定するために、オブジェクトを構成する各面の稜線に沿った頂点の配列情報としてメッシュ情報を設定している。
【0069】
図4(B)には、オブジェクトOB1の頂点情報310とメッシュ情報320の例が示されている。同図に示す用に、オブジェクトOB1はV11〜V18の8個の頂点とM11〜M16を6個のポリゴン面を含んでいる。オブジェクトOB1の頂点情報V1は、図4(B)の310に示すように各頂点V11〜V18についてのオブジェクトOB1のボディ座標系におけるXYZ座標を含んで構成されている。即ち例えばV11の頂点情報(X11、Y11、Z11)は、オブジェクトOB1のローカル座標系のデータとして与えられている。
【0070】
また、オブジェクトOB1のメッシュ情報M1は図4(B)の320に示すように、各ポリゴン面M11〜M16についての稜線情報322を含んで構成されている。例えばポリゴン面M11は反時計回りにV11−V15−V16−V12の頂点をつないで構成されていることを示している。
【0071】
また本実施の形態ではテクスチャマッピングを行っているため、オブジェクトを構成する各ポリゴン面に張り付けるテクスチャの情報を用いている。
【0072】
また、このモデリング手法においては、図5(A)に示すように各オブジェクト毎に、オブジェクト空間に配置するためのワールド座標系における配置情報WL1〜WL5を用いている。この配置情報は、ワールド座標系における位置情報(Xw,Yw,Zw)及び方向情報(θ,φ,ρ)で設定されている。オブジェクトが移動しないものである場合はこの配置情報は更新されないが、移動するものである場合は、ゲーム演算部110等により移動した位置及び方向に更新される。
【0073】
一方図5(B)は本実施の形態のように区画単位で1つのモデルを形成する場合のモデル情報の例を示したものである。図5(B)に示すように、各区画オブジェクト毎にモデル情報が与えられている。ここにおいて区画オブジェクトKOB1は、前記オブジェクトOB1、OB2、OB3に含まれるポリゴン面により構成したものである。即ち1つの区画オブジェクトの頂点情報、メッシュ情報、テクスチャ情報は、原則として区画内に存在する全頂点の情報、区画内に存在する全稜線の情報、区画内に存在する全ポリゴン面に貼り付けるテクスチャ情報からなる。
【0074】
例えば区画オブジェクトKOB1の頂点情報は、オブジェクトOB1、オブジェクトOB2、オブジェクトOB3を構成する全頂点情報V1’、V2’、V3’からなる。ただし頂点情報V1’、V2’、V3’は、区画内に存在する各頂点のローカル座標系における3次元座標で有している。
【0075】
区画オブジェクトKOB1のメッシュ情報及びテクスチャ情報についても同様に、オブジェクトOB1、オブジェクトOB2、オブジェクトOB3を構成する全稜線についてのメッシュ情報M1’、M2’、M3’、及びオブジェクトOB1、オブジェクトOB2、オブジェクトOB3を構成する全ポリゴン面についてのテクスチャ情報T1’、T2’、T3からなる。
【0076】
そして図5(B)に示すように各区画オブジェクト毎に、ワールド座標系に配置するための配置情報KWL1、KWL2を有している。本実施の形態では、図2(A)に示すように区画分けされているため、配置情報としては例えば区画を特定するための区画番号等でよい。
【0077】
このように、区画オブジェクトを設定することによりモデル数の減少を図ることができるため、データのアクセス時間及び演算回数が減少し演算時間の短縮を図ることができる。
【0078】
次に、これら区画オブジェクトに基づいて、3次元演算部で行われる処理について具体的に説明する。
【0079】
3次元演算部は、所与の視点位置及び視線方向のおける画像生成するために必要な頂点座標の座標変換演算等を行う。具体的には、区画オブジェクトの頂点情報を所与の視点位置の所与視線方向における視点座標系への座標変換を行い、さらに、スクリーン座標系への座標変換を行う。
【0080】
本実施の形態では、まず視野外に存在する無駄な3次元演算処理を省くために、
区画単位のクリッピング処理を行い、3次元演算処理の対象となる処理対象区画の決定を行っている。
【0081】
図2で説明したように、本実施の形態において格闘技の行われるリングは、オブジェクト空間全体に比べるときわめて狭いエリアである。このため視点位置もこのリング内の移動のみとなり、どの区画が生成される背景画像にあたるかは、視線方向により特定されることになる。
【0082】
図6(A)(B)は、本実施の形態のクリッピング処理について説明するための図である。
【0083】
図6(A)は、本実施の形態の視野角を示した図である。本実施の形態では視野角290は55度に設定されている。この視野に入らない領域は、表示されないため画像生成に関する処理を省略することが好ましい。
【0084】
そこで本実施の形態では区画単位に、画像生成に関する処理を省略するか否かの判断を行っている。ここにおいて各区画の扇形の中心角は30度であるため、視点位置が中心点にあるとすれば、視野内に入る可能性のある区画は最大3個である。しかし、視点位置とオブジェクト空間の中心点には多少の誤差があること、また区画オブジェクトと区画には図3(A)〜(L)に示すように多少のずれがあることにる表示抜けを防止するため、余裕をもって5個の処理対象区画を選択するようにしている。
【0085】
すなわち図6(B)に示すように半円形のクリッピングエリア250を設定し半円の中心線を視線方向と重なるようにおいた場合、このクリッピングエリアと重なりあう面積が多い方から6つの区画を選択する。図6(A)では区画220−11〜区画220−4が処理対象区画として選択される。この選択は視線方向決定部112の決定した視線方向と区画の配置により自動的に行われる。
【0086】
そして本実施の形態では、区画毎にスクリーン座標系への座標変換処理をおこなっている。すなわち、視点の位置及び方向を区画単位のローカル座標系に変換しローカル座標系の座標値を用いてスクリーン座標系への変換処理を行っている。
【0087】
ある位置の座標値をワールド座標系で表すよりローカル座標系で表す場合の方が少ない桁数で済む。ローカル座標系はワールド座標系に比べて網羅すべき範囲が狭いからである。従ってこのようにすると3次元演算に必要なデータの桁数が減り、データサイズの縮小を行うことができる。
【0088】
ところが各ブロック毎に行った3次元演算に基づいて生成された画像を合成する際、各ブロックの境界線の画像に隙間が発生する場合がある。
【0089】
図7(A)〜(F)は、図3(A)〜(L)の各区画オブジェクトを合成した図である。図7(A)は図3(A)〜(D)のAREA0〜AREA3の区画オブジェクトを合成した図であり、図7(B)は図3(C)〜(E)のAREA2〜AREA4の区画オブジェクトを合成した図であり、図7(C)は図3(D)〜(G)のAREA3〜AREA6の区画オブジェクトを合成した図であり、図7(D)は図3(G)〜(I)のAREA6〜AREA8の区画オブジェクトを合成した図であり、図7(E)は図3(I)〜(L)のAREA8〜AREA11の区画オブジェクトを合成した図であり、図7(F)は図3(L)、(A)〜(D)のAREA11、AREA0〜AREA2の区画オブジェクトを合成した図である。図7(A)〜(F)の610〜730は、各区画の境目に発生した隙間を示している。例えば図7(A)において、隙間610は、図3(A)の右側の稜線610と図3(B)の左側の稜線820の不一致により生じたものである。
【0090】
本実施の形態ではかかる隙間の発生を防止するため、複数の区画オブジェクトが同一位置を表す頂点情報を含む場合には、先に3次元演算を行った区画オブジェクトの頂点情報を、後に演算を行う区画オブジェクトの頂点情報として用いるよう構成している。
【0091】
図8(A)(B)は、区画のつなぎ目に発生する隙間を防止する手法について説明するための図である。説明を簡単にするため、区画220−1と区画220−2の2枚のポリゴンP1、P2がある場合を例にとり説明する。ポリゴンp1はV1、V2、V3、V4の頂点からなり、ポリゴンP2はV1、V2、V5、V6の頂点からなるとする。そして、ポリゴンP1は区画220−1に対応する区画オブジェクトに含まれ、ポリゴンP2は区画220−2に対応する区画オブジェクトに含まれているとする。
【0092】
従って同一の位置を表す点V1とV2について、区画220−1の区画オブジェクトと区画220−2の区画オブジェクトで別々に頂点情報を有することになる。
【0093】
この区画オブジェクト情報の頂点データは、それぞれのローカル座標系の座標値で有している。そして、それぞれ区画オブジェクト単位で座標変換が行われて、最終的には区画オブジェクトを構成する角頂点のスクリーン座標系における頂点情報が得られる。図8(B)はこの頂点情報に基づき、スクリーン800に前記頂点を配置した図である。ポリゴンP1の各頂点V1、V2、V3、V4はV1’a、V2’a、V3’、V4’に座標変換され、ポリゴンP2の各頂点V1、V2、V5、V6はV1’b、V2’b、V5’、V6’に座標変換されている。
【0094】
同じ位置を表すはずのV1’aと、V1’b、V2’a、V2’bは、ずれて表示されている。モデル情報を設定する際の各区画オブジェクトのローカル座標系への座標変換時や3次元演算部が行う座標変換演算の結果等により生じるまるめ誤差、演算誤差等が生じたためである。
【0095】
かかる隙間の発生を回避するために、本実施の形態では、区画220−1の区画オブジェクトの座標変換の結果得られた変換後の頂点情報V1’a、V2’aを、区画220−2の区画オブジェクトの変換後の頂点情報として用いるのである即ち区画220−2の区画オブジェクトの変換後頂点情報はV1’a、V2’a、V5’、V6’となる。このようにすると区画220−2についてはV1及びV2について3次元演算を省略できるため、演算負荷の軽減にもなる。
【0096】
図9は図8で説明した手法を用いて、各区画オブジェクトを合成した様子を表した図である。図9では、図7(A)〜(F)の場合のように、各区画オブジェクトのつなぎ目に隙間が発生していない。
【0097】
図10は、本実施の形態の処理の一例を表すフローチャート図である。
【0098】
本実施の形態では、各フレーム毎に、図10に示すフローチャートの処理を行い画像の生成を行っている。
【0099】
まず、ゲーム空間内のプレーヤキャラクタの動作や位置関係に基づいて、画像生成を行うための視線方向等が決定される(ステップS10)。この処理は主に、ゲーム演算部110の視線方向決定部112が行う。
【0100】
そして3次元演算部130は、前記処理対象区画に対応する区画オブジェクトについて、3次元演算処理を行う(ステップS20、S30、S40、S50)。
【0101】
まず、前記視線方向に基づき、図5(A)(B)で説明したようにして処理対象区画を決定する(ステップS20)。そして、最初に3次元演算を行う区画オブジェクトについてはすべての頂点について3次元演算を行う(ステップS30、S50)。また、既に3次元演算を行った区画がある場合には、稜線上に存在する同位置の頂点情報を取得し、区画内の他の頂点について3次元演算を行う。すなわち、図8(A)(B)で説明したように、稜線上に存在する同位置の頂点情報で既に3次元演算済みのものがあれば、当該区画内の同位置の頂点については3次元演算を行わない。その代わりに既に3次元演算済みの頂点情報を用いる(ステップS30、S40)。
【0102】
その後、画像生成部140は各区画毎の3次元演算結果を受け取り、レンダリング処理等を行い、各画素毎RGBデータを演算し、表示画像を生成する(ステップS70)。すべての区画について前記3次元演算と画像生成が終了したら1サイクルの処理を終了し、終了していなければステップ30からの処理を繰り返す。
【0103】
次に、本実施の形態を実現できるハードウェアの構成の一例について図11を用いて説明する。同図に示す装置では、CPU1000、ROM1002、RAM1004、情報記憶媒体1006、音生成IC1008、画像生成IC1010、I/Oポート1012、1014が、システムバス1016により相互にデータ送受信可能に接続されている。そして前記画像生成IC1010にはディスプレイ1018が接続され、音生成IC1008にはスピーカ1020が接続され、I/Oポート1012にはコントロール装置1022が接続され、I/Oポート1014には通信装置1024が接続されている。
【0104】
情報記憶媒体1006は、プログラム、表示物を表現するための画像情報、音情報等が主に格納されるものであり、CD−ROM、ゲームカセット、ICカード、DVD、MO、FD、メモリ、ハードディスク等が用いられる。例えば家庭用ゲーム装置ではゲームプログラム等を格納する情報記憶媒体としてCD−ROM、ゲームカセット、DVD等が用いられる。また業務用ゲーム装置ではROM等のメモリが用いられ、この場合には情報記憶媒体1006はROM1002になる。
【0105】
コントロール装置1022はゲームコントローラ、操作パネル等に相当するものであり、プレーヤがゲーム進行に応じて行う判断の結果を装置本体に入力するための装置である。
【0106】
情報記憶媒体1006に格納されるプログラム、ROM1002に格納されるシステムプログラム(装置本体の初期化情報等)、コントロール装置1022によって入力される信号等に従って、CPU1000は装置全体の制御や各種データ処理を行う。RAM1004はこのCPU1000の作業領域等として用いられる記憶手段であり、情報記憶媒体1006やROM1002の所与の内容、あるいはCPU1000の演算結果等が格納される。また区画オブジェクト情報は、このRAM又は情報記憶媒体上に記憶されることになる。
【0107】
更に、この種の装置には音生成IC1008と画像生成IC1010とが設けられていてゲーム音やゲーム画像の好適な出力が行えるようになっている。音生成IC1008は情報記憶媒体1006やROM1002に記憶される情報に基づいて効果音やバックグラウンド音楽等のゲーム音を生成する集積回路であり、生成されたゲーム音はスピーカ1020によって出力される。また、画像生成IC1010は、RAM1004、ROM1002、情報記憶媒体1006等から送られる画像情報に基づいてディスプレイ1018に出力するための画素情報を生成する集積回路である。なおディスプレイ1018として、いわゆるヘッドマウントディスプレイ(HMD)と呼ばれるものを使用することもできる。
【0108】
また、通信装置1024はゲーム装置内部で利用される各種の情報を外部とやりとりするものであり、他のゲーム装置と接続されてゲームプログラムに応じた所与の情報を送受したり、通信回線を介してゲームプログラム等の情報を送受することなどに利用される。
【0109】
そして図1〜図10で説明した種々の処理は、所与の処理を行うプログラムを格納した情報記憶媒体1006と、該プログラムに従って動作するCPU1000、画像生成IC1010、音生成IC1008等によって実現される。なお画像生成IC1010、音生成IC1008等で行われる処理は、CPU1000あるいは汎用のDSP等によりソフトウェア的に行ってもよい。
【0110】
図12(A)に、本実施例を業務用ゲーム装置に適用した場合の例を示す。プレーヤは、ディスプレイ1100上に映し出されたゲーム画像を見ながら、レバー1102、ボタン1104等を操作してゲームを楽しむ。装置に内蔵されるIC基板1106には、CPU、画像合成IC、音合成IC等が実装されている。
【0111】
そして所与の操作手段により入力される操作情報により決定される視線情報と、区画オブジェクト情報に基づいて画像を生成するための情報等は、システム基板1106上の情報記憶媒体であるメモリ1108に格納される。以下、これらの情報を格納情報と呼ぶ。これらの格納情報は、上記の種々の処理を行うためのプログラムコード、画像情報、音情報、表示物の形状情報、テーブルデータ、リストデータ、プレーヤ情報等の少なくとも1つを含むものである。
【0112】
図12(B)に、本実施の形態を家庭用のゲーム装置に適用した場合の例を示す。プレーヤはディスプレイ1200に映し出されたゲーム画像を見ながら、ゲームコントローラ1202、1204を操作してゲームを楽しむ。この場合、上記格納情報は、本体装置に着脱自在な情報記憶媒体であるCD−ROM1206、ICカード1208、1209等に格納されている。
【0113】
図12(C)に、ホスト装置1300と、このホスト装置1300と通信回線1302を介して接続される端末1304-1〜1304-nとを含むゲーム装置に本実施の形態を適用した場合の例を示す。この場合、上記格納情報は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、メモリ等の情報記憶媒体1306に格納されている。端末1304-1〜1304-nが、CPU、画像生成IC、音生成ICを有し、スタンドアロンでゲーム画像、ゲーム音を生成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を生成するためのゲームプログラム等が端末1304-1〜1304-nに配送される。一方、スタンドアロンで生成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を生成し、これを端末1304-1〜1304-nに伝送し端末において出力することになる。
【0114】
(2)第二の実施の形態
前記第一の実施の形態では、オブジェクト空間を複数の扇型の区画に分割して、1区画を1つのモデルとする区画オブジェクトとして考えた。これに対し、第二の実施の形態においては、オブジェクト空間を複数の扇型の区画に分割する点では第一の実施の形態と共通するが、区画単位にモデルを構成せずに個々のオブジェクト単位でモデル構成する点で相違する。
【0115】
そして各オブジェクトを前記扇型の区画に関連づけて記憶させておく。すなわち、モデル情報は図5(A)に示すように個々のオブジェクト単位で有している。
【0116】
しかし個々のオブジェクトは、前記扇型の区画に関連づけられているため、図5に示すように区画単位にクリッピング処理をおこなうことができる。
【0117】
なお本発明は、上記実施の形態で説明したものに限らず、種々の変形実施が可能である。
【0118】
区画の形状が扇型である場合を例にとり説明したがこれに限られない。視線方向のみが問題となり、視点位置がほとんど問題とならない場合には扇型が好ましいが、視点位置の移動が問題となる場合には、例えば正方形や長方形の区画を設定してもよい。
【0119】
また、区画オブジェクト情報のデータの記憶構造及び記憶内容も本実施の形態の形式に限られない。
【0120】
また本発明は、家庭用、業務用のゲーム装置のみならず、シミュレータ、多数のプレーヤが参加する大型アトラクション装置、パーソナルコンピュータ、マルチメディア端末、ゲーム画像を合成するシステム基板等の種々の装置に適用できる。
【0121】
【図面の簡単な説明】
【図1】第一の実施の形態に係る画像生成装置の機能ブロック図の一例である。
【図2】図2(A)(B)は、第一の実施の形態のオブジェクト空間と区画の関係を説明するための図である。
【図3】図3(A)〜(L)は、各区画毎に設定された区画オブジェクトを説明するための図である。
【図4】図4(A)(B)は、区画オブジェクトと個々のオブジェクトのモデル情報について説明するための図である。
【図5】図5(A)(B)は、区画オブジェクトと個々のオブジェクトのモデル情報について説明するための図である。
【図6】図6(A)(B)は第一の実施の形態のクリッピング処理について説明するための図である。
【図7】図7(A)〜(F)は、各区画オブジェクトを合成した図である。
【図8】図8(A)(B)は、区画のつなぎ目に発生する隙間を防止する手法について説明するための図である。
【図9】図9(A)〜(F)は、第一の実施の形態の手法を用いて、各区画オブジェクトを合成した様子を表した図である。
【図10】第一の実施の形態の処理の一例を表すフローチャート図である。
【図11】第一の実施の形態を実現できるハードウェアの構成の一例である。
【図12】図12(A)(B)(C)は、本発明が適用される種々の形態の装置を示す図である。
【符号の説明】
10 操作部
100 処理部
110 ゲーム演算部
112 視線方向決定部
120 区画オブジェクト情報記憶部
130 3次元演算部
140 画像生成部
150 情報記憶媒体
160 表示部
220 区画
250 クリッピングエリア
270 視点位置
280 視線方向
290 視野角
310 頂点情報
320 メッシュ情報[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image generation device and an information storage medium for generating a view field image at a given viewpoint in an object space.
[0002]
[Background Art and Problems to be Solved by the Invention]
Conventionally, there has been known an image generation apparatus that arranges a plurality of objects in an object space, which is a virtual three-dimensional space, and synthesizes a field-of-view image from a given viewpoint, so that a player can experience so-called virtual reality. Popular as a thing.
[0003]
In order to further improve the virtual reality felt by the player in such an image generation apparatus, how to improve the quality of the image is a major technical issue.
[0004]
When generating an image of an object existing in the object space, a three-dimensional operation such as an operation for arranging the object in the object space or a coordinate conversion operation to a viewpoint coordinate system or a screen coordinate system is required.
[0005]
When performing such 3D calculations, model objects such as vertex data and ridgeline data necessary for modeling using individual objects as background objects such as terrain and buildings existing in the object space, and 3D for each individual object There is a method for performing an operation.
[0006]
In the above method, accurate clipping processing can be performed by determining the inside and outside of the field of view for each individual object. However, since an arrangement process in the object space, a coordinate conversion process, and a clipping process are required for each individual object, the processing efficiency deteriorates due to an increase in the access time of the calculation data and the number of calculations. Therefore, it has been difficult to provide high-quality images in real time with hardware with low processing capability.
[0007]
On the other hand, there is a technique for handling all objects existing in the object space as one model. However, since this method has only one model, the invisible part cannot be omitted by the clipping process. Therefore, useless computation outside the field of view occurs, resulting in an increase in computation time. Therefore, even with this method, it is difficult to provide a high-quality image in real time with hardware with low processing capability.
[0008]
The present invention has been made in view of the technical problems as described above, and the object of the present invention is to deteriorate the processing efficiency due to an increase in the access time of the operation data, the increase in the number of operations, etc. It is an object of the present invention to provide an image generation apparatus and an information storage medium that can prevent generation of a complicated calculation process and generate a high-quality image with a small calculation load.
[0009]
[Means for Solving the Problems]
The present invention is an image generation apparatus that generates an image that can be seen at a given viewpoint in an object space, and is composed of a primitive surface that divides the object space into a plurality of sections and constitutes a background object that exists in each section. A three-dimensional calculation means for setting a division object and performing a three-dimensional calculation necessary for generating an image seen from the given viewpoint based on the division object, and the object based on the calculation result of the three-dimensional calculation means And image generation means for generating an image at a given viewpoint in space.
[0010]
Further, the present invention is an information storage medium for generating an image that can be seen at a given viewpoint in an object space, and is a primitive that divides the object space into a plurality of sections and constitutes a background object existing in each section Information for performing a three-dimensional operation necessary for setting a partition object composed of a plane and generating an image that can be seen from the given viewpoint based on the partition object, and the object space based on the three-dimensional calculation result And information for generating an image at a given viewpoint.
[0011]
Here, the three-dimensional calculation includes, for example, at least one of calculation for coordinate conversion to a viewpoint coordinate system or a screen coordinate system and clipping processing.
[0012]
The present invention performs these three-dimensional operations based on the partition object. A section object refers to an object composed of a primitive surface that constitutes a plurality of background objects existing in the section. Therefore, for example, when a plurality of background objects are included in the section, the section object is configured by the primitive planes that form the plurality of background objects. Further, when a large object exists over a plurality of sections, the section object is configured by a primitive surface that constitutes each part when the large object is divided into sections.
[0013]
A background object is an object that constitutes a background image, such as a terrain or a building. However, the background object is not limited to a stationary object. It may be an object that moves as a whole, or a part that moves, such as a door.
[0014]
In addition, it is not necessary to set an object other than the background object. That is, all objects in the object space may be handled as background objects.
[0015]
According to the present invention, since an object is set in units of partitions, efficient calculation processing can be performed.
[0016]
For example, when there are a plurality of objects in a partition, the number of objects can be reduced by setting the partition object. Therefore, the access time of data generated in units of objects is reduced, and the calculation time can be shortened. it can.
[0017]
On the other hand, when there is a large object that spans a plurality of sections, clipping processing becomes difficult, and a three-dimensional calculation is required even for a portion that cannot be seen, resulting in useless calculation. On the other hand, according to the present invention, since necessary portions can be selected in units of sections, the calculation time can be shortened.
[0018]
The three-dimensional calculation means of the present invention is characterized in that a three-dimensional calculation is performed based on model information set for each partition object.
[0019]
The information storage medium of the present invention includes information for performing a three-dimensional operation based on model information set in units of partition objects.
[0020]
The present invention performs these three-dimensional operations based on the model information of the partition object.
[0021]
Usually, for example, modeling is performed using physically independent objects such as buildings and trees, and model information is set. The model information is information necessary for modeling, and includes, for example, vertex information and ridge line information constituting the model.
[0022]
According to the present invention, for example, when there are 10 buildings in a section, model information for 10 buildings is set instead of setting model information for 10 buildings. For this reason, compared with the case where the three-dimensional calculation is performed using the model information for each object in the partition, the data access time is reduced and the calculation time can be shortened. This is because the number of objects is smaller when one model is used for each section than when one object is used as one model.
[0023]
On the other hand, a method of capturing the background object of the entire object space as one model is also conceivable. Although this method has a short data access time, it requires a three-dimensional operation up to an invisible part. For this reason, useless calculations occur, and the calculation load increases when attempting to display a large number of highly accurate objects.
[0024]
On the other hand, according to the present invention, since necessary portions can be selected in units of sections, it is possible to display a large number of highly accurate objects without causing an increase in calculation addition.
[0025]
Further, according to the present invention, the three-dimensional calculation means determines a processing target partition by judging the inside / outside of the field of view in units of the partition, and performs the three-dimensional calculation on the partition object corresponding to the processing target partition. It is characterized by.
[0026]
According to the present invention, the inside / outside of the field of view is determined for each section, and the subsequent processing is performed only for the section that has been processed. For this reason, it is possible to realize efficient processing by omitting useless three-dimensional calculation processing for the section outside the field of view.
[0027]
In addition, the calculation processing is reduced as compared with the case where the inside / outside of the field of view is determined in units of individual background objects, and efficient clipping processing can be performed.
[0028]
Further, the section of the present invention is set as an area obtained by radially dividing the circumference of a reference point provided in the object space in a given angle unit, and the three-dimensional calculation means includes:
The processing target section is determined based on a line-of-sight direction.
[0029]
According to the present invention, for example, when the object space is formed on a circular area, a plurality of fan-shaped sections are formed around the center point of the circle.
[0030]
The partition object corresponding to such a partition may be generated by dividing the polygon along the partition area. If a polygon exists on the boundary of the partition, the polygon should be included in either partition. Also good. In the former case, a partition object is formed along the partition area. In the latter case, a partition object that does not fit in the partition area but approximates the partition area is formed.
[0031]
In general, when the viewpoint position is limited to move within a predetermined area around the reference point, and the predetermined area is sufficiently small with respect to the object space, the visual field of each section is only in the line-of-sight direction. You can judge inside or outside.
[0032]
Therefore, when the method of the present invention is used, the clipping processing operation can be greatly reduced.
[0033]
Further, the present invention is characterized in that the three-dimensional calculation means includes means for storing model information including at least one of vertex data, texture data, and edge line data for each of the partition objects.
[0034]
In this way, it is possible to reduce the data access time and the number of calculations and increase the calculation efficiency as compared with the case where the calculation is performed using the model information stored in units of individual objects. For this reason, real-time processing can be realized with a small calculation load.
[0035]
Further, the model information of the present invention has vertex information as data in a local coordinate system in units of sections, and the three-dimensional computing means performs coordinate transformation computation of the vertex information into a viewpoint coordinate system and a screen coordinate system. At least one of them is performed based on data in a local coordinate system in units of sections.
[0036]
The coordinate value at a certain position requires fewer digits when expressed in the local coordinate system than in the world coordinate system. This is because the local coordinate system has a narrower range to cover than the world coordinate system. Therefore, according to the present invention, the number of data digits required for the three-dimensional operation is reduced, and the data size can be reduced.
[0037]
According to the present invention, the three-dimensional computing means includes a vertex having vertex information in each of two adjacent partition objects, with respect to a vertex representing the same position in the object space. Based on the vertex information after the three-dimensional calculation performed based on the information, the vertex information necessary for image generation for the vertex representing the same position included in the other partition object is determined.
[0038]
When a plurality of partition objects include vertex information representing the same position, if calculation is normally performed for each partition, a deviation occurs in vertex information after the three-dimensional calculation for the same position due to a rounding error or a calculation error. Accordingly, when image generation is performed with a shift, a gap is generated on the boundary line of the partition object.
[0039]
However, according to the present invention, since the vertex information necessary for generating the image of the other section is determined based on the vertex information after the three-dimensional calculation of any one section, the error is adjusted to generate the gap. Can be prevented.
[0040]
The present invention also relates to an image generation apparatus that generates an image that can be seen at a given viewpoint in an object space, and is defined by dividing the object space radially around a reference point in a given angle unit. Means for registering an object existing in each section in association with each section, determining a section to be processed based on the line-of-sight direction, and regarding objects existing in the section to be processed at a given viewpoint 3D calculation means for performing 3D calculation necessary for generating a visible image, and image generation means for generating an image at a given viewpoint in the object space based on the calculation result of the 3D calculation means. It is characterized by.
[0041]
Further, the present invention is an information storage medium for generating an image that can be seen at a given viewpoint in an object space, and is set by dividing the object space around a reference point in a given angular unit on a radiation. Information for registering the objects existing in the sections in association with each section and the line-of-sight direction are determined, and the objects existing in the sections to be processed are determined. Information for performing the three-dimensional operation necessary to generate an image that can be seen at a given viewpoint;
And information for generating an image at a given viewpoint in the object space based on the three-dimensional calculation result.
[0042]
According to the present invention, for example, when the object space is formed on a circular area, a plurality of fan-shaped sections are formed around the center point of the circle.
[0043]
In such a case, when the viewpoint position is limited to move within a predetermined area around the reference point, and the predetermined area is sufficiently small with respect to the object space, each section is only in the line-of-sight direction. The inside and outside of the visual field can be judged.
[0044]
For this reason, the clipping processing calculation can be greatly reduced.
[0045]
Further, the present invention is characterized in that the movement of the viewpoint position is limited to a given area in the object space, and the given area is set to be sufficiently smaller than the object space.
[0046]
For example, an image generated in a martial arts game or the like is an image taken by a virtual camera that moves within a given ring area near the center of the object space. Accordingly, the line-of-sight direction changes over all 360 degrees, but the viewpoint position linked to the position of the virtual camera may be movement within the ring.
[0047]
In such a case, according to the present invention, it is possible to generate an image of a visual field according to changes in the line-of-sight direction and the viewpoint position with a small calculation load.
[0048]
DETAILED DESCRIPTION OF THE INVENTION
(1) First embodiment
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following, the case where the present invention is applied to a martial arts game will be described as an example. However, the present invention is not limited to this.
[0049]
FIG. 1 shows an example of a functional block diagram of the image generation apparatus according to the present embodiment. Here, the
[0050]
The
[0051]
The
[0052]
The
[0053]
Here, the
[0054]
The line-of-sight
[0055]
The section object
[0056]
The three-
[0057]
The
[0058]
Next, the relationship between the partition and the partition object will be described.
[0059]
2A and 2B are diagrams for explaining the relationship between the object space and the section according to the present embodiment. FIG. 2A is a plan view showing a state in which the object space of the present embodiment is divided into sections, and FIG. 2B is a diagram showing a three-dimensional relationship between the sections and the object space. is there.
[0060]
In the present embodiment, each sector-shaped area 220-0 to 220-11 divided into 12 parts around the center point of the object space is defined as one section. The central circular area is a
[0061]
In the present embodiment, a partition object that forms one model is set for each partition.
[0062]
FIG. 3 is a diagram for explaining a partition object set for each partition.
[0063]
In the present embodiment, partition objects as shown in FIGS. 3A to 3L are used. These correspond to the twelve sections shown in FIG. 2 (A), in which an object composed of polygonal surfaces existing in each section is formed as one model. There is a partition object in which the edge line is along the partition as in 510 of FIG. 3F, but the edge line is not necessarily the boundary of the partition as in, for example, 520 in FIG. 3B and 530 in FIG. 3B. Some parts do not match. This is because the segment object is set by including the polygonal surface existing across the segments in either one of the segments without dividing the polygon surface by the edge of the partition. As described above, the shape of the partition and the partition object do not need to be exactly the same.
[0064]
When the background object is a building or the like, a model is usually configured for each building. However, when the background object is terrain or the like, the unit constituting the model may be larger than the section. For example, the
[0065]
Next, the configuration of the model information will be described by taking as an example a case where a plurality of polygon objects exist in a section.
[0066]
FIGS. 4A and 4B and FIGS. 5A and 5B are diagrams for explaining the model information of the partition objects and the individual objects. As shown in FIG. 4A, it is assumed that three objects OB1, OB2, and OB3 exist in a certain section 220-1, and two objects OB4 and OB5 exist in the other section 220-2.
[0067]
FIG. 5A shows an example of model information when a model is formed for each object. The model information includes vertex information, mesh information, and texture information.
[0068]
The vertex information represents the coordinates of the vertices of polygons constituting an object forming one model as three-dimensional coordinates in a local coordinate system such as a body coordinate system of the object. The mesh information 320 is ridge line information for specifying the polygonal surfaces constituting the object. That is, it is not possible to specify how the vertices are connected to form the polygonal surface only by the vertex information. Therefore, in order to specify the polygonal surfaces constituting the object, mesh information is set as vertex arrangement information along the ridgeline of each surface constituting the object.
[0069]
FIG. 4B shows an example of vertex information 310 and mesh information 320 of the object OB1. As shown in the figure, the object OB1 includes eight vertices V11 to V18 and six polygon faces M11 to M16. The vertex information V1 of the object OB1 is configured to include XYZ coordinates in the body coordinate system of the object OB1 for each vertex V11 to V18 as indicated by 310 in FIG. 4B. That is, for example, the vertex information (X11, Y11, Z11) of V11 is given as data in the local coordinate system of the object OB1.
[0070]
The mesh information M1 of the object OB1 includes ridge line information 322 for each of the polygonal surfaces M11 to M16, as indicated by 320 in FIG. 4B. For example, the polygon surface M11 indicates that it is configured by connecting the vertices of V11-V15-V16-V12 counterclockwise.
[0071]
In addition, since texture mapping is performed in the present embodiment, information on the texture to be attached to each polygon surface constituting the object is used.
[0072]
Further, in this modeling method, as shown in FIG. 5A, for each object, arrangement information WL1 to WL5 in the world coordinate system for arrangement in the object space is used. This arrangement information is set by position information (Xw, Yw, Zw) and direction information (θ, φ, ρ) in the world coordinate system. If the object does not move, the arrangement information is not updated. If the object moves, the arrangement information is updated to the moved position and direction by the
[0073]
On the other hand, FIG. 5B shows an example of model information when one model is formed in units of partitions as in the present embodiment. As shown in FIG. 5B, model information is given for each section object. Here, the section object KOB1 is constituted by polygon surfaces included in the objects OB1, OB2, and OB3. In other words, the vertex information, mesh information, and texture information of one division object are basically information on all vertices existing in the division, information on all ridge lines existing in the division, and texture to be pasted on all polygon faces existing in the division. Consists of information.
[0074]
For example, the vertex information of the partition object KOB1 includes all vertex information V1 ′, V2 ′, and V3 ′ that constitute the object OB1, the object OB2, and the object OB3. However, the vertex information V1 ′, V2 ′, and V3 ′ has three-dimensional coordinates in the local coordinate system of each vertex existing in the section.
[0075]
Similarly for the mesh information and texture information of the section object KOB1, the mesh information M1 ′, M2 ′, M3 ′, and the object OB1, object OB2, and object OB3 for all the edges forming the object OB1, object OB2, and object OB3 are displayed. It consists of texture information T1 ′, T2 ′, T3 for all the polygonal surfaces that constitute it.
[0076]
As shown in FIG. 5B, each section object has arrangement information KWL1 and KWL2 for arrangement in the world coordinate system. In the present embodiment, since the section is divided as shown in FIG. 2A, the arrangement information may be, for example, a section number for specifying the section.
[0077]
Thus, since the number of models can be reduced by setting the partition objects, the data access time and the number of calculations can be reduced, and the calculation time can be shortened.
[0078]
Next, the process performed by the three-dimensional calculation unit based on these partition objects will be specifically described.
[0079]
The three-dimensional calculation unit performs coordinate conversion calculation of vertex coordinates necessary for generating an image at a given viewpoint position and line-of-sight direction. Specifically, the vertex information of the section object is subjected to coordinate transformation to the viewpoint coordinate system in the given gaze direction at the given viewpoint position, and further coordinate transformation to the screen coordinate system is performed.
[0080]
In the present embodiment, first, in order to omit the useless three-dimensional calculation processing existing outside the field of view,
Clipping processing is performed in units of partitions, and processing target partitions to be subjected to three-dimensional calculation processing are determined.
[0081]
As described with reference to FIG. 2, the ring in which martial arts are performed in the present embodiment is a very narrow area compared to the entire object space. Therefore, the viewpoint position is only moved within the ring, and which section corresponds to the generated background image is specified by the line-of-sight direction.
[0082]
6A and 6B are diagrams for explaining the clipping processing of the present embodiment.
[0083]
FIG. 6A shows the viewing angle of this embodiment. In the present embodiment, the viewing angle 290 is set to 55 degrees. It is preferable to omit processing relating to image generation because the area that does not fall within the field of view is not displayed.
[0084]
Therefore, in this embodiment, it is determined whether or not to omit the process related to image generation for each partition. Here, since the central angle of the sector of each section is 30 degrees, if the viewpoint position is at the center point, there are a maximum of three sections that may enter the field of view. However, there is a slight error between the viewpoint position and the center point of the object space, and there is a display omission due to a slight shift between the divided object and the divided area as shown in FIGS. In order to prevent this, five processing target sections are selected with a margin.
[0085]
That is, when a semi-circular clipping area 250 is set as shown in FIG. 6B and the center line of the semi-circle is overlapped with the line-of-sight direction, six sections are selected from the one having a larger area overlapping the clipping area. To do. In FIG. 6A, the sections 220-11 to 220-4 are selected as the processing target sections. This selection is automatically performed by the line-of-sight direction determined by the line-of-sight
[0086]
In this embodiment, coordinate conversion processing to the screen coordinate system is performed for each section. That is, the position and direction of the viewpoint are converted into a local coordinate system in units of sections, and conversion processing to the screen coordinate system is performed using the coordinate values of the local coordinate system.
[0087]
When the coordinate value at a certain position is represented in the local coordinate system, the number of digits is smaller than in the world coordinate system. This is because the local coordinate system has a narrower range to cover than the world coordinate system. Therefore, in this way, the number of digits of data necessary for the three-dimensional calculation is reduced, and the data size can be reduced.
[0088]
However, when an image generated based on a three-dimensional calculation performed for each block is synthesized, a gap may be generated in the image of the boundary line of each block.
[0089]
FIGS. 7A to 7F are diagrams in which the partition objects in FIGS. 3A to 3L are combined. 7A is a diagram in which the partition objects AREA0 to AREA3 in FIGS. 3A to 3D are combined, and FIG. 7B is a partition of AREA2 to AREA4 in FIGS. 3C to 3E. FIG. 7C is a diagram in which the area objects AREA3 to AREA6 in FIGS. 3D to 3G are synthesized, and FIG. 7D is a diagram in which FIGS. FIG. 7E is a diagram in which the area objects AREA6 to AREA8 in FIG. I) are combined, and FIG. 7E is a diagram in which the area objects AREA8 to AREA11 in FIGS. FIG. 4 is a diagram in which the area objects AREA11 and AREA0 to AREA2 in FIGS. 3L and 3A are combined.
[0090]
In this embodiment, in order to prevent the occurrence of such a gap, when a plurality of partition objects include vertex information indicating the same position, the vertex information of the partition object that has been subjected to the three-dimensional calculation is calculated later. It is configured to be used as vertex information of the partition object.
[0091]
FIGS. 8A and 8B are diagrams for explaining a technique for preventing a gap generated at a joint between sections. In order to simplify the description, a case where there are two polygons P1 and P2 in the section 220-1 and the section 220-2 will be described as an example. The polygon p1 is composed of vertices of V1, V2, V3, and V4, and the polygon P2 is composed of vertices of V1, V2, V5, and V6. The polygon P1 is included in the partition object corresponding to the partition 220-1, and the polygon P2 is included in the partition object corresponding to the partition 220-2.
[0092]
Therefore, for the points V1 and V2 representing the same position, the partition object of the partition 220-1 and the partition object of the partition 220-2 have vertex information separately.
[0093]
The vertex data of the section object information has coordinate values in each local coordinate system. Then, coordinate conversion is performed for each section object, and finally vertex information in the screen coordinate system of corner vertices constituting the section object is obtained. FIG. 8B is a diagram in which the vertices are arranged on the screen 800 based on the vertex information. The vertices V1, V2, V3, V4 of the polygon P1 are coordinate-transformed into V1′a, V2′a, V3 ′, V4 ′, and the vertices V1, V2, V5, V6 of the polygon P2 are V1′b, V2 ′. The coordinates are converted to b, V5 ′, and V6 ′.
[0094]
V1′a, which should represent the same position, and V1′b, V2′a, and V2′b are displayed in a shifted manner. This is because a rounding error, a calculation error, or the like has occurred due to the coordinate conversion calculation performed by the three-dimensional calculation unit or the like during the coordinate conversion of each partition object to the local coordinate system when setting the model information.
[0095]
In order to avoid the occurrence of such a gap, in the present embodiment, the converted vertex information V1′a and V2′a obtained as a result of the coordinate conversion of the section object of the section 220-1 is used as the section 220-2. It is used as vertex information after the division object is converted, that is, the post-conversion vertex information of the division object of the division 220-2 is V1′a, V2′a, V5 ′, and V6 ′. In this way, since the three-dimensional calculation for V1 and V2 can be omitted for the partition 220-2, the calculation load is also reduced.
[0096]
FIG. 9 is a diagram showing a state in which the section objects are synthesized using the method described in FIG. In FIG. 9, as in the case of FIGS. 7A to 7F, no gap is generated at the connection between the partition objects.
[0097]
FIG. 10 is a flowchart illustrating an example of processing according to the present embodiment.
[0098]
In the present embodiment, for each frame, the processing of the flowchart shown in FIG. 10 is performed to generate an image.
[0099]
First, the line-of-sight direction and the like for image generation are determined based on the movement and positional relationship of the player character in the game space (step S10). This process is mainly performed by the line-of-sight
[0100]
Then, the three-
[0101]
First, based on the line-of-sight direction, a processing target section is determined as described in FIGS. 5A and 5B (step S20). And about the division object which performs a three-dimensional calculation first, a three-dimensional calculation is performed about all the vertices (step S30, S50). If there is a section that has already been subjected to the three-dimensional calculation, the vertex information at the same position on the edge line is acquired, and the three-dimensional calculation is performed on the other vertices in the section. That is, as described with reference to FIGS. 8A and 8B, if there is already three-dimensional calculation of vertex information at the same position on the ridge line, the vertex at the same position in the section is three-dimensional. Do not perform calculations. Instead, vertex information that has already been calculated in three dimensions is used (steps S30 and S40).
[0102]
Thereafter, the
[0103]
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. In the apparatus shown in the figure, a
[0104]
The
[0105]
The
[0106]
In accordance with a program stored in the
[0107]
Further, this type of apparatus is provided with a
[0108]
The
[0109]
Various processes described with reference to FIGS. 1 to 10 are realized by an
[0110]
FIG. 12A shows an example in which the present embodiment is applied to an arcade game device. The player enjoys the game by operating the
[0111]
The line-of-sight information determined by the operation information input by a given operation means, information for generating an image based on the section object information, and the like are stored in a
[0112]
FIG. 12B shows an example in which the present embodiment is applied to a home game device. The player enjoys the game by operating the
[0113]
FIG. 12C shows an example in which the present embodiment is applied to a game device including a
[0114]
(2) Second embodiment
In the first embodiment, the object space is divided into a plurality of fan-shaped sections and considered as a section object using one section as one model. On the other hand, the second embodiment is common to the first embodiment in that the object space is divided into a plurality of fan-shaped sections, but individual objects are not formed in units of sections. It differs in that the model is constructed in units.
[0115]
Each object is stored in association with the fan-shaped section. That is, the model information is held in units of individual objects as shown in FIG.
[0116]
However, since each object is associated with the fan-shaped section, clipping processing can be performed for each section as shown in FIG.
[0117]
The present invention is not limited to the one described in the above embodiment, and various modifications can be made.
[0118]
Although the case where the shape of the section is a fan shape has been described as an example, the present invention is not limited to this. A fan shape is preferable when only the line-of-sight direction is a problem and the viewpoint position is hardly a problem. However, when movement of the viewpoint position is a problem, for example, a square or rectangular section may be set.
[0119]
Further, the storage structure and storage contents of the partition object information data are not limited to the format of the present embodiment.
[0120]
The present invention is applicable not only to home and business game devices but also to various devices such as a simulator, a large attraction device in which a large number of players participate, a personal computer, a multimedia terminal, and a system board for synthesizing game images. it can.
[0121]
[Brief description of the drawings]
FIG. 1 is an example of a functional block diagram of an image generation apparatus according to a first embodiment.
FIGS. 2A and 2B are diagrams for explaining a relationship between an object space and a partition according to the first embodiment.
FIGS. 3A to 3L are diagrams for explaining a partition object set for each partition.
FIGS. 4A and 4B are diagrams for explaining model information of partition objects and individual objects. FIGS.
FIGS. 5A and 5B are diagrams for explaining model information of partition objects and individual objects.
FIGS. 6A and 6B are diagrams for explaining clipping processing according to the first embodiment; FIGS.
FIGS. 7A to 7F are diagrams in which each section object is synthesized.
FIGS. 8A and 8B are diagrams for explaining a technique for preventing a gap generated at a joint between sections. FIGS.
FIGS. 9A to 9F are views showing a state in which each section object is synthesized using the method of the first embodiment.
FIG. 10 is a flowchart illustrating an example of processing according to the first embodiment.
FIG. 11 is an example of a hardware configuration capable of realizing the first embodiment.
FIGS. 12A, 12B, and 12C are diagrams showing various types of apparatuses to which the present invention is applied.
[Explanation of symbols]
10 Operation part
100 processor
110 Game calculation part
112 Gaze direction determination unit
120 Section object information storage unit
130 3D operation unit
140 Image generator
150 Information storage medium
160 Display
220 sections
250 clipping area
270 viewpoint position
280 Gaze direction
290 viewing angle
310 Vertex information
320 mesh information
Claims (10)
オブジェクト空間を複数の区画に分割し、各区画内に存在する背景オブジェクトを構成するプリミティブ面からなる区画オブジェクトを設定し、当該区画オブジェクトに基づき、前記所与の視点において見える画像を生成するのに必要な3次元演算を行う3次元演算手段と、
前記3次元演算手段の演算結果に基づき前記オブジェクト空間の所与の視点における画像を生成する画像生成手段とを含み、
前記区画は、
オブジェクト空間に設けた基準点の周りを所与の角度単位で放射上に区切ったエリアとして設定されており、
前記3次元演算手段が、
視線方向に基づいて、前記区画単位で視野の内外を判断して処理対象区画を決定し、前記処理対象区画に対応する区画オブジェクトに対して、前記3次元演算を行うことを特徴とする画像生成装置。An image generation device that generates an image that is visible at a given viewpoint in an object space,
To divide the object space into a plurality of sections, set a section object consisting of primitive surfaces that make up the background object existing in each section, and generate an image that can be seen from the given viewpoint based on the section object 3D calculation means for performing necessary 3D calculations;
Image generation means for generating an image at a given viewpoint of the object space based on the calculation result of the three-dimensional calculation means;
The compartment is
It is set as an area where the surroundings of the reference point provided in the object space are divided radially by a given angle unit,
The three-dimensional calculation means
An image generation characterized in that, based on a line-of-sight direction, a processing target section is determined by determining the inside and outside of the field of view in units of the section, and the three-dimensional calculation is performed on a section object corresponding to the processing target section apparatus.
前記3次元演算手段は、
区画オブジェクト単位で設定されたモデル情報に基づき3次元演算を行うことを特徴とする画像生成装置。In claim 1,
The three-dimensional calculation means includes
An image generating apparatus that performs a three-dimensional operation based on model information set in units of section objects.
前記3次元演算手段が、
前記区画オブジェクト毎に、頂点データ、テクスチャデータ、稜線データの少なくとも1つ含むモデル情報を記憶する手段を含むことを特徴とする画像生成装置。In claim 1 or 2,
The three-dimensional calculation means
An image generating apparatus, comprising: means for storing model information including at least one of vertex data, texture data, and edge line data for each partition object.
前記モデル情報は、
頂点情報を区画単位のローカル座標系のデータとして有しており、
前記3次元演算手段が、
前記頂点情報の視点座標系及びスクリーン座標系への座標変換演算の少なくとも一方を区画単位のローカル座標系のデータに基づき行うことを特徴とする画像生成装置。In claim 2 or 3,
The model information is
It has vertex information as local coordinate system data for each unit,
The three-dimensional calculation means
An image generation apparatus characterized in that at least one of coordinate conversion operations of the vertex information into a viewpoint coordinate system and a screen coordinate system is performed based on data in a local coordinate system in units of sections.
前記3次元演算手段が、
オブジェクト空間の同一の位置を表す頂点について、隣り合う2つの区画オブジェクトのそれぞれに頂点情報を有している場合、いずれか一方の区画オブジェクトの頂点情報に基づいて行なった3次元演算後の頂点情報に基づいて、他方の区画オブジェクトに含まれる同一の位置を表す頂点についての画像生成に必要な頂点情報を決定することを特徴とする画像生成装置。In any one of Claims 1 thru | or 4,
The three-dimensional calculation means
For vertexes that represent the same position in the object space, if there is vertex information in each of two adjacent compartment objects, vertex information after a three-dimensional operation performed based on the vertex information of one of the compartment objects Based on the above, the vertex information necessary for image generation for the vertex representing the same position included in the other section object is determined.
オブジェクト空間を、基準点の周りを所与の角度単位で放射上に区切って設定された区画に分割し、各区画に関連づけて区画内に存在するオブジェクトを登録する手段と、
視線方向に基づいて処理対象となる区画を決定し、処理対象となる区画に存在するオブジェクトについて所与の視点において見える画像を生成するのに必要な3次元演算を行う3次元演算手段と、
前記3次元演算手段の演算結果に基づき前記オブジェクト空間の所与の視点における画像を生成する画像生成手段とを含むことを特徴とする画像生成装置。An image generation device that generates an image that is visible at a given viewpoint in an object space,
Means for dividing the object space into divisions set by dividing the object space radially by a given angle unit, and registering objects existing in the divisions in association with each division;
A three-dimensional calculation means for determining a section to be processed based on the line-of-sight direction and performing a three-dimensional calculation necessary for generating an image that can be viewed at a given viewpoint for an object existing in the section to be processed;
An image generation apparatus comprising: an image generation unit configured to generate an image at a given viewpoint in the object space based on a calculation result of the three-dimensional calculation unit.
視点位置の移動がオブジェクト空間内の所与エリアに限定されており、前記所与のエリアがオブジェクト空間に対して十分に小さくなるように設定されていることを特徴とする画像生成装置。In any one of Claims 1 thru | or 6.
An image generating apparatus, wherein movement of a viewpoint position is limited to a given area in an object space, and the given area is set to be sufficiently small with respect to the object space.
前記プログラムは、
オブジェクト空間を複数の区画に分割し、各区画内に存在する背景オブジェクトを構成するプリミティブ面からなる区画オブジェクトを設定し、当該区画オブジェクトに基づき、前記所与の視点において見える画像を生成するのに必要な3次元演算を行うための3次元演算手段と、
前記3次元演算結果に基づき前記オブジェクト空間の所与の視点における画像を生成する画像生成手段としてコンピューターを機能させ、
前記区画は、
オブジェクト空間に設けた基準点の周りを所与の角度単位で放射上に区切ったエリアとして設定されており、
前記3次元演算手段が、
視線方向に基づいて、前記区画単位で視野の内外を判断して処理対象区画を決定し、前記処理対象区画に対応する区画オブジェクトに対して、前記3次元演算を行うことを特徴とする情報記憶媒体。An information storage medium storing a program for generating an image visible at a given viewpoint in an object space,
The program is
To divide the object space into a plurality of sections, set a section object consisting of primitive surfaces that make up the background object existing in each section, and generate an image that can be seen from the given viewpoint based on the section object Three-dimensional calculation means for performing necessary three-dimensional calculation;
Causing a computer to function as image generation means for generating an image at a given viewpoint in the object space based on the three-dimensional calculation result;
The compartment is
It is set as an area where the surroundings of the reference point provided in the object space are divided radially by a given angle unit,
The three-dimensional calculation means
An information storage characterized in that, based on a line-of-sight direction, the inside and outside of the field of view is determined for each section to determine a processing target section, and the three-dimensional calculation is performed on a section object corresponding to the processing target section. Medium.
前記3次元演算手段は、
区画オブジェクト単位で設定されたモデル情報に基づき3次元演算を行うための手段を含むことを特徴とする情報記憶媒体。In claim 8,
The three-dimensional calculation means includes
An information storage medium comprising means for performing a three-dimensional operation based on model information set in units of partition objects.
前記プログラムは、
オブジェクト空間を、基準点の周りを所与の角度単位で放射上に区切って設定された区画に分割し、各区画に関連づけて区画内に存在するオブジェクトを登録するための手段と、
視線方向に基づいて処理対象となる区画を決定し、処理対象となる区画に存在するオブジェクトについて所与の視点において見える画像を生成するのに必要な3次元演算を行うための手段と、
前記3次元演算結果に基づき前記オブジェクト空間の所与の視点における画像を生成するための手段としてコンピューターを機能させることを特徴とする情報記憶媒体。An information storage medium storing a program for generating an image visible at a given viewpoint in an object space,
The program is
Means for dividing the object space into divisions set by dividing the object space radially by a given angular unit and registering objects existing in the divisions in association with each division;
Means for determining a section to be processed based on a line-of-sight direction, and performing a three-dimensional operation necessary to generate an image that can be seen at a given viewpoint for an object existing in the section to be processed;
An information storage medium characterized by causing a computer to function as means for generating an image at a given viewpoint in the object space based on the three-dimensional calculation result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP06222598A JP4165722B2 (en) | 1998-02-26 | 1998-02-26 | Image generating apparatus and information storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP06222598A JP4165722B2 (en) | 1998-02-26 | 1998-02-26 | Image generating apparatus and information storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11250232A JPH11250232A (en) | 1999-09-17 |
JP4165722B2 true JP4165722B2 (en) | 2008-10-15 |
Family
ID=13194012
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP06222598A Expired - Fee Related JP4165722B2 (en) | 1998-02-26 | 1998-02-26 | Image generating apparatus and information storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4165722B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100460009B1 (en) * | 2004-06-23 | 2004-12-04 | 엔에이치엔(주) | Method and system for loading of the image resource |
JP3881363B1 (en) | 2005-09-22 | 2007-02-14 | 株式会社コナミデジタルエンタテインメント | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM |
JP4806578B2 (en) * | 2006-03-10 | 2011-11-02 | 株式会社バンダイナムコゲームス | Program, information storage medium, and image generation system |
KR100901273B1 (en) | 2007-12-15 | 2009-06-09 | 한국전자통신연구원 | Rendering system and data processing method using by it |
CN109215136B (en) * | 2018-09-07 | 2020-03-20 | 百度在线网络技术(北京)有限公司 | Real data enhancement method and device and terminal |
-
1998
- 1998-02-26 JP JP06222598A patent/JP4165722B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11250232A (en) | 1999-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3138423B2 (en) | Simulation equipment | |
JP3269814B2 (en) | Image generation system and information storage medium | |
JP4165722B2 (en) | Image generating apparatus and information storage medium | |
JP3955425B2 (en) | 3D sound reproduction system | |
JP4167358B2 (en) | Image generation system and information storage medium | |
JP2004073241A (en) | Game system, program, and information storage medium | |
JPH1074270A (en) | Three dimensional game device and information storage medium | |
JP4003898B2 (en) | Image generating apparatus and information storage medium | |
JP4266121B2 (en) | Image generation system, program, and information storage medium | |
JP2001084402A (en) | Picture generation system and information storage medium | |
JP2001229403A (en) | Game system and information storage medium | |
JP2005209217A (en) | Game system and information storage medium | |
JP4229316B2 (en) | Image generation system, program, and information storage medium | |
JP2001250129A (en) | Game system and information storage medium | |
JP2011258117A (en) | Image processing device, image processing method, computer program, record medium and semiconductor device | |
JP4159060B2 (en) | Image generating apparatus and information storage medium | |
JP2001283244A (en) | Three-dimensional image compositing device, its method, information storage medium, program distributing device and its method | |
JP4610729B2 (en) | GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM | |
JP4391633B2 (en) | Image generation system and information storage medium | |
JP4052724B2 (en) | Image generating apparatus and information storage medium | |
JP3183636B2 (en) | Three-dimensional game device and information storage medium | |
JP2001314648A (en) | Game apparatus and information storage medium | |
JP4162125B2 (en) | Image generation system, program, and information storage medium | |
JP2888828B1 (en) | Image generation device and information storage medium | |
JPH11144086A (en) | Image generating device and information storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080430 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080627 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080723 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080724 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110808 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110808 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110808 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110808 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120808 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120808 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120808 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130808 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |