JP4056021B2 - Image generating apparatus and information storage medium - Google Patents
Image generating apparatus and information storage medium Download PDFInfo
- Publication number
- JP4056021B2 JP4056021B2 JP35247797A JP35247797A JP4056021B2 JP 4056021 B2 JP4056021 B2 JP 4056021B2 JP 35247797 A JP35247797 A JP 35247797A JP 35247797 A JP35247797 A JP 35247797A JP 4056021 B2 JP4056021 B2 JP 4056021B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- color
- mapping
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、オブジェクト空間内の所与の視点での画像を生成する画像生成装置及び情報記憶媒体に関する。
【0002】
【背景技術及び発明が解決しようとする課題】
従来より、仮想的な3次元空間であるオブジェクト空間内に複数のオブジェクトを配置し、オブジェクト空間内の所与の視点から見える画像を生成する画像生成装置が開発、実用化されており、いわゆる仮想現実を体験できるものとして人気が高い。レーシングカーゲームを楽しむことができる画像生成装置を例にとれば、プレーヤは、自身が操作する車などの移動体をオブジェクト空間内で走行させて3次元ゲームを楽しむ。
【0003】
さて、このような画像生成装置においては、背景を表示するための最遠景オブジェクトをオブジェクト空間内に設けることが望まれる。このような最遠景オブジェクトを設けることで、移動体がオブジェクト空間内のどの位置にいても、適切な背景を表示することが可能となる。また画像処理の都合でゲーム進行上無意味な画像が表示される事態が生じた場合にも、少なくとも最遠景オブジェクトが表示されることになるため、表示画像の不自然さを軽減できる。また単なる2次元画像により背景表示を行う場合に比較して、リアルな背景画像を提供することが可能となる。
【0004】
しかしながら、これまでの画像生成装置では、最遠景オブジェクトの画像は静止したままであった。このため、例えば豊かな空の表現や、天候変化や時間帯変化のリアルな表現を実現できなかった。このため仮想現実感の向上という課題の達成が不十分であった。
【0005】
本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、リアルな背景画像の表現が可能な画像生成装置及び情報記憶媒体を提供することにある。
【0006】
【課題を解決するための手段】
上記課題を解決するために、本発明は、背景を表示するための最遠景オブジェクトを含む複数のオブジェクトが配置されるオブジェクト空間内の所与の視点での画像を生成する画像生成装置であって、マッピング前の画像が定義される空間内においてマッピング後の画像に対応する原像領域をリアルタイムに移動させながら、該原像領域にある画像を前記最遠景オブジェクトにマッピングする手段と、オブジェクト空間内の所与の視点での画像であって、前記最遠景オブジェクトの画像を含む画像を生成する手段とを含むことを特徴とする。
【0007】
本発明によれば、原像領域をリアルタイムに移動させながら、原像領域にある画像が最遠景オブジェクトにマッピングされる。これにより、最遠景オブジェクトにマッピングされる画像(マッピング後の画像)を、簡易な処理でリアルタイムに変化させることが可能になる。この結果、例えば雲が流れて行く様子等のリアルな背景画像の表現が可能となり、仮想現実感の向上を図ることが可能になる。
【0008】
また本発明は、マッピング前の画像が定義される前記空間がテクスチャ空間であり、テクスチャマッピングにより前記最遠景オブジェクトにマッピングを行うことを特徴とする。この場合、テクスチャ空間は2次元であっても3次元であってもよい。なお本発明におけるマッピングはテクスチャマッピングに限らず、いわゆるボクセルを用いたマッピング等、種々の変形実施が可能である。
【0009】
また本発明は、前記原像領域の移動が、並進移動及び回転移動の少なくとも一方であることを特徴とする。このように原像領域を並進移動、回転移動させることで、マッピング前の画像の記憶に要する記憶容量を節約しながら、最遠景オブジェクトにマッピングされる画像をリアルタイムに変化させることが可能になる。
【0010】
また本発明は、前記最遠景オブジェクトが、前記原像領域がリアルタイムに移動しながら画像がマッピングされる第1の面と、前記原像領域がリアルタイムに移動せずに画像がマッピングされる第2の面とを含み、前記第1の面の色を、前記第1、第2の面の境界に近づくにつれて該境界の色に近づくように変化させると共に、前記第2の面の色を、前記境界に近づくにつれて該境界の色に近づくように変化させることを特徴とする。このようにすることで、境界を目立たなくすることが可能となり、境界付近での画像が不自然になるのを防止できるようになる。
【0011】
なお前記第1、第2の面の色を前記境界の色に近づける処理は、グーローシェーディング及びデプスキューイングの少なくとも一方により行うことができる。但し第1、第2の面の色を境界の色に近づける処理はこれらに限られるものではない。
【0012】
また本発明は、前記最遠景オブジェクトが、前記原像領域がリアルタイムに移動しながら画像がマッピングされる少なくとも1つの端面と、前記原像領域がリアルタイムに移動せずに画像がマッピングされる少なくとも1つの側面とを含むことを特徴とする。このようにすることで、空模様がリアルタイムに変化する天空等の表現が可能になる。
【0013】
また本発明は、前記端面が、同心円状に配置されたプリミティブ面により形成されていることを特徴とする。このようにすることで、特に、第1、第2の面の色を境界の色に近づける処理を、グーローシェーディングにより実現することが容易になる。
【0014】
また本発明は、マッピング前の画像が定義される前記空間内に、第1の天候又は第1の時間帯を表現するための画像が定義される第1の領域と、第2の天候又は第2の時間帯を表現するための画像が定義される第2の領域とを設け、前記原像領域を、前記第1の領域から前記第2の領域に移動させることを特徴とする。このようにすることで、天候変化や時間変化を簡易な処理で表現することが可能になる。
【0015】
また本発明は、マッピング前の画像が定義される前記空間内に、前記第1の天候又は前記第1の時間帯から前記第2の天候又は前記第2の時間帯への変化を表現するための繋ぎ画像が定義される繋ぎ領域を設け、前記原像領域を、前記繋ぎ領域を介して前記第1の領域から前記第2の領域に移動させることを特徴とする。このようにすることで、スムーズで自然な天候変化や時間変化を表現できるようになる。
【0016】
【発明の実施の形態】
以下、本発明の好適な実施形態について図面を用いて説明する。なお以下では、本発明を自転車ゲームに適用した場合を例にとり説明するが、本発明が適用されるものはこれに限られるものではない。
【0017】
図1に本実施形態の画像生成装置を業務用のゲーム装置に適用した場合の外観図の一例を示す。
【0018】
ここで、ライディング筐体16は、実際の自転車を模して作られたものであり、図示しないプレーヤはこのライディング筐体16のサドル17に座る。そしてディスプレイ18には、仮想的な自転車である移動体20や移動体20が走るコースや周囲の風景が表示される。プレーヤは、この画像を見ながら、ハンドル32を左右に操作することで、ディスプレイ18に映し出される移動体20の進む方向を決める。またペダル30をA1に示すように漕ぐことで、コース進行方向に移動体20を進める。
【0019】
図2に、本実施形態の画像生成装置の機能ブロック図の一例を示す。
【0020】
ここで操作部10は、プレーヤが、図1のハンドル32を操作したりペダル30を漕ぐことで操作データを入力するためのものであり、操作部10にて得られた操作データは処理部100に入力される。
【0021】
処理部100は、上記操作データと所与のプログラムなどに基づいて、オブジェクト空間に表示物を配置する処理や、このオブジェクト空間の所与の視点での画像を生成する処理を行うものである。この処理部100の機能は、CPU(CISC型、RISC型)、DSP、カスタム(ゲートアレイ等)ICなどのハードウェアにより実現できる。
【0022】
情報記憶媒体190は、プログラムやデータを記憶するものである。この情報記憶媒体190の機能は、CD−ROM、ゲームカセット、ICカード、MO、FD、DVD、ハードディスク、メモリなどのハードウェアにより実現できる。処理部100は、この情報記憶媒体190からのプログラム、データに基づいて種々の処理を行うことになる。
【0023】
処理部100は、ゲーム演算部110と画像生成部150を含む。
【0024】
ここでゲーム演算部110は、ゲームモードの設定処理、ゲームの進行処理、移動体(自転車や自転車に乗るキャラクタ)の位置や方向を決める処理、視点位置や視線方向を決める処理、オブジェクト空間へオブジェクトを配置する処理等を行う。
【0025】
また画像生成部150は、ゲーム演算部110により設定されたオブジェクト空間での所与の視点での画像を生成する処理を行う。画像生成部150により生成された画像は表示部12において表示される。
【0026】
ゲーム演算部110は移動体演算部112とマッピング部114を含む。
【0027】
ここで移動体演算部112は、操作部10から入力される操作データや所与のプログラムに基づき、プレーヤが操作する移動体や所与の制御プログラム(コンピュータ)により動きが制御される移動体を、オブジェクト空間内のコース上で移動させる演算を行う。より具体的には、移動体の位置や方向を例えば1フレーム(1/60秒)毎に求める演算を行う。
【0028】
例えば(k−1)フレームでの移動体の位置をPMk-1、速度をVMk-1、加速度をAMk-1、1フレームの時間を△tとする。するとkフレームでの移動体の位置PMk、速度VMkは例えば下式(1)、(2)のように求められる。
【0029】
PMk=PMk-1+VMk-1×△t (1)
VMk=VMk-1+AMk-1×△t (2)
マッピング部114は、移動体オブジェクトやコースオブジェクトや最遠景オブジェクトなどのオブジェクトに画像をマッピングするための処理を行うものである。本実施形態では、テクスチャマッピングによりオブジェクトへの画像マッピングを実現している。
【0030】
図3(A)、(B)に、本実施形態で使用される最遠景オブジェクト50の例を示す。図3(A)は、最遠景オブジェクト50を上方から見た平面図であり、図3(B)は、最遠景オブジェクト50を側方から見た側面図である。この最遠景オブジェクト50は、複数のポリゴンなどのプリミティブ面により構成されており、端面52と、側面54(54-1、54-2、54-3、54-4)を有する。
【0031】
なお最遠景オブジェクト50は、ポリゴン以外にも、曲面などの種々のプリミティブ面により構成できる。
【0032】
端面52は、同心円状に配置されたポリゴンなどのプリミティブ面により構成されている。また側面54-2、54-4は、端面52の中心を通る中心線56に平行になっている。一方、側面54-1、54-3は、中心線56の方に向かうにしたがい下降傾斜している。このように側面54を特殊形状化することで、最遠景オブジェクト50により表現される背景に、遠近感を持たせることが可能になる。
【0033】
なお側面54-3には、遠近感を表現する処理、例えばコントラスト調整処理やデフォーカス処理などを施した画像をマッピングすることが望ましい。このようにすることで、最遠景オブジェクト50による遠近感の表現を更に向上できる。
【0034】
さて、本実施形態が適用される自転車ゲームでは、図3(B)に示すように、オブジェクト空間内に配置されたコース40上で移動体(自転車やキャラクタ)20を走行させてゲームを楽しむ。より具体的には、移動体20は、スタート42から走行を開始し、他の移動体と競争しながらゴール44を目指す。本実施形態では、スタート42は高い位置にありゴール44は低い位置にあり、ゲームが進むにつれて、移動体20は高い位置から低い位置に移動することになる。そして、側面54は、図3(B)に示すように特殊形状化されている。したがって、移動体20が走行するにつれて側面54(54-1、54-3)に表示された背景が面前に迫ってくるという感覚をプレーヤに与えることができる。これにより、プレーヤの感じる仮想現実感を大幅に向上できる。
【0035】
図4(A)に、本実施形態により生成される画像の例を示す。プレーヤは、図2の操作部10を操作して移動体20をコース40上で走行させる。ここで図4(A)のC1に示す曇り空の背景は、図3(A)の端面52に、曇り空を表すテクスチャをマッピングすることで表現されている。またC2に示す青空の背景は図3(B)の側面54-1に青空を表すテクスチャをマッピングすることで表現されている。同様に、C3に示す山の背景は側面54-2に山を表すテクスチャを、C4に示す草原の背景は側面54-3に草原を表すテクスチャを、C5に示す崖の背景は側面54-4に崖を表すテクスチャをマッピングすることで表現されている。
【0036】
図4(B)に、図4(A)の状態から所与の時間経過後に生成される画像の例を示す。図4(A)のC1と図4(B)のD1とを比較すれば理解されるように、本実施形態によれば、時間経過に伴って雲が流れて行く様子が表現されている。
【0037】
このような雲の流れ等の表現を実現するために、本実施形態は以下のような特徴を有している。即ち、本実施形態の第1の特徴は、マッピング前の画像が定義される空間内において、マッピング後の画像に対応する原像領域をリアルタイムに移動させながら、この原像領域にある画像を最遠景オブジェクトにマッピングしている点にある。なお本実施形態ではテクスチャマッピングの手法を採用しているため、マッピング前の画像が定義される空間はテクスチャ空間になる。
【0038】
より具体的には以下のような処理を行っている。
【0039】
例えば図5に、図3(A)の端面52にマッピングするテクスチャが定義されるテクスチャ空間(U、V空間)の例を示す。図5において、テクスチャ60は曇り空を表現するためのテクスチャである。そして図5、図6、図7に示すように本実施形態では、マッピング前の画像(テクスチャ60)が定義されるテクスチャ空間において、マッピング後の画像(図4(A)のC1、図4(B)のD1)に対応する原像領域62をリアルタイムに並進移動させる。そして、このように原像領域62をリアルタイムに並進移動させながら、この原像領域62にある画像を、図3(A)の最遠景オブジェクト50の端面52にマッピングしている。
【0040】
このようにすることで、図4(A)、(B)のC1、D1に示すような、雲がリアルタイムで流れて行くという表現を、簡易な処理で実現できるようになる。この結果、端面52に静止画像が単にマッピングされるという表現に比べて、プレーヤの感じる仮想現実感を大幅に向上できるようになる。
【0041】
なお図7のE1に示すように本実施形態では、原像領域62は、テクスチャ60の一方の端辺66に達すると他方の端辺64に戻るように移動する。このようにすることで、テクスチャの記憶に要する記憶容量を節約しながら、豊かな表現を実現することが可能となる。
【0042】
また図5、図6、図7では、原像領域62をテクスチャ空間内で並進移動させているが、本実施形態における移動はこれに限られるものではない。例えば図8に示すように原像領域62をテクスチャ空間内で回転移動させてもよい。このようにしても、雲が流れて行く様子等をリアルに表現することが可能になる。
【0043】
さて図9において、最遠景オブジェクトを構成する端面52(第1の面)では、図5〜図7に示すように原像領域62がリアルタイムに移動しながら曇り空のテクスチャがマッピングされる(動画像がマッピングされる)。一方、最遠景オブジェクトを構成する側面54-1(第2の面)では、原像領域62がリアルタイムに移動せずに青空のテクスチャがマッピングされる(静止画像がマッピングされる)。
【0044】
このような場合に、何も処理を施さないと、端面52と側面54-1の境界70で雲が突然消えてしまうという画像が表示され、プレーヤに違和感を与えてしまう。
【0045】
以上の問題を解決するために本実施形態は以下のような第2の特徴を有している。即ち図9に示すように、端面52の色を、境界70に近づくにつれて境界70の色である白に近づくように変化させる(グラディエーションをかける)。同様に側面54-1の色も、境界70に近づくにつれて境界70の色である白に近づくように変化させる。このようにすることで図4(A)のC6、図4(B)のD2に示すように、境界の存在が目立たなくなり、自然に雲が消えて行く様子を表現できるようになる。これにより、より自然で違和感のない画像をプレーヤに提供することが可能になる。
【0046】
なお図9では、端面52、側面54-1において近づける色である境界70の色を白としたが、境界70の色はこれに限られるものではない。例えば夕焼けの空であれば境界70の色を赤にすることができ、暗闇の空であれば黒にすることができる。
【0047】
本実施形態では、図10(A)に示すようなグーローシェーディングを利用して、端面52や側面54-1の色を境界70の色に近づけている。グーローシェーディングでは、ポリゴンの各頂点に与えた輝度データ(図10(A)の0.5、1.0)に基づいて、ポリゴン内の各ドット(ピクセル)の輝度を線形補間する。この線形補間により、端面52や側面54-1(ポリゴン)の各ドットの色を、境界70に近づくにつれて白に近づくように制御することができる。
【0048】
但し、端面52や側面54-1の色を境界70の色に近づける手法としては、グーローシェーディングに限らず種々の手法を採用できる。例えば図10(B)に示すように、デプス(奥行き)データに基づいて元の色をターゲット色に近づけるデプスキューイングを利用して、端面52や側面54-1の色を境界70の色に近づけてもよい。この場合、境界70の色がデプスキューイングのターゲット色になる。
【0049】
なお最遠景オブジェクト50の形状としては、遠近感の向上という観点からは図3(A)、(B)に示すものが特に好ましいが、これに限られるものではない。例えば図11(A)に示すように、最遠景オブジェクト50を円柱状にしてもよい。また図11(B)に示すように、端面52を半球形状にしてもよい。なお図11(A)、(B)の場合にも、端面52に、原像領域がリアルタイムに移動する画像をマッピングし、側面54に、原像領域がリアルタイムに移動しない画像をマッピングすることが望ましい。
【0050】
また図8に示すように原像領域62を回転移動させる場合等には、最遠景オブジェクト50を、図11(B)において側面54を設けない形状、即ち半球形状にすることもできる。
【0051】
なお図12に示すように、端面52は、同心円状に配置されたポリゴン(プリミティブ面)により形成することが望ましい。このようにすることで、端面52の色を境界70の色に近づける処理を、グーローシェーディングを利用して容易に実現できるようになるからである。
【0052】
また本実施形態の第3の特徴は以下の点にある。即ち図13に示すように、テクスチャ空間(U、V空間)内に、第1の天候(又は第1の時間帯)を表現するための画像(テクスチャ)が定義される第1の領域80と、第2の天候(又は第2の時間帯)を表現するための画像が定義される第2の領域とを設ける。そして図13のF1に示すように、原像領域62を、第1の領域80から第2の領域82に移動させる。
【0053】
このようにすることで、例えば曇り空(第1の天候)から雨空(第2の天候)に変化するというような天候の変化や、昼の空(第1の時間帯)から夕方の空(第2の時間帯)に変化するというような時間帯の変化を表現することが可能になる。これにより、画像表現のバラエティ度を増すことができ、画像表現の豊かさやゲームのリアル度を更に向上できるようになる。
【0054】
なお図14に示すように本実施形態では、テクスチャ空間内に、第1の天候(又は第1の時間帯)から第2の天候(又は第2の時間帯)への変化を表現するための繋ぎ画像が定義される繋ぎ領域84を設けている。そして図14のF2に示すように、原像領域62を、繋ぎ領域84を介して第1の領域80から第2の領域82に移動させている。
【0055】
このようにすることで、スムーズ且つ自然に天候や時間帯を変化させることが可能となる。即ち、プレーヤに違和感や不自然感を与えることなく天候や時間帯を変化させることが可能となる。
【0056】
なお図14において、テクスチャA’は、第1の天候(時間帯)用のテクスチャAを元絵とする繋ぎ用のテクスチャである。またテクスチャB’は、第2の天候(時間帯)用のテクスチャBを元絵とする繋ぎ用のテクスチャである。
【0057】
次に本実施形態の詳細な処理例について、図15のフローチャートを用いて説明する。
【0058】
まず各ポリゴンの頂点などに与えるテクスチャ座標に、所与のオフセット値を加算する(ステップS1)。このようにオフセット値を加算することで、図5〜図7に示すように、テクスチャ空間内で原像領域62を移動させながら、この原像領域62にある画像(テクスチャ)をポリゴンにマッピングすることが可能となる。
【0059】
次に、テクスチャ座標が所与の値を超えたか否かを判断する(ステップS2)。即ち図14において、テクスチャ座標のV座標が例えばV2を越えたか否かを判断する。そして越えていない場合には、ステップS1に戻る。
【0060】
一方、越えている場合には、天候を変化させるか否かを判断する(ステップS3)。この判断は、装置内のタイマー等を用いて測定される仮想時間に基づき行い、例えばプレーヤのプレイ時間が所与の期間を経過した場合等に天候を変化させる。
【0061】
天候を変化させないと判断した場合には、テクスチャ座標を初期値に戻す(ステップS4)。即ち図14において、テクスチャ座標のV座標を例えばV1に戻す。このように処理することで、テクスチャの記憶に要する記憶容量を節約しながら、雲の流れる様子等を表現することが可能になる。
【0062】
天候を変化させると判断した場合には、原像領域62を繋ぎ領域84の先頭に移動させるオフセット値をテクスチャ座標に加算する(ステップS5)。即ち図14において、テクスチャ座標のV座標が例えばV3になり、U座標が右側にシフトするようなオフセット値をテクスチャ座標に加算する。
【0063】
次に、ステップS1と同様に、テクスチャ座標に所与のオフセット値を加算する(ステップS6)。そして、テクスチャ座標が所与の値を超えたか否かを判断する(ステップS7)。即ち図14において、テクスチャ座標のV座標がV4を越えたか否かを判断する。そして、越えていない場合には、ステップS6に戻る。
【0064】
一方、越えている場合には、原像領域62を第2の領域82の先頭に移動させるオフセット値をテクスチャ座標に加算する(ステップS8)。即ち図14において、テクスチャ座標のV座標がV5になり、U座標が右にシフトするようなオフセット値をテクスチャ座標に加算する。
【0065】
以上のようにすることで、雲が流れて行く様子等のリアルな表現が可能になると共に、スムーズで自然な天候変化や時間帯変化を表現できるようになる。
【0066】
次に、本実施形態を実現できるハードウェアの構成の一例について図16を用いて説明する。同図に示す装置では、CPU1000、ROM1002、RAM1004、情報記憶媒体1006、音生成IC1008、画像生成IC1010、I/Oポート1012、1014が、システムバス1016により相互にデータ送受信可能に接続されている。そして前記画像生成IC1010にはディスプレイ1018が接続され、音生成IC1008にはスピーカ1020が接続され、I/Oポート1012にはコントロール装置1022が接続され、I/Oポート1014には通信装置1024が接続されている。
【0067】
情報記憶媒体1006は、プログラム、表示物を表現するための画像データ、音データ等が主に格納されるものである。例えば家庭用ゲーム装置ではゲームプログラム等を格納する情報記憶媒体としてCD−ROM、ゲームカセット、DVD等が用いられる。また業務用ゲーム装置ではROM等のメモリが用いられ、この場合には情報記憶媒体1006はROM1002になる。
【0068】
コントロール装置1022はゲームコントローラ、操作パネル等に相当するものであり、プレーヤがゲーム進行に応じて行う判断の結果を装置本体に入力するための装置である。
【0069】
情報記憶媒体1006に格納されるプログラム、ROM1002に格納されるシステムプログラム(装置本体の初期化情報等)、コントロール装置1022によって入力される信号等に従って、CPU1000は装置全体の制御や各種データ処理を行う。RAM1004はこのCPU1000の作業領域等として用いられる記憶手段であり、情報記憶媒体1006やROM1002の所与の内容、あるいはCPU1000の演算結果等が格納される。また本実施形態を実現するための論理的な構成を持つデータ構造(例えばオブジェクトデータやテクスチャデータの構造)は、このRAM又は情報記憶媒体上に構築されることになる。
【0070】
更に、この種の装置には音生成IC1008と画像生成IC1010とが設けられていてゲーム音やゲーム画像の好適な出力が行えるようになっている。音生成IC1008は情報記憶媒体1006やROM1002に記憶される情報に基づいて効果音やバックグラウンド音楽等のゲーム音を生成する集積回路であり、生成されたゲーム音はスピーカ1020によって出力される。また、画像生成IC1010は、RAM1004、ROM1002、情報記憶媒体1006等から送られる画像情報に基づいてディスプレイ1018に出力するための画素情報を生成する集積回路である。なおディスプレイ1018として、いわゆるヘッドマウントディスプレイ(HMD)と呼ばれるものを使用することもできる。
【0071】
また、通信装置1024はゲーム装置内部で利用される各種の情報を外部とやりとりするものであり、他のゲーム装置と接続されてゲームプログラムに応じた所与の情報を送受したり、通信回線を介してゲームプログラム等の情報を送受することなどに利用される。
【0072】
そして図1〜図14で説明した種々の処理は、図15のフローチャートに示した処理等を行うプログラムを格納した情報記憶媒体1006と、該プログラムに従って動作するCPU1000、画像生成IC1010、音生成IC1008等によって実現される。なお画像生成IC1010、音生成IC1008等で行われる処理は、CPU1000あるいは汎用のDSP等によりソフトウェア的に行ってもよい。
【0073】
さて前述した図1は、本実施形態を業務用ゲーム装置に適用した場合の例を示すものである。この場合、装置に内蔵されるシステム基板1106には、CPU、画像生成IC、音生成IC等が実装されている。そして、マッピング前の画像が定義される空間内においてマッピング後の画像に対応する原像領域をリアルタイムに移動させながら、原像領域にある画像を最遠景オブジェクトにマッピングするための情報、オブジェクト空間内の所与の視点での画像であって、最遠景オブジェクトの画像を含む画像を生成するための情報、マッピング前の画像が定義される空間内に、第1の天候又は第1の時間帯を表現するための画像が定義される第1の領域と、第2の天候又は第2の時間帯を表現するための画像が定義される第2の領域とを設け、原像領域を、第1の領域から第2の領域に移動させるための情報等は、システム基板1106上の情報記憶媒体であるメモリ1108に格納される。以下、これらの情報を格納情報と呼ぶ。これらの格納情報は、上記の種々の処理を行うためのプログラムコード、画像情報、音情報、表示物の形状情報、テーブルデータ、リストデータ、プレーヤ情報等の少なくとも1つを含むものである。
【0074】
図17(A)に、本実施形態を家庭用のゲーム装置に適用した場合の例を示す。プレーヤはディスプレイ1200に映し出されたゲーム画像を見ながら、ゲームコントローラ1202、1204を操作してゲームを楽しむ。この場合、上記格納情報は、本体装置に着脱自在な情報記憶媒体であるCD−ROM1206、ICカード1208、1209等に格納されている。
【0075】
図17(B)に、ホスト装置1300と、このホスト装置1300と通信回線1302を介して接続される端末1304-1〜1304-nとを含むゲーム装置に本実施形態を適用した場合の例を示す。この場合、上記格納情報は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、メモリ等の情報記憶媒体1306に格納されている。端末1304-1〜1304-nが、CPU、画像生成IC、音生成ICを有し、スタンドアロンでゲーム画像、ゲーム音を生成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を生成するためのゲームプログラム等が端末1304-1〜1304-nに配送される。一方、スタンドアロンで生成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を生成し、これを端末1304-1〜1304-nに伝送し端末において出力することになる。
【0076】
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。
【0077】
例えば本実施形態では、テクスチャマッピングを用いて最遠景オブジェクトへの画像マッピングを行う場合について説明したが、本発明はこれに限られるものではない。例えばボクセルと呼ばれる手法により最遠景オブジェクトへの画像マッピングを行ってもよい。またテクスチャマッピングを行う場合にも、テクスチャ空間は2次元に限られるものではなく3次元であってもよい。即ち空間テクスチャを用いてテクスチャマッピングを行ってもよい。
【0078】
また最遠景オブジェクトの形状も、図3(A)、(B)、図11(A)、(B)に示すものに限らず、種々の変形実施が可能である。
【0079】
また原像領域の移動の形態も本実施形態で説明したものに限らず、種々の変形実施が可能である。
【0080】
また第1、第2の面の色を境界に近づける手法も、図10(A)、(B)で説明したものに限られるものではない。
【0081】
また本実施形態では自転車の競争ゲームに本発明を適用した場合について説明したが、本発明はこれに限らず種々のゲーム(他の競争ゲーム、スポーツゲーム、対戦ゲーム、ロールプレイングゲーム、シューティングゲーム等)に適用できる。
【0082】
また本発明は、家庭用、業務用のゲーム装置のみならず、シミュレータ、多数のプレーヤが参加する大型アトラクション装置、パーソナルコンピュータ、マルチメディア端末、ゲーム画像を生成するシステム基板等の種々の画像生成装置にも適用できる。
【0083】
【図面の簡単な説明】
【図1】本実施形態の画像生成装置の外観図の一例である。
【図2】本実施形態の画像生成装置の機能ブロック図の一例である。
【図3】図3(A)、(B)は、最遠景オブジェクトの例について示す図である。
【図4】図4(A)、(B)は、本実施形態により生成される画像の例を示す図である。
【図5】テクスチャ空間での原像領域の並進移動について説明するための図である。
【図6】テクスチャ空間での原像領域の並進移動について説明するための図である。
【図7】テクスチャ空間での原像領域の並進移動について説明するための図である。
【図8】テクスチャ空間での原像領域の回転移動について説明するための図である。
【図9】端面、側面の色を境界の色に近づける手法について説明するための図である。
【図10】図10(A)、(B)は、グーローシェーディング、デプスキューイングについて説明するための図である。
【図11】図11(A)、(B)は、最遠景オブジェクトの例について示す図である。
【図12】同心円状に配列されたポリゴンにより端面を構成する手法について説明するための図である。
【図13】天候(時間帯)変化を実現する手法について説明するための図である。
【図14】繋ぎ領域を設ける手法について説明するための図である。
【図15】本実施形態の詳細な処理例を説明するためのフローチャートである。
【図16】本実施形態を実現できるハードウェアの構成の一例を示す図である。
【図17】図17(A)、(B)は、本実施形態が適用される種々の形態の装置の例を示す図である。
【符号の説明】
10 操作部
12 表示部
16 ライディング筐体
17 サドル
18 ディスプレイ
20 移動体(自転車)
30 ペダル
32 ハンドル
40 コース
42 スタート
44 ゴール
50 最遠景オブジェクト
52 端面
54(54-1〜54-4) 側面
60 テクスチャ
62 原像領域
70 境界
80 第1の領域
82 第2の領域
84 繋ぎ領域
100 処理部
110 ゲーム演算部
112 移動体演算部
114 マッピング部
150 画像生成部
190 情報記憶媒体[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image generation apparatus and an information storage medium that generate an image at a given viewpoint in an object space.
[0002]
[Background Art and Problems to be Solved by the Invention]
2. Description of the Related Art Conventionally, image generation apparatuses that arrange a plurality of objects in an object space that is a virtual three-dimensional space and generate an image that can be viewed from a given viewpoint in the object space have been developed and put into practical use. It is popular as a way to experience reality. Taking an image generation apparatus that can enjoy a racing car game as an example, a player enjoys a three-dimensional game by running a moving body such as a car that the user operates in the object space.
[0003]
In such an image generation apparatus, it is desirable to provide a farthest view object for displaying the background in the object space. By providing such a farthest view object, an appropriate background can be displayed at any position in the object space. Further, even when a meaningless image is displayed due to image processing, at least the farthest view object is displayed, so that the unnaturalness of the display image can be reduced. Further, it is possible to provide a realistic background image as compared with the case where the background display is performed using a simple two-dimensional image.
[0004]
However, in the conventional image generation apparatus, the image of the farthest view object remains stationary. For this reason, for example, it was not possible to realize a rich expression of the sky or a realistic expression of changes in weather or time zones. For this reason, the achievement of the improvement of virtual reality was insufficient.
[0005]
The present invention has been made in view of the above problems, and an object of the present invention is to provide an image generation apparatus and an information storage medium capable of expressing a realistic background image.
[0006]
[Means for Solving the Problems]
In order to solve the above-described problems, the present invention provides an image generation apparatus that generates an image at a given viewpoint in an object space in which a plurality of objects including a farthest view object for displaying a background are arranged. Means for mapping the image in the original image area to the farthest view object while moving the original image area corresponding to the image after mapping in real time in the space in which the image before mapping is defined; Means for generating an image including the image of the farthest view object.
[0007]
According to the present invention, the image in the original image area is mapped to the farthest object while moving the original image area in real time. This makes it possible to change an image mapped to the farthest view object (image after mapping) in real time with simple processing. As a result, for example, it is possible to express a realistic background image such as a cloud flowing, and it is possible to improve virtual reality.
[0008]
Further, the present invention is characterized in that the space in which an image before mapping is defined is a texture space, and the farthest view object is mapped by texture mapping. In this case, the texture space may be two-dimensional or three-dimensional. The mapping in the present invention is not limited to texture mapping, and various modifications such as mapping using so-called voxels are possible.
[0009]
According to the present invention, the movement of the original image area is at least one of translational movement and rotational movement. By moving the original image area in translation and rotation in this way, it is possible to change the image mapped to the farthest object in real time while saving the storage capacity required to store the image before mapping.
[0010]
According to the present invention, the farthest object has a first surface on which an image is mapped while the original image area is moving in real time, and a second surface on which the original image area is mapped without moving in real time. The color of the first surface is changed so as to approach the color of the boundary as it approaches the boundary between the first and second surfaces, and the color of the second surface is As the boundary is approached, the color of the boundary is changed so as to approach the boundary. In this way, the boundary can be made inconspicuous, and an image near the boundary can be prevented from becoming unnatural.
[0011]
The process of bringing the colors of the first and second surfaces closer to the boundary color can be performed by at least one of Gouraud shading and depth cueing. However, the process of bringing the colors of the first and second surfaces closer to the boundary color is not limited to these.
[0012]
According to the present invention, the farthest view object has at least one end surface to which an image is mapped while the original image area moves in real time, and at least one to which an image is mapped without moving the original image area in real time. And including two sides. By doing so, it is possible to express the sky or the like in which the sky pattern changes in real time.
[0013]
In the invention, it is preferable that the end face is formed by primitive faces arranged concentrically. In this way, in particular, the process of bringing the colors of the first and second surfaces closer to the boundary color can be easily realized by Gouraud shading.
[0014]
Further, the present invention provides a first area in which an image for expressing the first weather or the first time zone is defined in the space in which the image before mapping is defined, and the second weather or the second weather. And a second region in which an image for expressing the second time zone is defined, and the original image region is moved from the first region to the second region. By doing in this way, it becomes possible to express a weather change and a time change by simple processing.
[0015]
The present invention also expresses a change from the first weather or the first time zone to the second weather or the second time zone in the space in which an image before mapping is defined. A connection area in which a connection image is defined is provided, and the original image area is moved from the first area to the second area via the connection area. In this way, smooth and natural weather changes and time changes can be expressed.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the following, a case where the present invention is applied to a bicycle game will be described as an example. However, the present invention is not limited to this.
[0017]
FIG. 1 shows an example of an external view when the image generation apparatus of the present embodiment is applied to a business game apparatus.
[0018]
Here, the riding
[0019]
FIG. 2 shows an example of a functional block diagram of the image generation apparatus of the present embodiment.
[0020]
Here, the
[0021]
The
[0022]
The
[0023]
The
[0024]
Here, the
[0025]
The
[0026]
The
[0027]
Here, the moving object calculation unit 112 selects a moving object operated by the player or a moving object whose movement is controlled by a given control program (computer) based on operation data input from the
[0028]
For example, assume that the position of the moving body in the (k-1) frame is PMk-1, the speed is VMk-1, the acceleration is AMk-1, and the time of one frame is Δt. Then, the position PMk and the speed VMk of the moving body in k frames are obtained, for example, by the following equations (1) and (2).
[0029]
PMk = PMk-1 + VMk-1 * .DELTA.t (1)
VMk = VMk-1 + AMk-1 * .DELTA.t (2)
The mapping unit 114 performs processing for mapping an image to an object such as a moving object, a course object, or a farthest view object. In the present embodiment, image mapping to an object is realized by texture mapping.
[0030]
3A and 3B show examples of the
[0031]
The
[0032]
The
[0033]
Note that it is desirable to map an image on which processing for expressing perspective, for example, contrast adjustment processing or defocus processing, is performed on the side surface 54-3. In this way, the expression of perspective by the
[0034]
Now, in the bicycle game to which the present embodiment is applied, as shown in FIG. 3 (B), the mobile body (bicycle or character) 20 is run on the
[0035]
FIG. 4A shows an example of an image generated by this embodiment. The player operates the
[0036]
FIG. 4B shows an example of an image generated after a given time has elapsed from the state of FIG. As can be understood by comparing C1 in FIG. 4A and D1 in FIG. 4B, according to the present embodiment, a state in which a cloud flows over time is expressed.
[0037]
In order to realize such an expression of a cloud flow or the like, the present embodiment has the following characteristics. That is, the first feature of the present embodiment is that the image in the original image area is moved to the maximum in the space in which the image before mapping is defined while moving the original image area corresponding to the image after mapping in real time. The point is that it is mapped to a distant view object. In this embodiment, since the texture mapping method is employed, the space in which the image before mapping is defined is a texture space.
[0038]
More specifically, the following processing is performed.
[0039]
For example, FIG. 5 shows an example of a texture space (U, V space) in which a texture to be mapped to the
[0040]
By doing in this way, the expression that clouds flow in real time as shown by C1 and D1 in FIGS. 4A and 4B can be realized by simple processing. As a result, compared with the expression that a still image is simply mapped on the
[0041]
In this embodiment, as shown by E1 in FIG. 7, the
[0042]
5, 6, and 7, the
[0043]
In FIG. 9, on the end face 52 (first face) constituting the farthest view object, the cloudy sky texture is mapped while the
[0044]
In such a case, if no processing is performed, an image that the cloud suddenly disappears at the
[0045]
In order to solve the above problem, the present embodiment has the following second feature. That is, as shown in FIG. 9, the color of the
[0046]
In FIG. 9, the color of the
[0047]
In the present embodiment, the color of the
[0048]
However, the method of bringing the color of the
[0049]
As the shape of the
[0050]
Further, when the
[0051]
As shown in FIG. 12, the
[0052]
The third feature of the present embodiment is as follows. That is, as shown in FIG. 13, a
[0053]
By doing so, for example, a change in weather such as a change from a cloudy sky (first weather) to a rainy sky (second weather), or a noon sky (first time zone) to an evening sky (first time). It is possible to express a change in time zone such as a change in time zone 2). Thereby, the variety of image expression can be increased, and the richness of the image expression and the realism of the game can be further improved.
[0054]
As shown in FIG. 14, in the present embodiment, a change from the first weather (or the first time zone) to the second weather (or the second time zone) is expressed in the texture space. A
[0055]
By doing in this way, it becomes possible to change a weather and a time zone smoothly and naturally. That is, it is possible to change the weather and time zone without giving the player a feeling of strangeness or unnaturalness.
[0056]
In FIG. 14, texture A ′ is a connection texture using the texture A for the first weather (time zone) as an original picture. The texture B ′ is a texture for connection using the texture B for the second weather (time zone) as an original picture.
[0057]
Next, a detailed processing example of this embodiment will be described with reference to the flowchart of FIG.
[0058]
First, a given offset value is added to the texture coordinates given to the vertices of each polygon (step S1). By adding the offset value in this manner, the image (texture) in the
[0059]
Next, it is determined whether or not the texture coordinates exceed a given value (step S2). That is, in FIG. 14, it is determined whether the V coordinate of the texture coordinate exceeds V2, for example. If not, the process returns to step S1.
[0060]
On the other hand, if it exceeds, it is determined whether or not the weather is changed (step S3). This determination is made based on virtual time measured using a timer or the like in the apparatus, and the weather is changed when, for example, a player's play time has passed a given period.
[0061]
If it is determined not to change the weather, the texture coordinates are returned to the initial values (step S4). That is, in FIG. 14, the V coordinate of the texture coordinate is returned to, for example, V1. By processing in this way, it is possible to express the state of clouds flowing while saving the storage capacity required for storing textures.
[0062]
If it is determined that the weather is to be changed, an offset value for moving the
[0063]
Next, as in step S1, a given offset value is added to the texture coordinates (step S6). Then, it is determined whether or not the texture coordinates exceed a given value (step S7). That is, in FIG. 14, it is determined whether or not the V coordinate of the texture coordinate exceeds V4. And when not exceeding, it returns to step S6.
[0064]
On the other hand, if it exceeds, an offset value for moving the
[0065]
By doing so, it is possible to express realistic conditions such as a cloud flowing, and to express smooth and natural weather changes and time zone changes.
[0066]
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. In the apparatus shown in the figure, a
[0067]
The
[0068]
The
[0069]
In accordance with a program stored in the
[0070]
Further, this type of apparatus is provided with a
[0071]
The
[0072]
1 to 14 includes an
[0073]
FIG. 1 described above shows an example in which the present embodiment is applied to an arcade game machine. In this case, a CPU, an image generation IC, a sound generation IC, and the like are mounted on a
[0074]
FIG. 17A shows an example in which the present embodiment is applied to a home game device. The player enjoys the game by operating the
[0075]
FIG. 17B shows an example in which the present embodiment is applied to a game device including a
[0076]
The present invention is not limited to that described in the above embodiment, and various modifications can be made.
[0077]
For example, in the present embodiment, the case of performing image mapping to the farthest view object using texture mapping has been described, but the present invention is not limited to this. For example, image mapping to the farthest object may be performed by a technique called voxel. Also, when texture mapping is performed, the texture space is not limited to two dimensions, and may be three dimensions. That is, texture mapping may be performed using a spatial texture.
[0078]
The shape of the farthest view object is not limited to that shown in FIGS. 3A, 3B, 11A, and 11B, and various modifications can be made.
[0079]
Further, the form of movement of the original image area is not limited to that described in the present embodiment, and various modifications can be made.
[0080]
Further, the method of bringing the colors of the first and second surfaces closer to the boundary is not limited to the method described with reference to FIGS.
[0081]
In the present embodiment, the case where the present invention is applied to a bicycle competition game has been described. However, the present invention is not limited to this, and various games (other competition games, sports games, battle games, role playing games, shooting games, etc.) ).
[0082]
The present invention is not limited to home and business game devices, but also various image generation devices such as a simulator, a large attraction device in which a large number of players participate, a personal computer, a multimedia terminal, and a system board for generating game images. It can also be applied to.
[0083]
[Brief description of the drawings]
FIG. 1 is an example of an external view of an image generation apparatus according to an embodiment.
FIG. 2 is an example of a functional block diagram of the image generation apparatus of the present embodiment.
FIGS. 3A and 3B are diagrams illustrating an example of a farthest view object.
4A and 4B are diagrams illustrating examples of images generated according to the present embodiment.
FIG. 5 is a diagram for explaining translational movement of an original image area in a texture space.
FIG. 6 is a diagram for explaining translational movement of an original image area in a texture space.
FIG. 7 is a diagram for explaining translational movement of an original image area in a texture space.
FIG. 8 is a diagram for explaining a rotational movement of an original image area in a texture space.
FIG. 9 is a diagram for explaining a technique for bringing the color of the end face and the side face closer to the boundary color.
FIGS. 10A and 10B are diagrams for explaining Gouraud shading and depth cueing. FIG.
FIGS. 11A and 11B are diagrams illustrating an example of a farthest view object.
FIG. 12 is a diagram for explaining a method of forming an end face by polygons arranged concentrically.
FIG. 13 is a diagram for explaining a technique for realizing a change in weather (time zone).
FIG. 14 is a diagram for explaining a technique for providing a connection region;
FIG. 15 is a flowchart for explaining a detailed processing example of the present embodiment;
FIG. 16 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.
FIGS. 17A and 17B are diagrams illustrating examples of various types of apparatuses to which the present embodiment is applied.
[Explanation of symbols]
DESCRIPTION OF
30
Claims (6)
マッピング前の画像が定義される空間内において、マッピング後の画像に対応する原像領域をリアルタイムに移動させる処理を行う領域移動処理手段と、
移動する前記原像領域にある画像を前記最遠景オブジェクトにマッピングするマッピング手段と、
前記最遠景オブジェクトが、前記原像領域がリアルタイムに移動しながら画像がマッピングされる第1の面と、前記原像領域がリアルタイムに移動せずに画像がマッピングされる第2の面とを含み、前記第1の面の色を、前記第1、第2の面の境界に近づくにつれて該境界の色に近づくように変化させると共に、前記第2の面の色を、前記境界に近づくにつれて該境界の色に近づくように変化させる処理を行う色変化処理手段と、
オブジェクト空間内の所与の視点での画像であって、前記最遠景オブジェクトの画像を含む画像を生成する画像生成手段とを含むことを特徴とする画像生成装置。An image generation device that generates an image at a given viewpoint in an object space in which a plurality of objects including a farthest view object for displaying a background are arranged,
In a space where an image before mapping is defined, an area movement processing means for performing processing for moving an original image area corresponding to the image after mapping in real time;
Mapping means for mapping an image in the moving original image area to the farthest object;
The farthest view object includes a first surface on which an image is mapped while the original image area moves in real time, and a second surface on which the image is mapped without moving the original image area in real time. The color of the first surface is changed so as to approach the boundary color as it approaches the boundary between the first and second surfaces, and the color of the second surface is changed as it approaches the boundary. Color change processing means for performing processing to change the color so as to approach the boundary color;
An image generation apparatus comprising: an image generation unit configured to generate an image at a given viewpoint in an object space and including an image of the farthest view object.
前記色変化処理手段が、
前記第1、第2の面の色を前記境界の色に近づける処理を、グーローシェーディング及びデプスキューイングの少なくとも一方により行うことを特徴とする画像生成装置。In claim 1 ,
The color change processing means
An image generating apparatus, wherein the process of bringing the colors of the first and second surfaces closer to the color of the boundary is performed by at least one of Gouraud shading and depth cueing.
前記第1の面が、同心円状に配置されたプリミティブ面により形成されていることを特徴とする画像生成装置。In claim 1 or 2 ,
The image generating apparatus according to claim 1, wherein the first surface is formed by primitive surfaces arranged concentrically.
マッピング前の画像が定義される前記空間内に、第1の天候又は第1の時間帯を表現するための画像が定義される第1の領域と、第2の天候又は第2の時間帯を表現するための画像が定義される第2の領域とが設けられ、
前記領域移動処理手段が、前記原像領域を、前記第1の領域から前記第2の領域に移動させることを特徴とする画像生成装置。In any one of claims 1 to 3,
In the space where the image before mapping is defined, a first region where an image for expressing the first weather or the first time zone is defined, and a second weather or the second time zone are defined. A second region in which an image to be expressed is defined,
The image generation apparatus characterized in that the area movement processing means moves the original image area from the first area to the second area.
マッピング前の画像が定義される前記空間内に、前記第1の天候又は前記第1の時間帯から前記第2の天候又は前記第2の時間帯への変化を表現するための繋ぎ画像が定義される繋ぎ領域が設けられ、
前記領域移動処理手段が、前記原像領域を、前記繋ぎ領域を介して前記第1の領域から前記第2の領域に移動させることを特徴とする画像生成装置。In claim 4 ,
In the space in which the image before mapping is defined, a connection image for expressing the first weather or the change from the first time zone to the second weather or the second time zone is defined. A connecting area is provided,
The image generation apparatus, wherein the area movement processing unit moves the original image area from the first area to the second area via the connection area.
マッピング前の画像が定義される空間内において、マッピング後の画像に対応する原像領域をリアルタイムに移動させる処理を行う領域移動処理手段と、
移動する前記原像領域にある画像を前記最遠景オブジェクトにマッピングするマッピング手段と、
前記最遠景オブジェクトが、前記原像領域がリアルタイムに移動しながら画像がマッピングされる第1の面と、前記原像領域がリアルタイムに移動せずに画像がマッピングされる第2の面とを含み、前記第1の面の色を、前記第1、第2の面の境界に近づくにつれて該境界の色に近づくように変化させると共に、前記第2の面の色を、前記境界に近づくにつれて該境界の色に近づくように変化させる処理を行う色変化処理手段と、
オブジェクト空間内の所与の視点での画像であって、前記最遠景オブジェクトの画像を含む画像を生成する画像生成手段として、
コンピュータを機能させるプログラムを記憶した情報記憶媒体。A computer-readable information storage medium for generating an image at a given viewpoint in an object space in which a plurality of objects including a farthest object for displaying a background are arranged,
In a space where an image before mapping is defined, an area movement processing means for performing processing for moving an original image area corresponding to the image after mapping in real time;
Mapping means for mapping an image in the moving original image area to the farthest object;
The farthest view object includes a first surface on which an image is mapped while the original image area moves in real time, and a second surface on which the image is mapped without moving the original image area in real time. The color of the first surface is changed so as to approach the boundary color as it approaches the boundary between the first and second surfaces, and the color of the second surface is changed as it approaches the boundary. Color change processing means for performing processing to change the color so as to approach the boundary color;
As an image generation means for generating an image at a given viewpoint in the object space and including an image of the farthest view object,
An information storage medium storing a program that causes a computer to function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35247797A JP4056021B2 (en) | 1997-12-05 | 1997-12-05 | Image generating apparatus and information storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35247797A JP4056021B2 (en) | 1997-12-05 | 1997-12-05 | Image generating apparatus and information storage medium |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007272487A Division JP4245643B2 (en) | 2007-10-19 | 2007-10-19 | Image generating apparatus and information storage medium |
JP2007272486A Division JP4245642B2 (en) | 2007-10-19 | 2007-10-19 | Image generating apparatus and information storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11175748A JPH11175748A (en) | 1999-07-02 |
JP4056021B2 true JP4056021B2 (en) | 2008-03-05 |
Family
ID=18424344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP35247797A Expired - Lifetime JP4056021B2 (en) | 1997-12-05 | 1997-12-05 | Image generating apparatus and information storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4056021B2 (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3306397B2 (en) | 1999-11-25 | 2002-07-24 | 株式会社ソニー・コンピュータエンタテインメント | Entertainment device, image generation method, and storage medium |
JP4530312B2 (en) * | 2000-07-27 | 2010-08-25 | 株式会社バンダイナムコゲームス | GAME SYSTEM AND INFORMATION STORAGE MEDIUM |
US7002591B1 (en) * | 2000-08-23 | 2006-02-21 | Nintendo Co., Ltd. | Method and apparatus for interleaved processing of direct and indirect texture coordinates in a graphics system |
JP4577968B2 (en) * | 2000-09-20 | 2010-11-10 | 株式会社バンダイナムコゲームス | GAME SYSTEM AND INFORMATION STORAGE MEDIUM |
JP3549871B2 (en) | 2001-07-27 | 2004-08-04 | 株式会社ソニー・コンピュータエンタテインメント | Drawing processing apparatus and method, recording medium storing drawing processing program, drawing processing program |
JP4688405B2 (en) * | 2003-02-07 | 2011-05-25 | 株式会社バンダイナムコゲームス | PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE |
JP4688407B2 (en) * | 2003-04-28 | 2011-05-25 | 株式会社バンダイナムコゲームス | Information storage medium and game device |
JP2005329020A (en) * | 2004-05-20 | 2005-12-02 | Samii Kk | Game machine |
JP4748782B2 (en) * | 2005-09-21 | 2011-08-17 | サミー株式会社 | Moving image display device and moving image display program |
JP4721476B2 (en) * | 2009-12-07 | 2011-07-13 | 株式会社バンダイナムコゲームス | Image generation system and information storage medium |
JP5242838B1 (en) * | 2012-09-13 | 2013-07-24 | 株式会社プレミアムエージェンシー | Video processing program and video processing apparatus |
JP6473872B2 (en) * | 2015-07-31 | 2019-02-27 | 公立大学法人広島市立大学 | Video construction device, pseudo-visual experience system, and video construction program |
JP7223610B2 (en) * | 2019-03-22 | 2023-02-16 | 任天堂株式会社 | Image processing program, image processing system, image processing apparatus, and image processing method |
-
1997
- 1997-12-05 JP JP35247797A patent/JP4056021B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH11175748A (en) | 1999-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4056021B2 (en) | Image generating apparatus and information storage medium | |
JP4707080B2 (en) | Image generation system, program, and information storage medium | |
JP4804122B2 (en) | Program, texture data structure, information storage medium, and image generation system | |
JP2002216158A (en) | Image generation system, program and information storage medium | |
JP3280355B2 (en) | Image generation system and information storage medium | |
JP3990258B2 (en) | Image generation system, program, and information storage medium | |
JP4749198B2 (en) | Program, information storage medium, and image generation system | |
JP4167358B2 (en) | Image generation system and information storage medium | |
JP4743770B2 (en) | Image generation system, program, and information storage medium | |
JP4447000B2 (en) | Image generation system, program, and information storage medium | |
US7796132B1 (en) | Image generation system and program | |
JP4245356B2 (en) | GAME SYSTEM AND INFORMATION STORAGE MEDIUM | |
JP2003079942A (en) | Game information, information storage medium, and game device | |
JP4303395B2 (en) | GAME DEVICE AND INFORMATION STORAGE MEDIUM | |
JP4245643B2 (en) | Image generating apparatus and information storage medium | |
JP4245642B2 (en) | Image generating apparatus and information storage medium | |
JP4187192B2 (en) | Image generation system, program, and information storage medium | |
JP2005209217A (en) | Game system and information storage medium | |
JP4266121B2 (en) | Image generation system, program, and information storage medium | |
JP2004341570A (en) | Image generation system, program and information storage medium | |
JP3254195B2 (en) | Image generation system and information storage medium | |
JP4229317B2 (en) | Image generation system, program, and information storage medium | |
JP2006318196A (en) | Program, information storage medium and image generation system | |
JP2006318387A (en) | Program, information storage medium, and image forming system | |
JP2003275460A (en) | Game device and information storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041202 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070822 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071210 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101221 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101221 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101221 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111221 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111221 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121221 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121221 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131221 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |