JP4056021B2 - Image generating apparatus and information storage medium - Google Patents

Image generating apparatus and information storage medium Download PDF

Info

Publication number
JP4056021B2
JP4056021B2 JP35247797A JP35247797A JP4056021B2 JP 4056021 B2 JP4056021 B2 JP 4056021B2 JP 35247797 A JP35247797 A JP 35247797A JP 35247797 A JP35247797 A JP 35247797A JP 4056021 B2 JP4056021 B2 JP 4056021B2
Authority
JP
Japan
Prior art keywords
image
area
color
mapping
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP35247797A
Other languages
Japanese (ja)
Other versions
JPH11175748A (en
Inventor
彰 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP35247797A priority Critical patent/JP4056021B2/en
Publication of JPH11175748A publication Critical patent/JPH11175748A/en
Application granted granted Critical
Publication of JP4056021B2 publication Critical patent/JP4056021B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、オブジェクト空間内の所与の視点での画像を生成する画像生成装置及び情報記憶媒体に関する。
【0002】
【背景技術及び発明が解決しようとする課題】
従来より、仮想的な3次元空間であるオブジェクト空間内に複数のオブジェクトを配置し、オブジェクト空間内の所与の視点から見える画像を生成する画像生成装置が開発、実用化されており、いわゆる仮想現実を体験できるものとして人気が高い。レーシングカーゲームを楽しむことができる画像生成装置を例にとれば、プレーヤは、自身が操作する車などの移動体をオブジェクト空間内で走行させて3次元ゲームを楽しむ。
【0003】
さて、このような画像生成装置においては、背景を表示するための最遠景オブジェクトをオブジェクト空間内に設けることが望まれる。このような最遠景オブジェクトを設けることで、移動体がオブジェクト空間内のどの位置にいても、適切な背景を表示することが可能となる。また画像処理の都合でゲーム進行上無意味な画像が表示される事態が生じた場合にも、少なくとも最遠景オブジェクトが表示されることになるため、表示画像の不自然さを軽減できる。また単なる2次元画像により背景表示を行う場合に比較して、リアルな背景画像を提供することが可能となる。
【0004】
しかしながら、これまでの画像生成装置では、最遠景オブジェクトの画像は静止したままであった。このため、例えば豊かな空の表現や、天候変化や時間帯変化のリアルな表現を実現できなかった。このため仮想現実感の向上という課題の達成が不十分であった。
【0005】
本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、リアルな背景画像の表現が可能な画像生成装置及び情報記憶媒体を提供することにある。
【0006】
【課題を解決するための手段】
上記課題を解決するために、本発明は、背景を表示するための最遠景オブジェクトを含む複数のオブジェクトが配置されるオブジェクト空間内の所与の視点での画像を生成する画像生成装置であって、マッピング前の画像が定義される空間内においてマッピング後の画像に対応する原像領域をリアルタイムに移動させながら、該原像領域にある画像を前記最遠景オブジェクトにマッピングする手段と、オブジェクト空間内の所与の視点での画像であって、前記最遠景オブジェクトの画像を含む画像を生成する手段とを含むことを特徴とする。
【0007】
本発明によれば、原像領域をリアルタイムに移動させながら、原像領域にある画像が最遠景オブジェクトにマッピングされる。これにより、最遠景オブジェクトにマッピングされる画像(マッピング後の画像)を、簡易な処理でリアルタイムに変化させることが可能になる。この結果、例えば雲が流れて行く様子等のリアルな背景画像の表現が可能となり、仮想現実感の向上を図ることが可能になる。
【0008】
また本発明は、マッピング前の画像が定義される前記空間がテクスチャ空間であり、テクスチャマッピングにより前記最遠景オブジェクトにマッピングを行うことを特徴とする。この場合、テクスチャ空間は2次元であっても3次元であってもよい。なお本発明におけるマッピングはテクスチャマッピングに限らず、いわゆるボクセルを用いたマッピング等、種々の変形実施が可能である。
【0009】
また本発明は、前記原像領域の移動が、並進移動及び回転移動の少なくとも一方であることを特徴とする。このように原像領域を並進移動、回転移動させることで、マッピング前の画像の記憶に要する記憶容量を節約しながら、最遠景オブジェクトにマッピングされる画像をリアルタイムに変化させることが可能になる。
【0010】
また本発明は、前記最遠景オブジェクトが、前記原像領域がリアルタイムに移動しながら画像がマッピングされる第1の面と、前記原像領域がリアルタイムに移動せずに画像がマッピングされる第2の面とを含み、前記第1の面の色を、前記第1、第2の面の境界に近づくにつれて該境界の色に近づくように変化させると共に、前記第2の面の色を、前記境界に近づくにつれて該境界の色に近づくように変化させることを特徴とする。このようにすることで、境界を目立たなくすることが可能となり、境界付近での画像が不自然になるのを防止できるようになる。
【0011】
なお前記第1、第2の面の色を前記境界の色に近づける処理は、グーローシェーディング及びデプスキューイングの少なくとも一方により行うことができる。但し第1、第2の面の色を境界の色に近づける処理はこれらに限られるものではない。
【0012】
また本発明は、前記最遠景オブジェクトが、前記原像領域がリアルタイムに移動しながら画像がマッピングされる少なくとも1つの端面と、前記原像領域がリアルタイムに移動せずに画像がマッピングされる少なくとも1つの側面とを含むことを特徴とする。このようにすることで、空模様がリアルタイムに変化する天空等の表現が可能になる。
【0013】
また本発明は、前記端面が、同心円状に配置されたプリミティブ面により形成されていることを特徴とする。このようにすることで、特に、第1、第2の面の色を境界の色に近づける処理を、グーローシェーディングにより実現することが容易になる。
【0014】
また本発明は、マッピング前の画像が定義される前記空間内に、第1の天候又は第1の時間帯を表現するための画像が定義される第1の領域と、第2の天候又は第2の時間帯を表現するための画像が定義される第2の領域とを設け、前記原像領域を、前記第1の領域から前記第2の領域に移動させることを特徴とする。このようにすることで、天候変化や時間変化を簡易な処理で表現することが可能になる。
【0015】
また本発明は、マッピング前の画像が定義される前記空間内に、前記第1の天候又は前記第1の時間帯から前記第2の天候又は前記第2の時間帯への変化を表現するための繋ぎ画像が定義される繋ぎ領域を設け、前記原像領域を、前記繋ぎ領域を介して前記第1の領域から前記第2の領域に移動させることを特徴とする。このようにすることで、スムーズで自然な天候変化や時間変化を表現できるようになる。
【0016】
【発明の実施の形態】
以下、本発明の好適な実施形態について図面を用いて説明する。なお以下では、本発明を自転車ゲームに適用した場合を例にとり説明するが、本発明が適用されるものはこれに限られるものではない。
【0017】
図1に本実施形態の画像生成装置を業務用のゲーム装置に適用した場合の外観図の一例を示す。
【0018】
ここで、ライディング筐体16は、実際の自転車を模して作られたものであり、図示しないプレーヤはこのライディング筐体16のサドル17に座る。そしてディスプレイ18には、仮想的な自転車である移動体20や移動体20が走るコースや周囲の風景が表示される。プレーヤは、この画像を見ながら、ハンドル32を左右に操作することで、ディスプレイ18に映し出される移動体20の進む方向を決める。またペダル30をA1に示すように漕ぐことで、コース進行方向に移動体20を進める。
【0019】
図2に、本実施形態の画像生成装置の機能ブロック図の一例を示す。
【0020】
ここで操作部10は、プレーヤが、図1のハンドル32を操作したりペダル30を漕ぐことで操作データを入力するためのものであり、操作部10にて得られた操作データは処理部100に入力される。
【0021】
処理部100は、上記操作データと所与のプログラムなどに基づいて、オブジェクト空間に表示物を配置する処理や、このオブジェクト空間の所与の視点での画像を生成する処理を行うものである。この処理部100の機能は、CPU(CISC型、RISC型)、DSP、カスタム(ゲートアレイ等)ICなどのハードウェアにより実現できる。
【0022】
情報記憶媒体190は、プログラムやデータを記憶するものである。この情報記憶媒体190の機能は、CD−ROM、ゲームカセット、ICカード、MO、FD、DVD、ハードディスク、メモリなどのハードウェアにより実現できる。処理部100は、この情報記憶媒体190からのプログラム、データに基づいて種々の処理を行うことになる。
【0023】
処理部100は、ゲーム演算部110と画像生成部150を含む。
【0024】
ここでゲーム演算部110は、ゲームモードの設定処理、ゲームの進行処理、移動体(自転車や自転車に乗るキャラクタ)の位置や方向を決める処理、視点位置や視線方向を決める処理、オブジェクト空間へオブジェクトを配置する処理等を行う。
【0025】
また画像生成部150は、ゲーム演算部110により設定されたオブジェクト空間での所与の視点での画像を生成する処理を行う。画像生成部150により生成された画像は表示部12において表示される。
【0026】
ゲーム演算部110は移動体演算部112とマッピング部114を含む。
【0027】
ここで移動体演算部112は、操作部10から入力される操作データや所与のプログラムに基づき、プレーヤが操作する移動体や所与の制御プログラム(コンピュータ)により動きが制御される移動体を、オブジェクト空間内のコース上で移動させる演算を行う。より具体的には、移動体の位置や方向を例えば1フレーム(1/60秒)毎に求める演算を行う。
【0028】
例えば(k−1)フレームでの移動体の位置をPMk-1、速度をVMk-1、加速度をAMk-1、1フレームの時間を△tとする。するとkフレームでの移動体の位置PMk、速度VMkは例えば下式(1)、(2)のように求められる。
【0029】
PMk=PMk-1+VMk-1×△t (1)
VMk=VMk-1+AMk-1×△t (2)
マッピング部114は、移動体オブジェクトやコースオブジェクトや最遠景オブジェクトなどのオブジェクトに画像をマッピングするための処理を行うものである。本実施形態では、テクスチャマッピングによりオブジェクトへの画像マッピングを実現している。
【0030】
図3(A)、(B)に、本実施形態で使用される最遠景オブジェクト50の例を示す。図3(A)は、最遠景オブジェクト50を上方から見た平面図であり、図3(B)は、最遠景オブジェクト50を側方から見た側面図である。この最遠景オブジェクト50は、複数のポリゴンなどのプリミティブ面により構成されており、端面52と、側面54(54-1、54-2、54-3、54-4)を有する。
【0031】
なお最遠景オブジェクト50は、ポリゴン以外にも、曲面などの種々のプリミティブ面により構成できる。
【0032】
端面52は、同心円状に配置されたポリゴンなどのプリミティブ面により構成されている。また側面54-2、54-4は、端面52の中心を通る中心線56に平行になっている。一方、側面54-1、54-3は、中心線56の方に向かうにしたがい下降傾斜している。このように側面54を特殊形状化することで、最遠景オブジェクト50により表現される背景に、遠近感を持たせることが可能になる。
【0033】
なお側面54-3には、遠近感を表現する処理、例えばコントラスト調整処理やデフォーカス処理などを施した画像をマッピングすることが望ましい。このようにすることで、最遠景オブジェクト50による遠近感の表現を更に向上できる。
【0034】
さて、本実施形態が適用される自転車ゲームでは、図3(B)に示すように、オブジェクト空間内に配置されたコース40上で移動体(自転車やキャラクタ)20を走行させてゲームを楽しむ。より具体的には、移動体20は、スタート42から走行を開始し、他の移動体と競争しながらゴール44を目指す。本実施形態では、スタート42は高い位置にありゴール44は低い位置にあり、ゲームが進むにつれて、移動体20は高い位置から低い位置に移動することになる。そして、側面54は、図3(B)に示すように特殊形状化されている。したがって、移動体20が走行するにつれて側面54(54-1、54-3)に表示された背景が面前に迫ってくるという感覚をプレーヤに与えることができる。これにより、プレーヤの感じる仮想現実感を大幅に向上できる。
【0035】
図4(A)に、本実施形態により生成される画像の例を示す。プレーヤは、図2の操作部10を操作して移動体20をコース40上で走行させる。ここで図4(A)のC1に示す曇り空の背景は、図3(A)の端面52に、曇り空を表すテクスチャをマッピングすることで表現されている。またC2に示す青空の背景は図3(B)の側面54-1に青空を表すテクスチャをマッピングすることで表現されている。同様に、C3に示す山の背景は側面54-2に山を表すテクスチャを、C4に示す草原の背景は側面54-3に草原を表すテクスチャを、C5に示す崖の背景は側面54-4に崖を表すテクスチャをマッピングすることで表現されている。
【0036】
図4(B)に、図4(A)の状態から所与の時間経過後に生成される画像の例を示す。図4(A)のC1と図4(B)のD1とを比較すれば理解されるように、本実施形態によれば、時間経過に伴って雲が流れて行く様子が表現されている。
【0037】
このような雲の流れ等の表現を実現するために、本実施形態は以下のような特徴を有している。即ち、本実施形態の第1の特徴は、マッピング前の画像が定義される空間内において、マッピング後の画像に対応する原像領域をリアルタイムに移動させながら、この原像領域にある画像を最遠景オブジェクトにマッピングしている点にある。なお本実施形態ではテクスチャマッピングの手法を採用しているため、マッピング前の画像が定義される空間はテクスチャ空間になる。
【0038】
より具体的には以下のような処理を行っている。
【0039】
例えば図5に、図3(A)の端面52にマッピングするテクスチャが定義されるテクスチャ空間(U、V空間)の例を示す。図5において、テクスチャ60は曇り空を表現するためのテクスチャである。そして図5、図6、図7に示すように本実施形態では、マッピング前の画像(テクスチャ60)が定義されるテクスチャ空間において、マッピング後の画像(図4(A)のC1、図4(B)のD1)に対応する原像領域62をリアルタイムに並進移動させる。そして、このように原像領域62をリアルタイムに並進移動させながら、この原像領域62にある画像を、図3(A)の最遠景オブジェクト50の端面52にマッピングしている。
【0040】
このようにすることで、図4(A)、(B)のC1、D1に示すような、雲がリアルタイムで流れて行くという表現を、簡易な処理で実現できるようになる。この結果、端面52に静止画像が単にマッピングされるという表現に比べて、プレーヤの感じる仮想現実感を大幅に向上できるようになる。
【0041】
なお図7のE1に示すように本実施形態では、原像領域62は、テクスチャ60の一方の端辺66に達すると他方の端辺64に戻るように移動する。このようにすることで、テクスチャの記憶に要する記憶容量を節約しながら、豊かな表現を実現することが可能となる。
【0042】
また図5、図6、図7では、原像領域62をテクスチャ空間内で並進移動させているが、本実施形態における移動はこれに限られるものではない。例えば図8に示すように原像領域62をテクスチャ空間内で回転移動させてもよい。このようにしても、雲が流れて行く様子等をリアルに表現することが可能になる。
【0043】
さて図9において、最遠景オブジェクトを構成する端面52(第1の面)では、図5〜図7に示すように原像領域62がリアルタイムに移動しながら曇り空のテクスチャがマッピングされる(動画像がマッピングされる)。一方、最遠景オブジェクトを構成する側面54-1(第2の面)では、原像領域62がリアルタイムに移動せずに青空のテクスチャがマッピングされる(静止画像がマッピングされる)。
【0044】
このような場合に、何も処理を施さないと、端面52と側面54-1の境界70で雲が突然消えてしまうという画像が表示され、プレーヤに違和感を与えてしまう。
【0045】
以上の問題を解決するために本実施形態は以下のような第2の特徴を有している。即ち図9に示すように、端面52の色を、境界70に近づくにつれて境界70の色である白に近づくように変化させる(グラディエーションをかける)。同様に側面54-1の色も、境界70に近づくにつれて境界70の色である白に近づくように変化させる。このようにすることで図4(A)のC6、図4(B)のD2に示すように、境界の存在が目立たなくなり、自然に雲が消えて行く様子を表現できるようになる。これにより、より自然で違和感のない画像をプレーヤに提供することが可能になる。
【0046】
なお図9では、端面52、側面54-1において近づける色である境界70の色を白としたが、境界70の色はこれに限られるものではない。例えば夕焼けの空であれば境界70の色を赤にすることができ、暗闇の空であれば黒にすることができる。
【0047】
本実施形態では、図10(A)に示すようなグーローシェーディングを利用して、端面52や側面54-1の色を境界70の色に近づけている。グーローシェーディングでは、ポリゴンの各頂点に与えた輝度データ(図10(A)の0.5、1.0)に基づいて、ポリゴン内の各ドット(ピクセル)の輝度を線形補間する。この線形補間により、端面52や側面54-1(ポリゴン)の各ドットの色を、境界70に近づくにつれて白に近づくように制御することができる。
【0048】
但し、端面52や側面54-1の色を境界70の色に近づける手法としては、グーローシェーディングに限らず種々の手法を採用できる。例えば図10(B)に示すように、デプス(奥行き)データに基づいて元の色をターゲット色に近づけるデプスキューイングを利用して、端面52や側面54-1の色を境界70の色に近づけてもよい。この場合、境界70の色がデプスキューイングのターゲット色になる。
【0049】
なお最遠景オブジェクト50の形状としては、遠近感の向上という観点からは図3(A)、(B)に示すものが特に好ましいが、これに限られるものではない。例えば図11(A)に示すように、最遠景オブジェクト50を円柱状にしてもよい。また図11(B)に示すように、端面52を半球形状にしてもよい。なお図11(A)、(B)の場合にも、端面52に、原像領域がリアルタイムに移動する画像をマッピングし、側面54に、原像領域がリアルタイムに移動しない画像をマッピングすることが望ましい。
【0050】
また図8に示すように原像領域62を回転移動させる場合等には、最遠景オブジェクト50を、図11(B)において側面54を設けない形状、即ち半球形状にすることもできる。
【0051】
なお図12に示すように、端面52は、同心円状に配置されたポリゴン(プリミティブ面)により形成することが望ましい。このようにすることで、端面52の色を境界70の色に近づける処理を、グーローシェーディングを利用して容易に実現できるようになるからである。
【0052】
また本実施形態の第3の特徴は以下の点にある。即ち図13に示すように、テクスチャ空間(U、V空間)内に、第1の天候(又は第1の時間帯)を表現するための画像(テクスチャ)が定義される第1の領域80と、第2の天候(又は第2の時間帯)を表現するための画像が定義される第2の領域とを設ける。そして図13のF1に示すように、原像領域62を、第1の領域80から第2の領域82に移動させる。
【0053】
このようにすることで、例えば曇り空(第1の天候)から雨空(第2の天候)に変化するというような天候の変化や、昼の空(第1の時間帯)から夕方の空(第2の時間帯)に変化するというような時間帯の変化を表現することが可能になる。これにより、画像表現のバラエティ度を増すことができ、画像表現の豊かさやゲームのリアル度を更に向上できるようになる。
【0054】
なお図14に示すように本実施形態では、テクスチャ空間内に、第1の天候(又は第1の時間帯)から第2の天候(又は第2の時間帯)への変化を表現するための繋ぎ画像が定義される繋ぎ領域84を設けている。そして図14のF2に示すように、原像領域62を、繋ぎ領域84を介して第1の領域80から第2の領域82に移動させている。
【0055】
このようにすることで、スムーズ且つ自然に天候や時間帯を変化させることが可能となる。即ち、プレーヤに違和感や不自然感を与えることなく天候や時間帯を変化させることが可能となる。
【0056】
なお図14において、テクスチャA’は、第1の天候(時間帯)用のテクスチャAを元絵とする繋ぎ用のテクスチャである。またテクスチャB’は、第2の天候(時間帯)用のテクスチャBを元絵とする繋ぎ用のテクスチャである。
【0057】
次に本実施形態の詳細な処理例について、図15のフローチャートを用いて説明する。
【0058】
まず各ポリゴンの頂点などに与えるテクスチャ座標に、所与のオフセット値を加算する(ステップS1)。このようにオフセット値を加算することで、図5〜図7に示すように、テクスチャ空間内で原像領域62を移動させながら、この原像領域62にある画像(テクスチャ)をポリゴンにマッピングすることが可能となる。
【0059】
次に、テクスチャ座標が所与の値を超えたか否かを判断する(ステップS2)。即ち図14において、テクスチャ座標のV座標が例えばV2を越えたか否かを判断する。そして越えていない場合には、ステップS1に戻る。
【0060】
一方、越えている場合には、天候を変化させるか否かを判断する(ステップS3)。この判断は、装置内のタイマー等を用いて測定される仮想時間に基づき行い、例えばプレーヤのプレイ時間が所与の期間を経過した場合等に天候を変化させる。
【0061】
天候を変化させないと判断した場合には、テクスチャ座標を初期値に戻す(ステップS4)。即ち図14において、テクスチャ座標のV座標を例えばV1に戻す。このように処理することで、テクスチャの記憶に要する記憶容量を節約しながら、雲の流れる様子等を表現することが可能になる。
【0062】
天候を変化させると判断した場合には、原像領域62を繋ぎ領域84の先頭に移動させるオフセット値をテクスチャ座標に加算する(ステップS5)。即ち図14において、テクスチャ座標のV座標が例えばV3になり、U座標が右側にシフトするようなオフセット値をテクスチャ座標に加算する。
【0063】
次に、ステップS1と同様に、テクスチャ座標に所与のオフセット値を加算する(ステップS6)。そして、テクスチャ座標が所与の値を超えたか否かを判断する(ステップS7)。即ち図14において、テクスチャ座標のV座標がV4を越えたか否かを判断する。そして、越えていない場合には、ステップS6に戻る。
【0064】
一方、越えている場合には、原像領域62を第2の領域82の先頭に移動させるオフセット値をテクスチャ座標に加算する(ステップS8)。即ち図14において、テクスチャ座標のV座標がV5になり、U座標が右にシフトするようなオフセット値をテクスチャ座標に加算する。
【0065】
以上のようにすることで、雲が流れて行く様子等のリアルな表現が可能になると共に、スムーズで自然な天候変化や時間帯変化を表現できるようになる。
【0066】
次に、本実施形態を実現できるハードウェアの構成の一例について図16を用いて説明する。同図に示す装置では、CPU1000、ROM1002、RAM1004、情報記憶媒体1006、音生成IC1008、画像生成IC1010、I/Oポート1012、1014が、システムバス1016により相互にデータ送受信可能に接続されている。そして前記画像生成IC1010にはディスプレイ1018が接続され、音生成IC1008にはスピーカ1020が接続され、I/Oポート1012にはコントロール装置1022が接続され、I/Oポート1014には通信装置1024が接続されている。
【0067】
情報記憶媒体1006は、プログラム、表示物を表現するための画像データ、音データ等が主に格納されるものである。例えば家庭用ゲーム装置ではゲームプログラム等を格納する情報記憶媒体としてCD−ROM、ゲームカセット、DVD等が用いられる。また業務用ゲーム装置ではROM等のメモリが用いられ、この場合には情報記憶媒体1006はROM1002になる。
【0068】
コントロール装置1022はゲームコントローラ、操作パネル等に相当するものであり、プレーヤがゲーム進行に応じて行う判断の結果を装置本体に入力するための装置である。
【0069】
情報記憶媒体1006に格納されるプログラム、ROM1002に格納されるシステムプログラム(装置本体の初期化情報等)、コントロール装置1022によって入力される信号等に従って、CPU1000は装置全体の制御や各種データ処理を行う。RAM1004はこのCPU1000の作業領域等として用いられる記憶手段であり、情報記憶媒体1006やROM1002の所与の内容、あるいはCPU1000の演算結果等が格納される。また本実施形態を実現するための論理的な構成を持つデータ構造(例えばオブジェクトデータやテクスチャデータの構造)は、このRAM又は情報記憶媒体上に構築されることになる。
【0070】
更に、この種の装置には音生成IC1008と画像生成IC1010とが設けられていてゲーム音やゲーム画像の好適な出力が行えるようになっている。音生成IC1008は情報記憶媒体1006やROM1002に記憶される情報に基づいて効果音やバックグラウンド音楽等のゲーム音を生成する集積回路であり、生成されたゲーム音はスピーカ1020によって出力される。また、画像生成IC1010は、RAM1004、ROM1002、情報記憶媒体1006等から送られる画像情報に基づいてディスプレイ1018に出力するための画素情報を生成する集積回路である。なおディスプレイ1018として、いわゆるヘッドマウントディスプレイ(HMD)と呼ばれるものを使用することもできる。
【0071】
また、通信装置1024はゲーム装置内部で利用される各種の情報を外部とやりとりするものであり、他のゲーム装置と接続されてゲームプログラムに応じた所与の情報を送受したり、通信回線を介してゲームプログラム等の情報を送受することなどに利用される。
【0072】
そして図1〜図14で説明した種々の処理は、図15のフローチャートに示した処理等を行うプログラムを格納した情報記憶媒体1006と、該プログラムに従って動作するCPU1000、画像生成IC1010、音生成IC1008等によって実現される。なお画像生成IC1010、音生成IC1008等で行われる処理は、CPU1000あるいは汎用のDSP等によりソフトウェア的に行ってもよい。
【0073】
さて前述した図1は、本実施形態を業務用ゲーム装置に適用した場合の例を示すものである。この場合、装置に内蔵されるシステム基板1106には、CPU、画像生成IC、音生成IC等が実装されている。そして、マッピング前の画像が定義される空間内においてマッピング後の画像に対応する原像領域をリアルタイムに移動させながら、原像領域にある画像を最遠景オブジェクトにマッピングするための情報、オブジェクト空間内の所与の視点での画像であって、最遠景オブジェクトの画像を含む画像を生成するための情報、マッピング前の画像が定義される空間内に、第1の天候又は第1の時間帯を表現するための画像が定義される第1の領域と、第2の天候又は第2の時間帯を表現するための画像が定義される第2の領域とを設け、原像領域を、第1の領域から第2の領域に移動させるための情報等は、システム基板1106上の情報記憶媒体であるメモリ1108に格納される。以下、これらの情報を格納情報と呼ぶ。これらの格納情報は、上記の種々の処理を行うためのプログラムコード、画像情報、音情報、表示物の形状情報、テーブルデータ、リストデータ、プレーヤ情報等の少なくとも1つを含むものである。
【0074】
図17(A)に、本実施形態を家庭用のゲーム装置に適用した場合の例を示す。プレーヤはディスプレイ1200に映し出されたゲーム画像を見ながら、ゲームコントローラ1202、1204を操作してゲームを楽しむ。この場合、上記格納情報は、本体装置に着脱自在な情報記憶媒体であるCD−ROM1206、ICカード1208、1209等に格納されている。
【0075】
図17(B)に、ホスト装置1300と、このホスト装置1300と通信回線1302を介して接続される端末1304-1〜1304-nとを含むゲーム装置に本実施形態を適用した場合の例を示す。この場合、上記格納情報は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、メモリ等の情報記憶媒体1306に格納されている。端末1304-1〜1304-nが、CPU、画像生成IC、音生成ICを有し、スタンドアロンでゲーム画像、ゲーム音を生成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を生成するためのゲームプログラム等が端末1304-1〜1304-nに配送される。一方、スタンドアロンで生成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を生成し、これを端末1304-1〜1304-nに伝送し端末において出力することになる。
【0076】
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。
【0077】
例えば本実施形態では、テクスチャマッピングを用いて最遠景オブジェクトへの画像マッピングを行う場合について説明したが、本発明はこれに限られるものではない。例えばボクセルと呼ばれる手法により最遠景オブジェクトへの画像マッピングを行ってもよい。またテクスチャマッピングを行う場合にも、テクスチャ空間は2次元に限られるものではなく3次元であってもよい。即ち空間テクスチャを用いてテクスチャマッピングを行ってもよい。
【0078】
また最遠景オブジェクトの形状も、図3(A)、(B)、図11(A)、(B)に示すものに限らず、種々の変形実施が可能である。
【0079】
また原像領域の移動の形態も本実施形態で説明したものに限らず、種々の変形実施が可能である。
【0080】
また第1、第2の面の色を境界に近づける手法も、図10(A)、(B)で説明したものに限られるものではない。
【0081】
また本実施形態では自転車の競争ゲームに本発明を適用した場合について説明したが、本発明はこれに限らず種々のゲーム(他の競争ゲーム、スポーツゲーム、対戦ゲーム、ロールプレイングゲーム、シューティングゲーム等)に適用できる。
【0082】
また本発明は、家庭用、業務用のゲーム装置のみならず、シミュレータ、多数のプレーヤが参加する大型アトラクション装置、パーソナルコンピュータ、マルチメディア端末、ゲーム画像を生成するシステム基板等の種々の画像生成装置にも適用できる。
【0083】
【図面の簡単な説明】
【図1】本実施形態の画像生成装置の外観図の一例である。
【図2】本実施形態の画像生成装置の機能ブロック図の一例である。
【図3】図3(A)、(B)は、最遠景オブジェクトの例について示す図である。
【図4】図4(A)、(B)は、本実施形態により生成される画像の例を示す図である。
【図5】テクスチャ空間での原像領域の並進移動について説明するための図である。
【図6】テクスチャ空間での原像領域の並進移動について説明するための図である。
【図7】テクスチャ空間での原像領域の並進移動について説明するための図である。
【図8】テクスチャ空間での原像領域の回転移動について説明するための図である。
【図9】端面、側面の色を境界の色に近づける手法について説明するための図である。
【図10】図10(A)、(B)は、グーローシェーディング、デプスキューイングについて説明するための図である。
【図11】図11(A)、(B)は、最遠景オブジェクトの例について示す図である。
【図12】同心円状に配列されたポリゴンにより端面を構成する手法について説明するための図である。
【図13】天候(時間帯)変化を実現する手法について説明するための図である。
【図14】繋ぎ領域を設ける手法について説明するための図である。
【図15】本実施形態の詳細な処理例を説明するためのフローチャートである。
【図16】本実施形態を実現できるハードウェアの構成の一例を示す図である。
【図17】図17(A)、(B)は、本実施形態が適用される種々の形態の装置の例を示す図である。
【符号の説明】
10 操作部
12 表示部
16 ライディング筐体
17 サドル
18 ディスプレイ
20 移動体(自転車)
30 ペダル
32 ハンドル
40 コース
42 スタート
44 ゴール
50 最遠景オブジェクト
52 端面
54(54-1〜54-4) 側面
60 テクスチャ
62 原像領域
70 境界
80 第1の領域
82 第2の領域
84 繋ぎ領域
100 処理部
110 ゲーム演算部
112 移動体演算部
114 マッピング部
150 画像生成部
190 情報記憶媒体
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image generation apparatus and an information storage medium that generate an image at a given viewpoint in an object space.
[0002]
[Background Art and Problems to be Solved by the Invention]
2. Description of the Related Art Conventionally, image generation apparatuses that arrange a plurality of objects in an object space that is a virtual three-dimensional space and generate an image that can be viewed from a given viewpoint in the object space have been developed and put into practical use. It is popular as a way to experience reality. Taking an image generation apparatus that can enjoy a racing car game as an example, a player enjoys a three-dimensional game by running a moving body such as a car that the user operates in the object space.
[0003]
In such an image generation apparatus, it is desirable to provide a farthest view object for displaying the background in the object space. By providing such a farthest view object, an appropriate background can be displayed at any position in the object space. Further, even when a meaningless image is displayed due to image processing, at least the farthest view object is displayed, so that the unnaturalness of the display image can be reduced. Further, it is possible to provide a realistic background image as compared with the case where the background display is performed using a simple two-dimensional image.
[0004]
However, in the conventional image generation apparatus, the image of the farthest view object remains stationary. For this reason, for example, it was not possible to realize a rich expression of the sky or a realistic expression of changes in weather or time zones. For this reason, the achievement of the improvement of virtual reality was insufficient.
[0005]
The present invention has been made in view of the above problems, and an object of the present invention is to provide an image generation apparatus and an information storage medium capable of expressing a realistic background image.
[0006]
[Means for Solving the Problems]
In order to solve the above-described problems, the present invention provides an image generation apparatus that generates an image at a given viewpoint in an object space in which a plurality of objects including a farthest view object for displaying a background are arranged. Means for mapping the image in the original image area to the farthest view object while moving the original image area corresponding to the image after mapping in real time in the space in which the image before mapping is defined; Means for generating an image including the image of the farthest view object.
[0007]
According to the present invention, the image in the original image area is mapped to the farthest object while moving the original image area in real time. This makes it possible to change an image mapped to the farthest view object (image after mapping) in real time with simple processing. As a result, for example, it is possible to express a realistic background image such as a cloud flowing, and it is possible to improve virtual reality.
[0008]
Further, the present invention is characterized in that the space in which an image before mapping is defined is a texture space, and the farthest view object is mapped by texture mapping. In this case, the texture space may be two-dimensional or three-dimensional. The mapping in the present invention is not limited to texture mapping, and various modifications such as mapping using so-called voxels are possible.
[0009]
According to the present invention, the movement of the original image area is at least one of translational movement and rotational movement. By moving the original image area in translation and rotation in this way, it is possible to change the image mapped to the farthest object in real time while saving the storage capacity required to store the image before mapping.
[0010]
According to the present invention, the farthest object has a first surface on which an image is mapped while the original image area is moving in real time, and a second surface on which the original image area is mapped without moving in real time. The color of the first surface is changed so as to approach the color of the boundary as it approaches the boundary between the first and second surfaces, and the color of the second surface is As the boundary is approached, the color of the boundary is changed so as to approach the boundary. In this way, the boundary can be made inconspicuous, and an image near the boundary can be prevented from becoming unnatural.
[0011]
The process of bringing the colors of the first and second surfaces closer to the boundary color can be performed by at least one of Gouraud shading and depth cueing. However, the process of bringing the colors of the first and second surfaces closer to the boundary color is not limited to these.
[0012]
According to the present invention, the farthest view object has at least one end surface to which an image is mapped while the original image area moves in real time, and at least one to which an image is mapped without moving the original image area in real time. And including two sides. By doing so, it is possible to express the sky or the like in which the sky pattern changes in real time.
[0013]
In the invention, it is preferable that the end face is formed by primitive faces arranged concentrically. In this way, in particular, the process of bringing the colors of the first and second surfaces closer to the boundary color can be easily realized by Gouraud shading.
[0014]
Further, the present invention provides a first area in which an image for expressing the first weather or the first time zone is defined in the space in which the image before mapping is defined, and the second weather or the second weather. And a second region in which an image for expressing the second time zone is defined, and the original image region is moved from the first region to the second region. By doing in this way, it becomes possible to express a weather change and a time change by simple processing.
[0015]
The present invention also expresses a change from the first weather or the first time zone to the second weather or the second time zone in the space in which an image before mapping is defined. A connection area in which a connection image is defined is provided, and the original image area is moved from the first area to the second area via the connection area. In this way, smooth and natural weather changes and time changes can be expressed.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the following, a case where the present invention is applied to a bicycle game will be described as an example. However, the present invention is not limited to this.
[0017]
FIG. 1 shows an example of an external view when the image generation apparatus of the present embodiment is applied to a business game apparatus.
[0018]
Here, the riding case 16 is made by imitating an actual bicycle, and a player (not shown) sits on the saddle 17 of the riding case 16. The display 18 displays a moving body 20 that is a virtual bicycle, a course on which the moving body 20 runs, and surrounding scenery. The player determines the advancing direction of the moving body 20 displayed on the display 18 by operating the handle 32 left and right while viewing this image. Moreover, the moving body 20 is advanced in the course traveling direction by pedaling the pedal 30 as indicated by A1.
[0019]
FIG. 2 shows an example of a functional block diagram of the image generation apparatus of the present embodiment.
[0020]
Here, the operation unit 10 is for the player to input operation data by operating the handle 32 of FIG. 1 or by stroking the pedal 30, and the operation data obtained by the operation unit 10 is processed by the processing unit 100. Is input.
[0021]
The processing unit 100 performs processing for arranging a display object in the object space and processing for generating an image at a given viewpoint in the object space based on the operation data and a given program. The function of the processing unit 100 can be realized by hardware such as a CPU (CISC type, RISC type), DSP, custom (gate array, etc.) IC or the like.
[0022]
The information storage medium 190 stores programs and data. The function of the information storage medium 190 can be realized by hardware such as a CD-ROM, game cassette, IC card, MO, FD, DVD, hard disk, and memory. The processing unit 100 performs various processes based on the program and data from the information storage medium 190.
[0023]
The processing unit 100 includes a game calculation unit 110 and an image generation unit 150.
[0024]
Here, the game calculation unit 110 performs a game mode setting process, a game progress process, a process for determining the position and direction of a moving body (bicycle or a character riding on a bicycle), a process for determining a viewpoint position and a line-of-sight direction, The process etc. which arrange | position is performed.
[0025]
The image generation unit 150 performs processing for generating an image at a given viewpoint in the object space set by the game calculation unit 110. The image generated by the image generation unit 150 is displayed on the display unit 12.
[0026]
The game calculation unit 110 includes a moving object calculation unit 112 and a mapping unit 114.
[0027]
Here, the moving object calculation unit 112 selects a moving object operated by the player or a moving object whose movement is controlled by a given control program (computer) based on operation data input from the operation unit 10 or a given program. Then, an operation for moving the object in the object space is performed. More specifically, a calculation for obtaining the position and direction of the moving body every frame (1/60 second) is performed.
[0028]
For example, assume that the position of the moving body in the (k-1) frame is PMk-1, the speed is VMk-1, the acceleration is AMk-1, and the time of one frame is Δt. Then, the position PMk and the speed VMk of the moving body in k frames are obtained, for example, by the following equations (1) and (2).
[0029]
PMk = PMk-1 + VMk-1 * .DELTA.t (1)
VMk = VMk-1 + AMk-1 * .DELTA.t (2)
The mapping unit 114 performs processing for mapping an image to an object such as a moving object, a course object, or a farthest view object. In the present embodiment, image mapping to an object is realized by texture mapping.
[0030]
3A and 3B show examples of the farthest view object 50 used in this embodiment. 3A is a plan view of the farthest view object 50 viewed from above, and FIG. 3B is a side view of the farthest view object 50 viewed from the side. The farthest view object 50 includes a primitive surface such as a plurality of polygons, and has an end surface 52 and side surfaces 54 (54-1, 54-2, 54-3, 54-4).
[0031]
The farthest view object 50 can be constituted by various primitive surfaces such as curved surfaces in addition to polygons.
[0032]
The end surface 52 is configured by a primitive surface such as a polygon arranged concentrically. Further, the side surfaces 54-2 and 54-4 are parallel to a center line 56 passing through the center of the end surface 52. On the other hand, the side surfaces 54-1 and 54-3 are inclined downward toward the center line 56. By specially shaping the side surface 54 in this way, it is possible to give a sense of perspective to the background expressed by the farthest view object 50.
[0033]
Note that it is desirable to map an image on which processing for expressing perspective, for example, contrast adjustment processing or defocus processing, is performed on the side surface 54-3. In this way, the expression of perspective by the farthest view object 50 can be further improved.
[0034]
Now, in the bicycle game to which the present embodiment is applied, as shown in FIG. 3 (B), the mobile body (bicycle or character) 20 is run on the course 40 arranged in the object space and the game is enjoyed. More specifically, the moving body 20 starts running from the start 42 and aims at the goal 44 while competing with other moving bodies. In this embodiment, the start 42 is at a high position and the goal 44 is at a low position, and the moving body 20 moves from a high position to a low position as the game progresses. The side surface 54 has a special shape as shown in FIG. Therefore, it is possible to give the player a feeling that the background displayed on the side surface 54 (54-1, 54-3) approaches the surface as the moving body 20 travels. Thereby, the virtual reality felt by the player can be greatly improved.
[0035]
FIG. 4A shows an example of an image generated by this embodiment. The player operates the operation unit 10 in FIG. 2 to cause the moving body 20 to travel on the course 40. Here, the background of the cloudy sky indicated by C1 in FIG. 4A is expressed by mapping a texture representing the cloudy sky on the end face 52 in FIG. The background of the blue sky shown in C2 is expressed by mapping a texture representing the blue sky on the side surface 54-1 of FIG. Similarly, the background of the mountain shown in C3 is a texture representing the mountain on the side surface 54-2, the background of the grassland shown in C4 is the texture representing the grassland on the side surface 54-3, and the background of the cliff shown in C5 is the side surface 54-4. It is expressed by mapping the texture that represents the cliff.
[0036]
FIG. 4B shows an example of an image generated after a given time has elapsed from the state of FIG. As can be understood by comparing C1 in FIG. 4A and D1 in FIG. 4B, according to the present embodiment, a state in which a cloud flows over time is expressed.
[0037]
In order to realize such an expression of a cloud flow or the like, the present embodiment has the following characteristics. That is, the first feature of the present embodiment is that the image in the original image area is moved to the maximum in the space in which the image before mapping is defined while moving the original image area corresponding to the image after mapping in real time. The point is that it is mapped to a distant view object. In this embodiment, since the texture mapping method is employed, the space in which the image before mapping is defined is a texture space.
[0038]
More specifically, the following processing is performed.
[0039]
For example, FIG. 5 shows an example of a texture space (U, V space) in which a texture to be mapped to the end face 52 in FIG. In FIG. 5, a texture 60 is a texture for expressing a cloudy sky. As shown in FIGS. 5, 6, and 7, in this embodiment, in the texture space in which the image before mapping (texture 60) is defined, the image after mapping (C1 in FIG. 4A, FIG. The original image area 62 corresponding to D1) of B) is translated in real time. Then, while the original image area 62 is translated in real time in this way, the image in the original image area 62 is mapped to the end face 52 of the farthest view object 50 in FIG.
[0040]
By doing in this way, the expression that clouds flow in real time as shown by C1 and D1 in FIGS. 4A and 4B can be realized by simple processing. As a result, compared with the expression that a still image is simply mapped on the end face 52, the virtual reality felt by the player can be greatly improved.
[0041]
In this embodiment, as shown by E1 in FIG. 7, the original image area 62 moves so as to return to the other end 64 when it reaches one end 66 of the texture 60. In this way, rich expressions can be realized while saving the storage capacity required for storing textures.
[0042]
5, 6, and 7, the original image area 62 is translated in the texture space, but the movement in the present embodiment is not limited to this. For example, as shown in FIG. 8, the original image area 62 may be rotated in the texture space. Even in this way, it is possible to realistically express the state of clouds flowing.
[0043]
In FIG. 9, on the end face 52 (first face) constituting the farthest view object, the cloudy sky texture is mapped while the original image area 62 moves in real time as shown in FIGS. Are mapped). On the other hand, on the side surface 54-1 (second surface) constituting the farthest view object, the blue sky texture is mapped (the still image is mapped) without moving the original image area 62 in real time.
[0044]
In such a case, if no processing is performed, an image that the cloud suddenly disappears at the boundary 70 between the end face 52 and the side face 54-1 is displayed, which gives the player a sense of incongruity.
[0045]
In order to solve the above problem, the present embodiment has the following second feature. That is, as shown in FIG. 9, the color of the end face 52 is changed so as to approach white as the color of the boundary 70 (gradation is applied) as it approaches the boundary 70. Similarly, the color of the side surface 54-1 is changed so as to approach white that is the color of the boundary 70 as the boundary 70 is approached. By doing so, as indicated by C6 in FIG. 4A and D2 in FIG. 4B, the existence of the boundary becomes inconspicuous, and it is possible to express how the clouds disappear naturally. This makes it possible to provide a player with a more natural and comfortable image.
[0046]
In FIG. 9, the color of the boundary 70 that is a color that approaches the end face 52 and the side face 54-1 is white, but the color of the boundary 70 is not limited to this. For example, the color of the boundary 70 can be red for a sunset sky, and black for a dark sky.
[0047]
In the present embodiment, the color of the end face 52 and the side face 54-1 is brought close to the color of the boundary 70 using Gouraud shading as shown in FIG. In Gouraud shading, the luminance of each dot (pixel) in the polygon is linearly interpolated based on the luminance data (0.5 and 1.0 in FIG. 10A) given to each vertex of the polygon. By this linear interpolation, it is possible to control the color of each dot on the end face 52 and the side face 54-1 (polygon) so that it approaches white as it approaches the boundary 70.
[0048]
However, the method of bringing the color of the end face 52 and the side face 54-1 closer to the color of the boundary 70 is not limited to Gouraud shading, and various techniques can be employed. For example, as shown in FIG. 10B, the color of the end surface 52 and the side surface 54-1 is changed to the color of the boundary 70 by using depth cueing that brings the original color closer to the target color based on the depth (depth) data. It may be close. In this case, the color of the boundary 70 becomes the target color for depth cueing.
[0049]
As the shape of the farthest view object 50, the shape shown in FIGS. 3A and 3B is particularly preferable from the viewpoint of improving perspective, but is not limited thereto. For example, as shown in FIG. 11A, the farthest view object 50 may be cylindrical. Further, as shown in FIG. 11B, the end face 52 may be formed in a hemispherical shape. 11A and 11B, an image in which the original image area moves in real time may be mapped on the end face 52, and an image in which the original image area does not move in real time may be mapped on the side face 54. desirable.
[0050]
Further, when the original image area 62 is rotated as shown in FIG. 8, the farthest view object 50 can be formed in a shape without the side surface 54 in FIG.
[0051]
As shown in FIG. 12, the end surface 52 is preferably formed by polygons (primitive surfaces) arranged concentrically. By doing so, the process of bringing the color of the end face 52 closer to the color of the boundary 70 can be easily realized using Gouraud shading.
[0052]
The third feature of the present embodiment is as follows. That is, as shown in FIG. 13, a first region 80 in which an image (texture) for expressing the first weather (or the first time zone) is defined in the texture space (U, V space) and And a second region in which an image for expressing the second weather (or the second time zone) is defined. Then, the original image area 62 is moved from the first area 80 to the second area 82, as indicated by F1 in FIG.
[0053]
By doing so, for example, a change in weather such as a change from a cloudy sky (first weather) to a rainy sky (second weather), or a noon sky (first time zone) to an evening sky (first time). It is possible to express a change in time zone such as a change in time zone 2). Thereby, the variety of image expression can be increased, and the richness of the image expression and the realism of the game can be further improved.
[0054]
As shown in FIG. 14, in the present embodiment, a change from the first weather (or the first time zone) to the second weather (or the second time zone) is expressed in the texture space. A connection area 84 where a connection image is defined is provided. 14, the original image area 62 is moved from the first area 80 to the second area 82 via the connection area 84.
[0055]
By doing in this way, it becomes possible to change a weather and a time zone smoothly and naturally. That is, it is possible to change the weather and time zone without giving the player a feeling of strangeness or unnaturalness.
[0056]
In FIG. 14, texture A ′ is a connection texture using the texture A for the first weather (time zone) as an original picture. The texture B ′ is a texture for connection using the texture B for the second weather (time zone) as an original picture.
[0057]
Next, a detailed processing example of this embodiment will be described with reference to the flowchart of FIG.
[0058]
First, a given offset value is added to the texture coordinates given to the vertices of each polygon (step S1). By adding the offset value in this manner, the image (texture) in the original image area 62 is mapped to the polygon while moving the original image area 62 in the texture space as shown in FIGS. It becomes possible.
[0059]
Next, it is determined whether or not the texture coordinates exceed a given value (step S2). That is, in FIG. 14, it is determined whether the V coordinate of the texture coordinate exceeds V2, for example. If not, the process returns to step S1.
[0060]
On the other hand, if it exceeds, it is determined whether or not the weather is changed (step S3). This determination is made based on virtual time measured using a timer or the like in the apparatus, and the weather is changed when, for example, a player's play time has passed a given period.
[0061]
If it is determined not to change the weather, the texture coordinates are returned to the initial values (step S4). That is, in FIG. 14, the V coordinate of the texture coordinate is returned to, for example, V1. By processing in this way, it is possible to express the state of clouds flowing while saving the storage capacity required for storing textures.
[0062]
If it is determined that the weather is to be changed, an offset value for moving the original image area 62 to the head of the connection area 84 is added to the texture coordinates (step S5). That is, in FIG. 14, the texture coordinate V coordinate becomes V3, for example, and an offset value that shifts the U coordinate to the right side is added to the texture coordinate.
[0063]
Next, as in step S1, a given offset value is added to the texture coordinates (step S6). Then, it is determined whether or not the texture coordinates exceed a given value (step S7). That is, in FIG. 14, it is determined whether or not the V coordinate of the texture coordinate exceeds V4. And when not exceeding, it returns to step S6.
[0064]
On the other hand, if it exceeds, an offset value for moving the original image area 62 to the head of the second area 82 is added to the texture coordinates (step S8). That is, in FIG. 14, an offset value that causes the V coordinate of the texture coordinate to become V5 and the U coordinate to shift to the right is added to the texture coordinate.
[0065]
By doing so, it is possible to express realistic conditions such as a cloud flowing, and to express smooth and natural weather changes and time zone changes.
[0066]
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. In the apparatus shown in the figure, a CPU 1000, a ROM 1002, a RAM 1004, an information storage medium 1006, a sound generation IC 1008, an image generation IC 1010, and I / O ports 1012, 1014 are connected to each other via a system bus 1016 so that data can be transmitted and received. A display 1018 is connected to the image generation IC 1010, a speaker 1020 is connected to the sound generation IC 1008, a control device 1022 is connected to the I / O port 1012, and a communication device 1024 is connected to the I / O port 1014. Has been.
[0067]
The information storage medium 1006 mainly stores programs, image data for expressing display objects, sound data, and the like. For example, a consumer game device uses a CD-ROM, game cassette, DVD, or the like as an information storage medium for storing a game program or the like. The arcade game machine uses a memory such as a ROM. In this case, the information storage medium 1006 is a ROM 1002.
[0068]
The control device 1022 corresponds to a game controller, an operation panel, and the like, and is a device for inputting a result of a determination made by the player in accordance with the progress of the game to the device main body.
[0069]
In accordance with a program stored in the information storage medium 1006, a system program stored in the ROM 1002 (such as device initialization information), a signal input by the control device 1022, the CPU 1000 controls the entire device and performs various data processing. . The RAM 1004 is a storage means used as a work area of the CPU 1000 and stores the given contents of the information storage medium 1006 and the ROM 1002 or the calculation result of the CPU 1000. In addition, a data structure (for example, a structure of object data or texture data) having a logical configuration for realizing the present embodiment is constructed on this RAM or information storage medium.
[0070]
Further, this type of apparatus is provided with a sound generation IC 1008 and an image generation IC 1010 so that game sounds and game images can be suitably output. The sound generation IC 1008 is an integrated circuit that generates game sounds such as sound effects and background music based on information stored in the information storage medium 1006 and the ROM 1002, and the generated game sounds are output by the speaker 1020. The image generation IC 1010 is an integrated circuit that generates pixel information to be output to the display 1018 based on image information sent from the RAM 1004, the ROM 1002, the information storage medium 1006, and the like. As the display 1018, a so-called head mounted display (HMD) can be used.
[0071]
The communication device 1024 exchanges various types of information used inside the game device with the outside. The communication device 1024 is connected to other game devices to send and receive given information according to the game program, and to connect a communication line. It is used for sending and receiving information such as game programs.
[0072]
1 to 14 includes an information storage medium 1006 that stores a program for performing the processing shown in the flowchart of FIG. 15, a CPU 1000 that operates according to the program, an image generation IC 1010, a sound generation IC 1008, and the like. It is realized by. The processing performed by the image generation IC 1010, the sound generation IC 1008, and the like may be performed by software using the CPU 1000 or a general-purpose DSP.
[0073]
FIG. 1 described above shows an example in which the present embodiment is applied to an arcade game machine. In this case, a CPU, an image generation IC, a sound generation IC, and the like are mounted on a system board 1106 built in the apparatus. Information for mapping the image in the original image area to the farthest view object while moving the original image area corresponding to the image after mapping in the space where the image before mapping is defined, in the object space Information for generating an image including the image of the farthest view object, the first weather or the first time zone in the space in which the image before mapping is defined. A first area in which an image for representation is defined and a second area in which an image for representing the second weather or the second time zone is defined are provided, and the original image area is defined as the first area. Information for moving from the first area to the second area is stored in a memory 1108 which is an information storage medium on the system board 1106. Hereinafter, these pieces of information are referred to as stored information. The stored information includes at least one of program code, image information, sound information, display object shape information, table data, list data, player information, and the like for performing the various processes described above.
[0074]
FIG. 17A shows an example in which the present embodiment is applied to a home game device. The player enjoys the game by operating the game controllers 1202 and 1204 while viewing the game image displayed on the display 1200. In this case, the stored information is stored in a CD-ROM 1206, IC cards 1208, 1209, etc., which are information storage media detachable from the main unit.
[0075]
FIG. 17B shows an example in which the present embodiment is applied to a game device including a host device 1300 and terminals 1304-1 to 1304-n connected to the host device 1300 via a communication line 1302. Show. In this case, the stored information is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300, for example. When the terminals 1304-1 to 1304-n have a CPU, an image generation IC, and a sound generation IC and can generate a game image and a game sound stand-alone, the host device 1300 receives a game image and a game A game program or the like for generating sound is delivered to the terminals 1304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, which is transmitted to the terminals 1304-1 to 1304-n and output at the terminal.
[0076]
The present invention is not limited to that described in the above embodiment, and various modifications can be made.
[0077]
For example, in the present embodiment, the case of performing image mapping to the farthest view object using texture mapping has been described, but the present invention is not limited to this. For example, image mapping to the farthest object may be performed by a technique called voxel. Also, when texture mapping is performed, the texture space is not limited to two dimensions, and may be three dimensions. That is, texture mapping may be performed using a spatial texture.
[0078]
The shape of the farthest view object is not limited to that shown in FIGS. 3A, 3B, 11A, and 11B, and various modifications can be made.
[0079]
Further, the form of movement of the original image area is not limited to that described in the present embodiment, and various modifications can be made.
[0080]
Further, the method of bringing the colors of the first and second surfaces closer to the boundary is not limited to the method described with reference to FIGS.
[0081]
In the present embodiment, the case where the present invention is applied to a bicycle competition game has been described. However, the present invention is not limited to this, and various games (other competition games, sports games, battle games, role playing games, shooting games, etc.) ).
[0082]
The present invention is not limited to home and business game devices, but also various image generation devices such as a simulator, a large attraction device in which a large number of players participate, a personal computer, a multimedia terminal, and a system board for generating game images. It can also be applied to.
[0083]
[Brief description of the drawings]
FIG. 1 is an example of an external view of an image generation apparatus according to an embodiment.
FIG. 2 is an example of a functional block diagram of the image generation apparatus of the present embodiment.
FIGS. 3A and 3B are diagrams illustrating an example of a farthest view object.
4A and 4B are diagrams illustrating examples of images generated according to the present embodiment.
FIG. 5 is a diagram for explaining translational movement of an original image area in a texture space.
FIG. 6 is a diagram for explaining translational movement of an original image area in a texture space.
FIG. 7 is a diagram for explaining translational movement of an original image area in a texture space.
FIG. 8 is a diagram for explaining a rotational movement of an original image area in a texture space.
FIG. 9 is a diagram for explaining a technique for bringing the color of the end face and the side face closer to the boundary color.
FIGS. 10A and 10B are diagrams for explaining Gouraud shading and depth cueing. FIG.
FIGS. 11A and 11B are diagrams illustrating an example of a farthest view object.
FIG. 12 is a diagram for explaining a method of forming an end face by polygons arranged concentrically.
FIG. 13 is a diagram for explaining a technique for realizing a change in weather (time zone).
FIG. 14 is a diagram for explaining a technique for providing a connection region;
FIG. 15 is a flowchart for explaining a detailed processing example of the present embodiment;
FIG. 16 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.
FIGS. 17A and 17B are diagrams illustrating examples of various types of apparatuses to which the present embodiment is applied.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 Operation part 12 Display part 16 Riding housing | casing 17 Saddle 18 Display 20 Mobile body (bicycle)
30 pedal 32 handle 40 course 42 start 44 goal 50 farthest view object 52 end face 54 (54-1 to 54-4) side face 60 texture 62 original image area 70 boundary 80 first area 82 second area 84 connection area 100 processing Unit 110 game calculation unit 112 moving object calculation unit 114 mapping unit 150 image generation unit 190 information storage medium

Claims (6)

背景を表示するための最遠景オブジェクトを含む複数のオブジェクトが配置されるオブジェクト空間内の所与の視点での画像を生成する画像生成装置であって、
マッピング前の画像が定義される空間内において、マッピング後の画像に対応する原像領域をリアルタイムに移動させる処理を行う領域移動処理手段と、
移動する前記原像領域にある画像を前記最遠景オブジェクトにマッピングするマッピング手段と、
前記最遠景オブジェクトが、前記原像領域がリアルタイムに移動しながら画像がマッピングされる第1の面と、前記原像領域がリアルタイムに移動せずに画像がマッピングされる第2の面とを含み、前記第1の面の色を、前記第1、第2の面の境界に近づくにつれて該境界の色に近づくように変化させると共に、前記第2の面の色を、前記境界に近づくにつれて該境界の色に近づくように変化させる処理を行う色変化処理手段と、
オブジェクト空間内の所与の視点での画像であって、前記最遠景オブジェクトの画像を含む画像を生成する画像生成手段とを含むことを特徴とする画像生成装置。
An image generation device that generates an image at a given viewpoint in an object space in which a plurality of objects including a farthest view object for displaying a background are arranged,
In a space where an image before mapping is defined, an area movement processing means for performing processing for moving an original image area corresponding to the image after mapping in real time;
Mapping means for mapping an image in the moving original image area to the farthest object;
The farthest view object includes a first surface on which an image is mapped while the original image area moves in real time, and a second surface on which the image is mapped without moving the original image area in real time. The color of the first surface is changed so as to approach the boundary color as it approaches the boundary between the first and second surfaces, and the color of the second surface is changed as it approaches the boundary. Color change processing means for performing processing to change the color so as to approach the boundary color;
An image generation apparatus comprising: an image generation unit configured to generate an image at a given viewpoint in an object space and including an image of the farthest view object.
請求項において、
前記色変化処理手段が、
前記第1、第2の面の色を前記境界の色に近づける処理を、グーローシェーディング及びデプスキューイングの少なくとも一方により行うことを特徴とする画像生成装置。
In claim 1 ,
The color change processing means
An image generating apparatus, wherein the process of bringing the colors of the first and second surfaces closer to the color of the boundary is performed by at least one of Gouraud shading and depth cueing.
請求項1又は2において、
前記第1の面が、同心円状に配置されたプリミティブ面により形成されていることを特徴とする画像生成装置。
In claim 1 or 2 ,
The image generating apparatus according to claim 1, wherein the first surface is formed by primitive surfaces arranged concentrically.
請求項1〜3のいずれかにおいて、
マッピング前の画像が定義される前記空間内に、第1の天候又は第1の時間帯を表現するための画像が定義される第1の領域と、第2の天候又は第2の時間帯を表現するための画像が定義される第2の領域とが設けられ、
前記領域移動処理手段が、前記原像領域を、前記第1の領域から前記第2の領域に移動させることを特徴とする画像生成装置。
In any one of claims 1 to 3,
In the space where the image before mapping is defined, a first region where an image for expressing the first weather or the first time zone is defined, and a second weather or the second time zone are defined. A second region in which an image to be expressed is defined,
The image generation apparatus characterized in that the area movement processing means moves the original image area from the first area to the second area.
請求項において、
マッピング前の画像が定義される前記空間内に、前記第1の天候又は前記第1の時間帯から前記第2の天候又は前記第2の時間帯への変化を表現するための繋ぎ画像が定義される繋ぎ領域が設けられ、
前記領域移動処理手段が、前記原像領域を、前記繋ぎ領域を介して前記第1の領域から前記第2の領域に移動させることを特徴とする画像生成装置。
In claim 4 ,
In the space in which the image before mapping is defined, a connection image for expressing the first weather or the change from the first time zone to the second weather or the second time zone is defined. A connecting area is provided,
The image generation apparatus, wherein the area movement processing unit moves the original image area from the first area to the second area via the connection area.
背景を表示するための最遠景オブジェクトを含む複数のオブジェクトが配置されるオブジェクト空間内の所与の視点での画像を生成するための、コンピュータ読み取り可能な情報記憶媒体であって、
マッピング前の画像が定義される空間内において、マッピング後の画像に対応する原像領域をリアルタイムに移動させる処理を行う領域移動処理手段と、
移動する前記原像領域にある画像を前記最遠景オブジェクトにマッピングするマッピング手段と、
前記最遠景オブジェクトが、前記原像領域がリアルタイムに移動しながら画像がマッピングされる第1の面と、前記原像領域がリアルタイムに移動せずに画像がマッピングされる第2の面とを含み、前記第1の面の色を、前記第1、第2の面の境界に近づくにつれて該境界の色に近づくように変化させると共に、前記第2の面の色を、前記境界に近づくにつれて該境界の色に近づくように変化させる処理を行う色変化処理手段と、
オブジェクト空間内の所与の視点での画像であって、前記最遠景オブジェクトの画像を含む画像を生成する画像生成手段として、
コンピュータを機能させるプログラムを記憶した情報記憶媒体。
A computer-readable information storage medium for generating an image at a given viewpoint in an object space in which a plurality of objects including a farthest object for displaying a background are arranged,
In a space where an image before mapping is defined, an area movement processing means for performing processing for moving an original image area corresponding to the image after mapping in real time;
Mapping means for mapping an image in the moving original image area to the farthest object;
The farthest view object includes a first surface on which an image is mapped while the original image area moves in real time, and a second surface on which the image is mapped without moving the original image area in real time. The color of the first surface is changed so as to approach the boundary color as it approaches the boundary between the first and second surfaces, and the color of the second surface is changed as it approaches the boundary. Color change processing means for performing processing to change the color so as to approach the boundary color;
As an image generation means for generating an image at a given viewpoint in the object space and including an image of the farthest view object,
An information storage medium storing a program that causes a computer to function.
JP35247797A 1997-12-05 1997-12-05 Image generating apparatus and information storage medium Expired - Lifetime JP4056021B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35247797A JP4056021B2 (en) 1997-12-05 1997-12-05 Image generating apparatus and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35247797A JP4056021B2 (en) 1997-12-05 1997-12-05 Image generating apparatus and information storage medium

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2007272487A Division JP4245643B2 (en) 2007-10-19 2007-10-19 Image generating apparatus and information storage medium
JP2007272486A Division JP4245642B2 (en) 2007-10-19 2007-10-19 Image generating apparatus and information storage medium

Publications (2)

Publication Number Publication Date
JPH11175748A JPH11175748A (en) 1999-07-02
JP4056021B2 true JP4056021B2 (en) 2008-03-05

Family

ID=18424344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35247797A Expired - Lifetime JP4056021B2 (en) 1997-12-05 1997-12-05 Image generating apparatus and information storage medium

Country Status (1)

Country Link
JP (1) JP4056021B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3306397B2 (en) 1999-11-25 2002-07-24 株式会社ソニー・コンピュータエンタテインメント Entertainment device, image generation method, and storage medium
JP4530312B2 (en) * 2000-07-27 2010-08-25 株式会社バンダイナムコゲームス GAME SYSTEM AND INFORMATION STORAGE MEDIUM
US7002591B1 (en) * 2000-08-23 2006-02-21 Nintendo Co., Ltd. Method and apparatus for interleaved processing of direct and indirect texture coordinates in a graphics system
JP4577968B2 (en) * 2000-09-20 2010-11-10 株式会社バンダイナムコゲームス GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP3549871B2 (en) 2001-07-27 2004-08-04 株式会社ソニー・コンピュータエンタテインメント Drawing processing apparatus and method, recording medium storing drawing processing program, drawing processing program
JP4688405B2 (en) * 2003-02-07 2011-05-25 株式会社バンダイナムコゲームス PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP4688407B2 (en) * 2003-04-28 2011-05-25 株式会社バンダイナムコゲームス Information storage medium and game device
JP2005329020A (en) * 2004-05-20 2005-12-02 Samii Kk Game machine
JP4748782B2 (en) * 2005-09-21 2011-08-17 サミー株式会社 Moving image display device and moving image display program
JP4721476B2 (en) * 2009-12-07 2011-07-13 株式会社バンダイナムコゲームス Image generation system and information storage medium
JP5242838B1 (en) * 2012-09-13 2013-07-24 株式会社プレミアムエージェンシー Video processing program and video processing apparatus
JP6473872B2 (en) * 2015-07-31 2019-02-27 公立大学法人広島市立大学 Video construction device, pseudo-visual experience system, and video construction program
JP7223610B2 (en) * 2019-03-22 2023-02-16 任天堂株式会社 Image processing program, image processing system, image processing apparatus, and image processing method

Also Published As

Publication number Publication date
JPH11175748A (en) 1999-07-02

Similar Documents

Publication Publication Date Title
JP4056021B2 (en) Image generating apparatus and information storage medium
JP4707080B2 (en) Image generation system, program, and information storage medium
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP2002216158A (en) Image generation system, program and information storage medium
JP3280355B2 (en) Image generation system and information storage medium
JP3990258B2 (en) Image generation system, program, and information storage medium
JP4749198B2 (en) Program, information storage medium, and image generation system
JP4167358B2 (en) Image generation system and information storage medium
JP4743770B2 (en) Image generation system, program, and information storage medium
JP4447000B2 (en) Image generation system, program, and information storage medium
US7796132B1 (en) Image generation system and program
JP4245356B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2003079942A (en) Game information, information storage medium, and game device
JP4303395B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4245643B2 (en) Image generating apparatus and information storage medium
JP4245642B2 (en) Image generating apparatus and information storage medium
JP4187192B2 (en) Image generation system, program, and information storage medium
JP2005209217A (en) Game system and information storage medium
JP4266121B2 (en) Image generation system, program, and information storage medium
JP2004341570A (en) Image generation system, program and information storage medium
JP3254195B2 (en) Image generation system and information storage medium
JP4229317B2 (en) Image generation system, program, and information storage medium
JP2006318196A (en) Program, information storage medium and image generation system
JP2006318387A (en) Program, information storage medium, and image forming system
JP2003275460A (en) Game device and information storage medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070822

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071210

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111221

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111221

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121221

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121221

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131221

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term