JP3752081B2 - 3D simulator apparatus and image composition method - Google Patents

3D simulator apparatus and image composition method Download PDF

Info

Publication number
JP3752081B2
JP3752081B2 JP22648798A JP22648798A JP3752081B2 JP 3752081 B2 JP3752081 B2 JP 3752081B2 JP 22648798 A JP22648798 A JP 22648798A JP 22648798 A JP22648798 A JP 22648798A JP 3752081 B2 JP3752081 B2 JP 3752081B2
Authority
JP
Japan
Prior art keywords
texture
information
image
virtual
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP22648798A
Other languages
Japanese (ja)
Other versions
JPH11134514A (en
Inventor
浩行 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP6219418A external-priority patent/JP2846252B2/en
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP10226488A priority Critical patent/JPH11134515A/en
Priority to JP22648798A priority patent/JP3752081B2/en
Publication of JPH11134514A publication Critical patent/JPH11134514A/en
Application granted granted Critical
Publication of JP3752081B2 publication Critical patent/JP3752081B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、仮想3次元空間をシミュレートできる3次元シミュレータ装置及びこれに用いられる画像合成方法に関する。
【0002】
【背景技術】
従来、例えば3次元ゲームあるいは飛行機及び各種乗り物の操縦シミュレータ等に使用される3次元シミュレータ装置として種々のものが知られている。このような3次元シミュレータ装置では、図20(A)に示す3次元物体300に関する画像情報が、あらかじめ装置に記憶されている。この3次元物体300は、プレーヤ(観者)302がスクリーン306を介して見ることができる風景等の表示物を表すものである。そして、この表示物である3次元物体300の画像情報をスクリーン306上に透視投影変換することにより疑似3次元画像(投影画像)308をスクリーン306上に画像表示している。この装置では、プレーヤ302が、操作パネル304により回転、並進等の操作を行うと、この操作信号に基づいて所定の3次元演算処理が行われる。具体的には、まず、操作信号によりプレーヤ302の視点位置、視線方向あるいはプレーヤ302の搭乗する移動体の位置、方向等がどのように変化するかを求める演算処理が行われる。次に、この視点位置、視線方向等の変化に伴い、3次元物体300の画像がスクリーン306上でどのように見えるかを求める演算処理が行われる。そして、以上の演算処理はプレーヤ302の操作に追従してリアルタイムで行われる。これによりプレーヤ302は、自身の視点位置、視線方向の変化あるいは自身の搭乗する移動体の位置、方向の変化に伴う風景等の変化を疑似3次元画像としてリアルタイムに見ることが可能となり、仮想的な3次元空間を疑似体験できることとなる。
【0003】
図20(B)には、以上のような3次元シミュレータ装置により形成される表示画像の一例が示される。
【0004】
【発明が解決しようとする課題】
さて、このような3次元シミュレータ装置では、表示物を多数のポリゴンを組み合わせることで表現している。例えばレーシングカーゲームにおけるタイヤを例にとれば、タイヤの側面、タイヤの走行面の各々は複数のポリゴンを組み合わせることで構成される。更に、表示される画像を高品質にするためにテクスチャマッピングと呼ばれる手法が用いられる。このテクスチャマッピング手法では、表示物を構成するポリゴンにテクスチャを施し、これによりリアルな表示画像を得ようとするものである。タイヤを例に取れば、タイヤの側面に対しては文字、ホイール等を表すテクスチャがマッピングされる。また、タイヤの走行面に対してはタイヤのグリップ面を表すテクスチャがマッピングされる。そして、従来は、1つの表示物に対して1種類のテクスチャのみが用意されていた。
【0005】
しかし、例えばタイヤの側面に文字のテクスチャをマッピングする場合を例にとると、以下の問題が生じる。即ち、3次元シミュレータ装置がシミュレートする現実の世界においては、タイヤが回転すると文字がタイヤの回転方向に流れてゆき、回転が速くなると文字の輪郭もぼやけてくるはずである。しかし、3次元シミュレータ装置によりこの現象をシミュレートしようとしても、文字の輪郭についてはぼやけてこないことが判明した。その理由は、このような3次元シミュレータ装置では処理速度の関係から、現実の世界と異なり例えば(1/60)秒毎に画像が生成されていることに起因する。従って、単にタイヤの側面に文字のテクスチャを施しタイヤを高速に回転させても、現実の世界で起こる文字の輪郭のぼやけについてはリアルにシミュレートできないという問題があった。
【0006】
また、例えばタイヤの走行面にグリップ面を表すテクスチャをマッピングする場合を例にとると、以下の問題が生じる。即ち、例えばレーシングカーが操作ミスにより砂利道等にコースアウトした場合には、現実の世界においては、タイヤの走行面に砂利、砂等が付着してタイヤの走行面の状態が変化するはずである。ところが従来の3次元シミュレータ装置では1つの表示物に対して1つのテクスチャしか用意されていなかった。このため、このようなタイヤの走行面の状態の変化を表現することができず、現実の世界で起こる現象をリアルにシミュレートできないという問題があった。
【0007】
本発明は、以上のような技術的課題を解決するためになされたものであり、その目的とするところは、シミュレーション状況により表示物の表面の状態が変化するような場合においても現実の世界をリアルにシミュレートできる3次元シミュレータ装置を提供することにある。
【0008】
また本発明の他の目的は、表示物の速度、回転速度が変化した場合においても現実の世界をリアルにシミュレートできる3次元シミュレータ装置を提供することにある。
【0009】
【課題を解決するための手段】
上記課題を解決するために、本発明は、仮想3次元空間において観者から見える視界画像を合成する画像合成手段を少なくとも含む3次元シミュレータ装置であって、
前記画像合成手段が、前記表示物にテクスチャをマッピングするための演算を行うテクスチャ演算手段と、該テクスチャ演算手段においてマッピングされるテクスチャの情報を記憶するテクスチャ情報記憶手段とを含み、
前記テクスチャ情報記憶手段には同一の表示物に対応して複数種類のテクスチャ情報が記憶され、表示物にマッピングするテクスチャ情報の種類をシミュレーション状況により変化する表示物の表面の状態に応じて変更する手段を含むことを特徴とする。
【0010】
本発明によれば、表示物、例えばタイヤの走行面にマッピングされるものとして複数種類のテクスチャ情報が記憶される。例えば、通常路面用のテクスチャ情報、砂利道エリア用のテクスチャ情報が記憶される。そして、シミュレーション状況に応じて、タイヤの走行面にマッピングされるテクスチャ情報の種類が変更される。これにより、レーシングカーが通常路面を走行している場合にはタイヤの走行面が通常状態となり、レーシングカーが砂利道エリアに進入した場合にはタイヤの走行面が砂利、砂等が付着した状態になるような表現が可能となる。これにより、シミュレーションの演出効果を更に増すことができる。この場合のテクスチャ情報の種類の変更手段を設ける場所は任意である。
【0011】
また本発明は、仮想3次元空間を構成する表示物のオブジェクトナンバー、位置情報、方向情報が含まれるオブジェクト情報を記憶する手段と、該オブジェクト情報の設定を行うことで仮想3次元空間を形成する演算を行う仮想3次元空間演算手段と、前記オブジェクトナンバーにより指定されるオブジェクトの画像情報を記憶する手段と、前記オブジェクト情報と、該オブジェクト情報に含まれるオブジェクトナンバーにより読み出される前記画像情報とに基づいて観者から見える視界画像を合成する画像合成手段とを含む3次元シミュレータ装置であって、
前記画像合成手段が、前記表示物にテクスチャをマッピングするための演算を行うテクスチャ演算手段と、該テクスチャ演算手段においてマッピングされるテクスチャの情報を記憶するテクスチャ情報記憶手段とを含み、該テクスチャ情報記憶手段には同一の表示物に対応して異なる複数種類のテクスチャ情報が記憶され、
前記仮想3次元空間演算手段が、表示物のオブジェクトナンバーをシミュレーション状況により変化する表示物の表面の状態に応じて変更する手段を含み、
前記オブジェクト画像情報記憶手段では、シミュレーション状況により変化する表示物の表面の状態に応じて変更されるオブジェクトナンバーにより指定されるオブジェクトについてはマッピングされるテクスチャ情報の前記種類が異なるように前記画像情報が記憶されることを特徴とする。
【0012】
本発明によれば、表示物、例えばタイヤの表面がシミュレーション状況により変化するのに応じてタイヤオブジェクトを指定するためのオブジェクトナンバーが変更される。例えば、通常路面走行の場合には通常路面走行に対応したタイヤオブジェクトが、砂利道エリア走行の場合は砂利道エリア走行に対応したタイヤオブジェクトが指定されるようにオブジェクトナンバーが変更される。そして、変更されたオブジェクトナンバーにより、オブジェクト画像情報記憶手段から対応するオブジェクトの画像情報が読み出される。この場合、例えば通常路面走行に対応したタイヤオブジェクトの画像情報は通常のグリップ面を表すテクスチャ情報を読み出せるように、また、砂利道エリア走行に対応したタイヤオブジェクトの画像情報は砂利、砂等が付着したグリップ面を表すテクスチャ情報を読み出せるようになっている。このように発明によれば、オブジェクトナンバーを変更するという非常に簡易な処理で、表示物にマッピングされるテクスチャ情報の種類を変更できる。
【0013】
また、本発明は、上記のいずれかにおいて、前記変更手段が、前記シミュレーション状況により変化する表示物の表面の状態に応じて前記変更を段階的に行うことを特徴とする。
【0014】
本発明によれば、例えば表示物をタイヤとした場合には、例えば砂利道エリアでの走行距離に応じて表示物にマッピングするテクスチャ情報の種類を段階的に変更できる。これにより、走行距離が長くなるほど多くの砂利、砂がタイヤに付着されるような表現が可能となる。従って、シミュレーションのリアル感を更に増すことが可能となる。
【0015】
また本発明は、仮想3次元空間において観者から見える視界画像を合成する画像合成手段を少なくとも含む3次元シミュレータ装置であって、
前記画像合成手段が、前記表示物にテクスチャをマッピングするための演算を行うテクスチャ演算手段と、該テクスチャ演算手段においてマッピングされるテクスチャの情報を記憶するテクスチャ情報記憶手段とを含み、
前記テクスチャ情報記憶手段には同一の表示物に対応して複数種類のテクスチャ情報が記憶され、表示物にマッピングするテクスチャ情報の種類を表示物の速度、回転速度に応じて変更する手段を含むことを特徴とする。
【0016】
本発明によれば、表示物、例えばタイヤの側面にマッピングされるものとして複数種類のテクスチャ情報が記憶される。例えば、停止状態用のテクスチャ情報、高速回転状態(あるいは高速走行状態)用のテクスチャ情報が記憶される。そして、例えばタイヤの回転速度に応じて、タイヤの側面にマッピングされるテクスチャ情報の種類が変更される。これにより、タイヤが停止状態の時にははっきりした輪郭の文字を、タイヤが高速回転状態の場合にはぼやけた輪郭の文字をタイヤの側面に表すことができる。この場合、マッピングするテクスチャ情報の種類の変更手段は、例えば仮想3次元空間の形成の演算を行う仮想3次元空間演算手段に含ませてもよいし、画像合成手段に含ませてもよい。また、両者に含ませてもよい。また、表示物の速度、回転速度から観者と表示物との相対速度、相対回転速度を求め、これに応じてテクスチャ情報の種類を変更することも本発明に含まれる。
【0017】
また、本発明は、仮想3次元空間を構成する表示物のオブジェクトナンバー、位置情報、方向情報が含まれるオブジェクト情報を記憶する手段と、該オブジェクト情報の設定を行うことで仮想3次元空間を形成する演算を行う仮想3次元空間演算手段と、前記オブジェクトナンバーにより指定されるオブジェクトの画像情報を記憶する手段と、前記オブジェクト情報と、該オブジェクト情報に含まれるオブジェクトナンバーにより読み出される前記画像情報とに基づいて観者から見える視界画像を合成する画像合成手段とを含む3次元シミュレータ装置であって、
前記画像合成手段が、前記表示物にテクスチャをマッピングするための演算を行うテクスチャ演算手段と、該テクスチャ演算手段においてマッピングされるテクスチャの情報を記憶するテクスチャ情報記憶手段とを含み、該テクスチャ情報記憶手段には同一の表示物に対応して異なる複数種類のテクスチャ情報が記憶され、
前記仮想3次元空間演算手段が、表示物のオブジェクトナンバーを表示物の速度、回転速度に応じて変更する手段を含み、
前記オブジェクト画像情報記憶手段では、表示物の速度、回転速度に応じて変更されるオブジェクトナンバーにより指定されるオブジェクトについてはマッピングされるテクスチャ情報の前記種類が異なるように前記画像情報が記憶されることを特徴とする。
【0018】
本発明によれば、表示物、例えばタイヤの回転速度等に応じてタイヤオブジェクトを指定するためのオブジェクトナンバーが変更される。例えば、タイヤが停止状態の場合には停止状態用のタイヤオブジェクトを、高速回転状態の場合は高速回転状態用のタイヤオブジェクトを指定するようにオブジェクトナンバーが変更される。そして、変更されたオブジェクトナンバーにより、オブジェクト画像情報記憶手段から対応するオブジェクトの画像情報が読み出される。この場合、例えば停止状態用のタイヤオブジェクトの画像情報は、停止状態用のテクスチャ情報を読み出すように、また、高速回転状態用のタイヤオブジェクトの画像情報は、高速回転状態用のテクスチャ情報を読み出すようになっている。これは、例えば画像情報に含まれるテクスチャ座標(テクスチャ情報を指定する情報)を異ならせることで実現できる。
【0019】
また、本発明は、上記のいずれかにおいて、前記変更手段が、表示物の速度、回転速度に応じて前記変更を段階的に行うことを特徴とする。
【0020】
本発明によれば、例えば表示物をタイヤとした場合には、停止状態用、高速回転状態用のみならず、低速回転状態用、中速回転状態用等というように、段階的にマッピングするテクスチャ情報を変更できる。
【0021】
【発明の実施の形態】
1.ゲームの概要
まず、本3次元シミュレータ装置で実現される3次元ゲームの一例について簡単に説明する。
【0022】
図2には、本3次元シミュレータ装置の一例が示される。図2の3次元シミュレータ装置では、複数の独立したシミュレータ装置(ゲーム装置)1−1、1−2、1−3、1−4がデータ伝送ラインを介して互いに接続されている。これにより、プレーヤの操縦するプレーヤレーシングカーが、相手プレーヤの操縦するレーシングカーや、コンピュータにより操縦されるコンピューターカ−と順位を競い合うというレーシングカーゲームを実現できる。
【0023】
ここで、独立したシミュレータ装置1−1、1ー2、1−3、1−4というのは、各シミュレータ装置が各々独立にシングルプレーヤゲームを行うことができるように形成されていることを意味する。もちろん、データ伝送ラインを介し、相手プレーヤとの間で、同一のゲーム空間内においてマルチプレーヤ型ゲームを行うという構成とすることもできる。
【0024】
図2に示すようにこの各シミュレータ装置は、実際のレーシングカーの運転席と同様に形成されている。そして、プレーヤは、シート18に着座し、ディスプレイ10に映し出されたゲーム画面(レーシングカーの運転席から見える風景の疑似3次元画像)を見ながら、操作部12に設けられたハンドル14、アクセル15、シフトレバー16等を操作して架空のレーシングカーを運転してゲームを行う。
【0025】
なお、図2の3次元シミュレータ装置は、マルチプレーヤ型ゲーム構成となっているが、本発明はこれに限らず1人プレーヤ構成の場合にも当然に適用できる。
【0026】
図3には、本3次元ゲームにおける仮想3次元空間の一例が示される。このように、本3次元ゲームにおける仮想3次元空間には、3次元的に形成されたコース20が配置されている。そして、コース20の周辺には、ビル60、アーチ62、スタンド64、崖66、壁68、トンネル70、木72、ブリッジ74等の3次元オブジェクトが配置されている。プレーヤはこれらのコース等が映し出されたディスプレイ10を見ながらレーシングカーを操作する。そして、スタートポイント76からスタートして、コース20を周回し、所定回数コースを周回するとゴールとなり、プレーヤの順位が決定される。
【0027】
図4、図5には、本3次元ゲームにおいてディスプレイ10上に映し出されるゲーム画面の一例が示される。プレーヤはこのゲーム画面を見ながらプレーヤカー51を操作し、相手レーシングカー52、コンピュータカー53等と競争を行う。なお、図4、図5では、プレーヤの視点はプレーヤカーの後方に設定されているが、運転席の位置にプレーヤの視点を設定してもかまわない。
【0028】
さて、図4において、相手レーシングカー52のタイヤ30には文字40のテクスチャが施されている。そして、この場合、相手レーシングカー52は高速で走行しておりタイヤ30は高速で回転している。そこで、本実施形態では、この場合には輪郭のぼやけた文字40のテクスチャをタイヤの側面に施している。これにより、ディスプレイに映し出されるゲーム画面を非常にリアルなものとすることができる。なお、本実施形態においては、例えばスタート時においてレーシングカーが停止している場合には、停止した文字のテクスチャがタイヤ30に対してマッピングされる。また、レーシングカーの走行速度が速くなりタイヤの回転速度が速くなると、輪郭はぼやけていないがタイヤの回転方向に流れるように表現された文字のテクスチャがタイヤ30に対してマッピングされる。そして、更に回転速度が速くなると、図4のように輪郭がぼやけた文字のテクスチャがタイヤ30に対してマッピングされることになる。このように本実施形態では、タイヤの回転速度(あるいはレーシングカーの走行速度)に応じて段階的にタイヤにマッピングするテクスチャの種類を変更しているため、よりリアルな表示画像を得ることができる。
【0029】
図5には、プレーヤの操作ミスによりプレーヤカー51が砂利道エリア26にコースアウトした場合のゲーム画面が示される。このようにレーシングカーが砂利道エリア26に進入した場合には、現実の世界ではタイヤ30に砂利、砂等が付着してタイヤは白っぽくなるはずである。そこで、本実施形態では、レーシングカーが砂利道エリア26に進入した場合に、図5に示すようタイヤ30にマッピングするテクスチャを変更している。これにより、図4では真っ黒であったタイヤ30の走行面が、図5では少し白っぽくなり、リアルなゲーム画面を得ることができる。なお、この場合にも上記の文字の場合と同様に、例えば砂利道エリア26を走行した距離等に応じてタイヤ30に対してマッピングするテクスチャの種類を段階的に変更している。これにより、表示画面のリアル感を更に増すことができる。
【0030】
2.装置全体の説明
図1には、本発明に係る3次元シミュレータ装置の実施形態のブロック図が示される。
【0031】
図1に示すように、本3次元シミュレータ装置は、プレーヤが操作信号を入力する操作部12、所定のゲームプログラムにより仮想3次元空間設定のための演算を行う仮想3次元空間演算部100、プレーヤの視点位置における疑似3次元画像を形成する画像合成部200、及びこの疑似3次元画像を画像出力するディスプレイ10を含んで構成される。
【0032】
操作部12には、例えば本3次元シミュレータ装置をレーシングカーゲームに適用した場合には、レーシングカーを運転するためのハンドル14、アクセル15等が接続され、これにより操作信号が入力される。
【0033】
仮想3次元空間演算部100では、図3に示す仮想3次元空間における複数の表示物、例えばコース20、ビル60、アーチ62、スタンド64、崖66、プレーヤレーシングカー、相手レーシングカー、コンピューターカー等の位置あるいは位置及び方向を設定する演算が行われる。この演算は、操作部12からの操作信号や、あらかじめ設定記憶されているマップ情報等に基づいて行われる。
【0034】
そして、画像合成部200では、仮想3次元空間演算部100からの演算結果に基づいて仮想3次元空間における任意の視点からの視界画像を合成する演算が行われる。そして、合成された視界画像はディスプレイ10より出力される。
【0035】
さて、本実施形態では、画像合成部200がテクスチャ演算部230とテクスチャ情報記憶部242とを含んでいる。ここで、テクスチャ演算部230は、表示物にテクスチャをマッピングするための演算を行うものである。また、テクスチャ情報記憶部242にはテクスチャ演算部230においてマッピングされるテクスチャの情報が記憶されている。このテクスチャ情報は、例えばタイヤの側面にマッピングする文字・ホイールの模様、タイヤの走行面にマッピングするグリップ面の模様等を表すものである。そして、テクスチャ情報記憶部242には、同一の表示物、例えば1つのタイヤに対して複数種類のテクスチャ情報が記憶されている。具体的には、タイヤの側面にマッピングするものとして、停止状態用の文字・ホイールを表すテクスチャ情報、タイヤの回転により輪郭がややぼやけた文字・ホイールを表すテクスチャ情報、タイヤの回転方向に流れるように完全にぼやけた文字・ホイールを表すテクスチャ情報等が記憶されている。また、タイヤの走行面にマッピングするものとして、真っ黒なグリップ面を表すテクスチャ情報、砂利等が付着して白っぽくなったグリップ面を表すテクスチャ情報、更に白っぽくなったグリップ面を表すテクスチャ情報等が記憶されている。そして、更に、本実施形態の3次元シミュレータ装置は、例えばタイヤの側面にマッピングされるテクスチャ情報の種類を、タイヤの回転速度あるいはレーシングカーの走行速度等に応じて変更する手段を含む。同様に、タイヤの走行面にマッピングされるテクスチャ情報の種類を、シミュレーション(ゲーム)状況により変化するタイヤの表面の状態に応じて変更する手段も含む。即ち、例えばレーシングカーがコースアウトして砂利道エリアに進入するというシミュレーション状況により表示物であるタイヤの走行面の状態が白っぽく変化する場合には、白っぽいグリップ面を表すテクスチャ情報をタイヤの走行面に対してマッピングすることになる。なお、これらの変更手段は、仮想3次元空間演算部102に含ませてもよいし、画像合成部200に含ませてもよく、また両者に含ませてもよい。
【0036】
次に、仮想3次元空間演算部100、画像合成部200の具体的構成の一例について説明する。図6には、仮想3次元空間演算部100のブロック図の一例が示され、図9、図12には画像合成部200のブロック図の一例が示される。
【0037】
なお、本発明における仮想3次元空間演算手段、画像合成手段の構成としては、図6、図9、図12に示すものに限らず、あらゆる種類の構成を採用することができる。
【0038】
3.仮想3次元空間演算部についての説明
図6に示すように、仮想3次元空間演算部100は、処理部102、仮想3次元空間設定部104、移動情報演算部106、オブジェクト情報記憶部108を含んで構成される。
【0039】
ここで、処理部102では、3次元シミュレータ装置全体の制御が行われる。また、処理部102内に設けられた記憶部には、所定のゲームプログラムが記憶されている。仮想3次元空間演算部100は、このゲームプログラム及び操作部12からの操作信号にしたがって仮想3次元空間設定の演算を行うことになる。移動情報演算部106では、操作部12からの操作信号及び処理部102からの指示等にしたがって、レーシングカーの移動情報が演算される。
【0040】
オブジェクト情報記憶部108には、仮想3次元空間を構成する物体の数だけの記憶格納エリアがあり、各エリアには該物体の位置情報・方向情報及びこの位置に表示すべき(すなわち該物体に適用すべき)オブジェクトのオブジェクトナンバーが記憶されている(以下、この記憶された位置情報・方向情報及びオブジェクトナンバーをオブジェクト情報と呼ぶ)。図7には、オブジェクト情報記憶部108に記憶されるオブジェクト情報の一例が示される。また、図8には、これらのオブジェクト情報に含まれる位置情報、方向情報(Xm、Ym、Zm、θm、φm、ρm)と絶対座標系(Xw、Yw、Zw)の関係が示される。
【0041】
また、これらのオブジェクトは図8に示すように多角形のポリゴンの集合で表現されている。
【0042】
オブジェクト情報記憶部108に記憶されているオブジェクト情報は、仮想3次元空間設定部104により読み出される。この場合、オブジェクト情報記憶部108には、当該フレームの1つ前のフレームにおけるオブジェクト情報が記憶されている。そして、仮想3次元空間設定部104では、読み出されたオブジェクト情報と、移動情報演算部106で演算された移動情報とに基づいて、当該フレームにおけるオブジェクト情報(位置情報、方向情報)が求められる。なお、静止物体についてはこのような移動情報はなく、オブジェクト情報は変化しないのでこのような処理は必要ない。
【0043】
このようにして、仮想3次元空間設定部104では、当該フレームにおける仮想3次元空間を構成する全ての物体のオブジェクト情報が設定されることになる。なお、マップ設定部110は、仮想3次元空間上に分割されたマップを表示する場合の表示に必要な部分だけのマップの選択設定を行うものである。
【0044】
さて、本実施形態では、表示物にマッピングするテクスチャ情報の変更を、図7に示すオブジェクト情報の中のオブジェクトナンバーを変更することにより行っている。例えば、タイヤの回転速度(あるいはレーシングカーの走行速度)に応じて、タイヤの側面にマッピングするオブジェクト情報を変更する場合を考える。この場合には、まず、タイヤの回転速度(あるいはレーシングカーの走行速度)が、移動情報演算部106あるいは仮想3次元空間設定部104における演算処理により求められる。そして、タイヤの回転が停止もしくは低速で回転していると判断された場合には、停止状態用のタイヤオブジェクトを指定するようにタイヤのオブジェクトナンバーが変更される。同様に、タイヤが中速あるいは高速で回転していると判断された場合には、中速回転状態用、高速回転状態用のタイヤオブジェクトを指定するようにタイヤのオブジェクトナンバーが変更される。画像合成部200内のオブジェクト画像情報記憶部212には、1つのタイヤに対応して複数種類のタイヤオブジェクトの画像情報が記憶されている。そして、これらの複数種類のタイヤオブジェクトのいずれを選択するかは、上記のオブジェクトナンバーにより指定される。例えば、このオブジェクトナンバーの指定により停止状態用のタイヤオブジェクトが選択されると、停止状態用のタイヤオブジェクトの画像情報がオブジェクト画像情報記憶部212から読み出される。この停止状態用のタイヤオブジェクトでは、タイヤ側面にマッピングされる文字、ホイールが停止して見えるようにテクスチャ座標(テクスチャ情報を読み出すための座標)の指定が行われている。また、低速で回転しているタイヤの側面については、この停止状態用のタイヤオブジェクトを回転させることで表現することが可能である。
【0045】
同様に、中速、高速回転状態用のタイヤオブジェクトでは、ポリゴン形状は同じであるが、文字、ホイールの輪郭がぼけて見えるような、あるいは、回転方向に流れて見えるようなテクスチャがマッピングされるようにテクスチャ座標の指定が行われている。このように、本実施形態によれば、オブジェクトナンバーを変更することで、タイヤにマッピングするテクスチャ情報を変更することが可能となる。
【0046】
シミュレーション(ゲーム)状況に応じてタイヤの走行面にマッピングするオブジェクト情報を変更する場合も同様の手法を採用する。即ち、移動情報演算部106あるいは仮想3次元空間設定部104における演算処理により、レーシングカーが砂利道エリアに進入したか否か、あるいは、砂利道エリア内でどれくらいの距離を走行したかが判断される。そして、これらの判断に基づいて、タイヤのオブジェクトナンバーが変更され、これによりオブジェクト画像情報記憶部212から読み出されるタイヤオブジェクトに対してマッピングされるテクスチャ情報が変更されることになる。
【0047】
4.画像供給部についての説明
画像供給部210は、図9に示すように、オブジェクト画像情報記憶部212、処理部215、座標変換部218、クリッピング処理部220、ポリゴンデータ変換部224、ソーティング処理部226を含んでいる。また、クリッピング処理部220は、透視投影変換部222を含んでいる。
【0048】
画像供給部210では、仮想3次元空間演算部100により設定された仮想3次元空間の設定情報にしたがって、各種の座標変換処理、3次元演算処理が行われる。
【0049】
即ち、まず、図10に示すように、レーシングカー、コース等を表すオブジェクト300、333、334について、それを構成するポリゴンを絶対座標(ワールド座標)系(XW 、YW 、ZW )で表現される仮想3次元空間上に配置するための演算処理が行われる。次に、これらの各オブジェクトについて、それを構成するポリゴンをプレーヤ302の視点を基準とした視点座標系(Xv、Yv、Zv)へ座標変換する処理が行われる。その後、いわゆるクリッピング処理が行われ、次に、スクリーン座標系(XS 、YS )への透視投影変換処理が行われる。次に、出力されるポリゴンフォーマットの変換処理が行われ、最後に、ソーティング処理が行われる。
【0050】
さて、本実施形態においては、位置情報、方向情報、オブジェクトナンバーを含むオブジェクト情報は、仮想3次元空間演算部100から処理部215へと転送される。そして、この転送されたオブジェクトナンバーをアドレスとして、オブジェクト画像情報記憶部212から対応するオブジェクトの画像情報が読み出される。即ち、例えばオブジェクトナンバーが停止状態用のタイヤオブジェクトを指定するものである場合は、停止状態用のタイヤオブジェクトを表す画像情報がオブジェクト画像情報記憶部212から読み出される。同様にオブジェクトナンバーが中速、高速回転状態用のタイヤオブジェクトを指定するものである場合は、中速、高速回転状態用のタイヤオブジェクトを表す画像情報がオブジェクト画像情報記憶部212から読み出される。オブジェクト画像情報記憶部212には、これらのタイヤの画像情報が複数のポリゴンの集合(多面体)として表現され格納されている。処理部215は、データフォーマット形成部217によりこの読み出されたデータからフレームデータ、オブジェクトデータ及びポリゴンデータを組にしたデータを形成して、座標変換部218以降へと順次転送する。
【0051】
ここで、フレームデータは、仮想3次元空間内でのプレーヤ302の視点位置、方向等のデータである。また、オブジェクトデータとは、オブジェクトの位置情報、回転情報、その他の付属データ等で構成されるデータをいう。また、ポリゴンデータとは、オブジェクトを構成するポリゴンについての画像情報であり、ポリゴンの頂点座標、頂点テクスチャ座標、頂点輝度情報、その他の付属データで構成されるデータをいう。これらのデータは、データフォーマット形成部217により、図11(A)、(B)に示すようなデータフォーマットに変換される。図11(A)に示すように、このデータフォーマットでは、フレームデータを先頭に、該フレームにおいて表示されるオブジェクトのデータが連なっている。そして、これらのオブジェクトデータを先頭に、該オブジェクトを構成するポリゴンのデータが連なっている。そして、これらの各々のポリゴンデータは、図11(B)に示すように、ヘッダと、ポリゴンの各頂点に与えられる頂点輝度情報、頂点テクスチャ座標、頂点座標とを含んでいる。
【0052】
本実施形態においては、停止状態用のタイヤオブジェクトと、中速、回転状態用のタイヤオブジェクトでは、図11(B)における頂点テクスチャ座標の値が異なるように設定されてる。この頂点テクスチャ座標は、後述するように、テクスチャ情報記憶部からテクスチャ情報を読み出す際のアドレス情報となるものである。従って、この頂点テクスチャ座標を異ならせれば、タイヤにマッピングされるテクスチャ情報も異なるものになることになる。
【0053】
5.画像形成部についての説明
画像形成部228は、このポリゴンの各頂点ごとに与えられた頂点画像情報に基づいてポリゴン内部の画像情報を演算して、これをディスプレイ10に出力するものであり、図12に示すように、テクスチャ演算部230、テクスチャ情報記憶部242、パレット&ミキサ回路244を含む。
【0054】
さて、本実施形態では、より高品質の画像をより効率よく画像合成すべく、テクスチャマッピング手法及びグーローシェーディング手法と呼ぶ手法により画像合成を行っている。以下、これらの手法の概念について簡単に説明する。
【0055】
図13には、テクスチャマッピング手法の概念について示される。
【0056】
図13に示すようなオブジェクト332の各面に例えば格子状、縞状の模様等が施されたものを画像合成する場合には、従来は、オブジェクトをポリゴン(1) 〜(80)(ポリゴン(41)〜(80)については図示せず)に分割し、これらの全てのポリゴンに対して画像処理を行っていた。その理由は、従来の画像合成装置では、1つのポリゴン内の色の塗りつぶしは、指定された一つの色でしか行えなかったためである。この結果、複雑な模様等が施された高品質な画像を合成する場合には、ポリゴン数が非常に増加してしまうため、実質的に、このような高品質の画像を合成することは不可能であった。
【0057】
そこで、本実施形態では、オブジェクト332の回転、並進、透視投影変換等の座標変換及びクリッピング等の処理を、各面を構成するポリゴンA、B、Cごとに行い(具体的には各ポリゴンの頂点ごと)、格子状、縞状の模様については、テクスチャとして取り扱い、ポリゴンの処理と分割して処理を行っている。即ち、図12に示すように画像形成部228内にはテクスチャ情報記憶部242が設けられ、この中には各3次元ポリゴンにマッピングすべきテクスチャ情報、つまり格子状、縞状の模様等の画像情報が記憶されている。
【0058】
そして、このテクスチャ情報を指定するテクスチャ情報記憶部242のアドレスを、各3次元ポリゴンの頂点テクスチャ座標VTX 、VTY として与えておく。具体的には、図13に示すように、ポリゴンAの各頂点に対しては、(VTX0、VTY0)、(VTX1、VTY1)、(VTX2、VTY2)、(VTX3、VTY3)の頂点テクスチャ座標が設定される。
【0059】
画像形成部228内のテクスチャ演算部230では、この頂点テクスチャ座標VTX 、VTY から、ポリゴン内の全てのドットについてのテクスチャ座標TX 、TY が求められる。そして、求められたテクスチャ座標TX 、TY により、テクスチャ情報記憶部242から対応するテクスチャ情報が読み出され、パレット&ミキサ回路244に出力される。これにより、図13に示すような、格子状、縞状等のテクスチャがマッピングされた3次元オブジェクトを画像合成することが可能となる。
【0060】
また、本実施形態では前記したようにオブジェクト332をポリゴンの固まりとして表現している。従って、各ポリゴンの境界における輝度情報の連続性が問題となる。例えば複数のポリゴンを用いて球を表現しようとする場合、ポリゴン内の全ドットが全て同じ輝度に設定されると、実際は「丸み」を表現したいのに、各ポリゴンの境界が「丸み」として表現されない事態が生じる。そこで、本実施形態では、グーローシェーディングと呼ばれる手法によりこれを回避している。この手法では、前記したテクスチャマッピング手法と同様に、3次元ポリゴンの各頂点に図13に示すように頂点輝度情報VBRI0 〜VBRI3を与えておき、画像形成部228で最終的に画像表示する際に、この頂点輝度情報VBRI0 〜VBRI3 より3次元ポリゴン内の全てのドットについての輝度情報を補間により求めている。
【0061】
さて、図14(A)〜(K)には、テクスチャマッピングについての演算処理の流れが視覚的に示されている。既に述べたように、画像形成部228では、ポリゴンの頂点画像情報に基づいて、ポリゴン内の全ての画像情報を形成する演算処理が行われる。この場合、ポリゴンにマッピングすべきテクスチャ情報は、テクスチャ情報記憶部242に記憶されており、このテクスチャ情報を読み出すために、テクスチャ座標TX 、TY が必要となる。そして、図14(F)、(G)、(H)、(I)には、ポリゴン内の全ての透視投影変換テクスチャ座標TX * 、TY * を求める演算処理の様子が視覚的に示されている。また、図14(B)、(C)、(D)、(E)には、テクスチャ情報を表示すべき座標である透視投影変換表示座標X* 、Y* を求める演算処理の様子が視覚的に示されている。以上の演算はテクスチャ演算部230により行われる。そして、図14(J)に示すように、演算された透視投影変換テクスチャ座標TX * 、TY * はテクスチャ座標TX 、TY に逆透視投影変換され、この逆透視投影変換されたテクスチャ座標TX 、TY により、テクスチャ情報記憶部242からテクスチャ情報が読み出される。最後に、図14(K)に示すように、演算されたX* 、Y* の座標位置に、読み出されたテクスチャ情報を対応づけることで、画像合成が行われることになる。なお、図15には、テクスチャ情報記憶部242により構成されるテクスチャ記憶平面の一例が示される。
【0062】
図16には、以上のようなテクスチャマッピングにより表現されたレーシングカー50の一例が示される。このようにテクスチャマッピングを施すことで、非常に高品質の表示画像を得ることができる。
【0063】
図17には、図16のレーシングカー50を構成するタイヤ30に適用されるオブジェクトの一例が示される。このようにタイヤオブジェクトは複数のポリゴンを組み合わせることで表現されている。なお、図17に示すように、オブジェクトを複数のポリゴンで表現した場合には、各ポリゴンの境界が「丸み」として表現されない問題が生じる。しかし、この問題も、前述のグーローシェーディング手法を用いることで解決でき、これにより図16に示すように丸みのあるタイヤを表現できることになる。
【0064】
図18(A)、(B)には、タイヤ30の側面32にマッピングされるテクスチャ情報の一例が示される。図18(A)は、タイヤが静止状態及び低速回転状態の場合に使用されるテクスチャ情報であり、図18(B)は、タイヤが高速回転状態にある場合に使用されるテクスチャ情報である。図18(A)では、文字34、ホイールの穴36、シャフト38は、はっきりした輪郭で描かれている。これに対して、図18(B)では、文字34、ホイール36、シャフト44は非常に高速で回転方向に流れて見え、輪郭もぼやけて見えるように描かれている。なお、タイヤの回転が中速の場合には、図18(A)、(B)の中間の状態のテクスチャ情報を使用すればよい。このように、タイヤの回転に応じてマッピングするテクスチャを変更すれば、表示画像のリアリティを非常に高めることができることが理解される。
【0065】
図19(A)、(B)、(C)には、タイヤ30の走行面33にマッピングされるテクスチャ情報の一例が示される。このテクスチャ情報は、走行面33を構成する各々のポリゴンに1枚ずつマッピングしてもよいし、タイヤの走行面33を構成する全てのポリゴンに一括にマッピングしてもよい。図19(A)は、レーシングカーが通常の路面上を走っている場合に使用されるテクスチャ情報であり、図19(B)、(C)は、レーシングカーが砂利道エリアに進入した場合に使用されるテクスチャ情報である。そして、図19(B)は、砂利道エリアを走行した距離が短い場合に使用されるテクスチャ情報であり、図19(C)は走行距離が長い場合に使用されるテクスチャ情報である。そして、図19(C)に示すテクスチャ情報が最も白みがかっており、これによりタイヤの走行面に砂利、砂が付着した様子をリアルに表現できることになる。
【0066】
なお、本発明は上記実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形実施が可能である。
【0067】
例えば、表示物にマッピングするテクスチャ情報の種類を、表示物の速度、回転速度に応じて変更する本発明の手法は、上記タイヤの側面にテクスチャをマッピングする場合に限らず種々のものに適用できる。例えば、図4において、プレーヤカー51の走行にしたがって後ろ側に流れて行く路面21、ガードレール22、建物24に対しても本手法を適用できる。この場合には、プレーヤカー51が停止状態の場合に路面21、ガードレール22、建物24にマッピングするテクスチャ情報、プレーヤカー51が中速、高速走行状態の場合にこれらにマッピングするテクスチャ情報というように、複数種類のテクスチャ情報を用意すればよい。
【0068】
また、表示物にマッピングするテクスチャ情報の種類をシミュレーション状況により変化する表示物の表面の状態に応じて変更する手法についても、上記タイヤの走行面にテクスチャをマッピングする場合に限らず種々のものに適用できる。例えば、レーシングカーがコースの周回を重ねる毎にオイル等により車体が汚れることを表現すべく、車体にマッピングされるテクスチャ情報を変更してもよい。また、レーシングカーがブレーキにより停止し、ブレーキパッドが押しつけられたブレーキディスクが赤く加熱する場合を考える。この場合には、ブレーキディスクの中でキャリバーに覆われていない部分の赤い加熱色が、スポークホイルの隙間を介して外から見えるはずである。そこで、これを表現すべく、タイヤの回転の減速の度合いに応じて、ブレーキディスクの表面等を赤く光らせるようにテクスチャ情報を変更すれば、よりリアルな表現が可能となる。特に、この効果は、夜間に走行するレーシングゲームを表現するのに効果的である。
【0069】
また、本実施形態では、レーシングカーゲームを例にとり説明したが、本発明はこれに限らず、あらゆる種類の3次元ゲームに適用でき、例えば3次元的にマップが形成された宇宙船ゲーム、ロボット対戦ゲーム、戦車ゲーム、戦闘機ゲーム、ロールプレイングゲーム等にも適用できる。
【0070】
また、本発明は、業務用の3次元ゲームのみならず、例えば、家庭用のゲーム装置、フライトシミュレータ、教習所等で使用されるドライビングシミュレータ等にも適用することができる。更に、多数のプレーヤが参加する大型アトラクション型のゲーム装置、シミュレーション装置にも適用できる。
【0071】
また、例えば本発明を、戦闘機ゲームに適用した場合には、敵機からの銃撃を受ける毎に、自機の機体の表面に弾痕が生じるように、機体にマッピングされるテクスチャ情報を変更してもよい。また、戦闘機が加速した場合には、バックファイヤにより戦闘機のエンジン部分の表面が赤く光るようにエンジン部分にマッピングするテクスチャ情報を変更してもよい。また、本発明をロールプレインゲームに適用した場合には、敵との戦闘により受けた返り血を表現すべく、戦闘前と戦闘後とでプレーヤ及びそのパーティが着る衣服の表面にマッピングするテクスチャ情報を変更してもよい。
【0072】
また、本発明において仮想3次元空間演算手段、画像合成手段等において行われる演算処理は、専用の画像処理デバイスを用いて処理してもよいし、汎用のマイクロコンピュータ、DSP等を利用してソフトウェア的に処理してもよい。
【0073】
更に、仮想3次元空間演算手段、画像合成手段等で行われる演算処理も本実施形態で説明したものに限定されるものではなく、例えばテクスチャマッピングの手法等も上記に説明したものに限られない。
【0074】
また、本発明により画像合成された疑似3次元画像は、ヘッドマウントディスプレイ(HMD)と呼ばれるディスプレイにも当然に表示できる。
【0075】
【図面の簡単な説明】
【図1】本発明に係る実施形態のブロック図の一例である。
【図2】本3次元シミュレータ装置の外観の一例を示す図である。
【図3】本3次元ゲームにおける仮想3次元空間の一例を示す図である。
【図4】本3次元シミュレータ装置により画像合成されたゲーム画面の一例を示す図である。
【図5】本3次元シミュレータ装置により画像合成されたゲーム画面の一例を示す図である。
【図6】仮想3次元空間演算部のブロック図の一例である。
【図7】オブジェクト情報記憶部に記憶されるオブジェクト情報について説明するための図である。
【図8】オブジェクトに設定されるオブジェクト情報について説明するための図である。
【図9】画像合成部のブロック図の一例である。
【図10】本実施形態における3次元演算処理について説明するための図である。
【図11】図11(A)、(B)は、データフォーマット形成部で形成されるデータフォーマットの一例を示す図である。
【図12】画像合成部のブロック図の一例である。
【図13】テクスチャマッピング手法を説明するための図である。
【図14】図14(A)〜(K)は、本実施形態におけるテクスチャマッピング手法を視覚的に表した図である。
【図15】テクスチャ情報記憶部により構成されるテクスチャ記憶平面の一例を示す図である。
【図16】テクスチャマッピングにより表現されたレーシングカーの一例を示す図である。
【図17】ポリゴンにより構成されたタイヤオブジェクト示す図である。
【図18】図18(A)、(B)は、タイヤの側面にマッピングされるテクスチャ情報の一例である。
【図19】図19(A)、(B)、(C)は、タイヤの走行面にマッピングされるテクスチャ情報の一例である。
【図20】図20(A)は、3次元シミュレータ装置の概念を説明するための概略説明図であり、図20(B)は、3次元シミュレータ装置により形成される画面の一例を示す図である。
【符号の説明】
10 ディスプレイ
12 操作部
100 仮想3次元空間演算部
102 処理部
104 仮想3次元空間設定部
106 移動情報演算部
108 オブジェクト情報記憶部
110 マップ設定部
200 画像合成部
210 画像供給部
212 オブジェクト画像情報記憶部
215 処理部
217 データフォーマット形成部
218 座標変換部
220 クリッピング処理部
222 透視投影変換部
224 ポリゴンデータ変換部
226 ソーティング処理部
228 画像形成部
230 テクスチャ演算部
242 テクスチャ情報記憶部
244 パレット&ミキサ回路
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional simulator device capable of simulating a virtual three-dimensional space and an image composition method used therefor.
[0002]
[Background]
2. Description of the Related Art Conventionally, various types of three-dimensional simulator devices used for, for example, three-dimensional games or airplane and various vehicle operation simulators are known. In such a three-dimensional simulator apparatus, image information related to the three-dimensional object 300 shown in FIG. 20A is stored in the apparatus in advance. The three-dimensional object 300 represents a display object such as a landscape that the player (viewer) 302 can see through the screen 306. The pseudo three-dimensional image (projected image) 308 is displayed on the screen 306 by perspective-projecting the image information of the three-dimensional object 300 as a display object on the screen 306. In this apparatus, when the player 302 performs operations such as rotation and translation using the operation panel 304, predetermined three-dimensional calculation processing is performed based on the operation signal. Specifically, first, calculation processing is performed to determine how the viewpoint position and line-of-sight direction of the player 302 or the position and direction of the moving body on which the player 302 is boarded change according to the operation signal. Next, a calculation process is performed to determine how the image of the three-dimensional object 300 looks on the screen 306 in accordance with changes in the viewpoint position, line-of-sight direction, and the like. The above arithmetic processing is performed in real time following the operation of the player 302. Accordingly, the player 302 can see changes in the scenery, etc., in accordance with changes in his / her viewpoint position, line-of-sight direction, or the position and direction of his / her moving body in real time as a pseudo three-dimensional image. It will be possible to experience a simulated three-dimensional space.
[0003]
FIG. 20B shows an example of a display image formed by the above three-dimensional simulator device.
[0004]
[Problems to be solved by the invention]
In such a three-dimensional simulator device, a display object is expressed by combining a large number of polygons. For example, taking a tire in a racing car game as an example, each of the side surface of the tire and the running surface of the tire is configured by combining a plurality of polygons. Furthermore, a technique called texture mapping is used to improve the quality of the displayed image. In this texture mapping method, a texture is applied to polygons constituting a display object, thereby obtaining a realistic display image. Taking a tire as an example, a texture representing characters, wheels, etc. is mapped to the side surface of the tire. Further, a texture representing the tire grip surface is mapped to the tire running surface. Conventionally, only one type of texture has been prepared for one display object.
[0005]
However, for example, when the texture of characters is mapped to the side surface of the tire, the following problem occurs. That is, in the real world simulated by the three-dimensional simulator device, when the tire rotates, the characters will flow in the direction of rotation of the tire, and when the rotation speeds up, the outline of the characters should be blurred. However, even when trying to simulate this phenomenon with a three-dimensional simulator device, it has been found that the outline of the character does not blur. This is because, in such a three-dimensional simulator device, an image is generated every (1/60) seconds, for example, different from the real world due to the processing speed. Therefore, there is a problem that even if the texture of the character is simply applied to the side surface of the tire and the tire is rotated at a high speed, the blurring of the character outline that occurs in the real world cannot be realistically simulated.
[0006]
Further, for example, when the texture representing the grip surface is mapped to the running surface of the tire, the following problem occurs. That is, for example, when a racing car goes out on a gravel road or the like due to an operation error, in the real world, gravel, sand, etc. should adhere to the tire running surface and the condition of the tire running surface should change. . However, in the conventional three-dimensional simulator apparatus, only one texture is prepared for one display object. For this reason, there is a problem that such a change in the state of the running surface of the tire cannot be expressed, and a phenomenon that occurs in the real world cannot be simulated realistically.
[0007]
The present invention has been made to solve the technical problems as described above, and the object of the present invention is to realize the real world even when the surface state of the display object changes depending on the simulation situation. An object of the present invention is to provide a three-dimensional simulator device that can be realistically simulated.
[0008]
Another object of the present invention is to provide a three-dimensional simulator device that can realistically simulate the real world even when the speed and rotation speed of a display object change.
[0009]
[Means for Solving the Problems]
In order to solve the above-described problem, the present invention is a three-dimensional simulator apparatus including at least an image synthesizing unit that synthesizes a field-of-view image viewed from a viewer in a virtual three-dimensional space,
The image synthesis means includes texture calculation means for performing calculation for mapping a texture to the display object, and texture information storage means for storing texture information mapped in the texture calculation means,
The texture information storage means stores a plurality of types of texture information corresponding to the same display object, and changes the type of texture information mapped to the display object in accordance with the surface state of the display object that changes depending on the simulation situation. Means.
[0010]
According to the present invention, multiple types of texture information are stored as being mapped to a display object, for example, a running surface of a tire. For example, texture information for a normal road surface and texture information for a gravel road area are stored. The type of texture information mapped to the tire running surface is changed according to the simulation status. As a result, when the racing car is traveling on a normal road surface, the tire traveling surface is in a normal state, and when the racing car enters the gravel road area, the tire traveling surface is attached with gravel, sand, etc. An expression that becomes Thereby, the effect of simulation can be further increased. In this case, the place for changing the texture information type is arbitrary.
[0011]
According to the present invention, a virtual three-dimensional space is formed by setting object information including means for storing object information including the object number, position information, and direction information of a display object constituting the virtual three-dimensional space. Based on a virtual three-dimensional space calculation means for performing calculation, means for storing image information of an object designated by the object number, the object information, and the image information read by the object number included in the object information A three-dimensional simulator device including an image composition means for synthesizing a view field image that can be seen by a viewer,
The image synthesizing unit includes a texture calculation unit that performs a calculation for mapping a texture on the display object, and a texture information storage unit that stores texture information mapped in the texture calculation unit. The means stores different types of texture information corresponding to the same display object,
The virtual three-dimensional space calculation means includes means for changing the object number of the display object in accordance with the state of the surface of the display object that changes according to the simulation situation,
The object image information storage means stores the image information so that the type of texture information to be mapped is different for an object specified by an object number that is changed according to the state of the surface of the display object that changes according to a simulation situation. It is memorized.
[0012]
According to the present invention, the object number for designating the tire object is changed in accordance with the display object, for example, the surface of the tire that changes depending on the simulation situation. For example, the object number is changed so that the tire object corresponding to the normal road surface traveling is specified in the case of normal road traveling, and the tire object corresponding to the gravel road area traveling is specified in the case of gravel road area traveling. Then, the image information of the corresponding object is read from the object image information storage unit by the changed object number. In this case, for example, the image information of the tire object corresponding to the normal road surface can be read as texture information representing the normal grip surface, and the image information of the tire object corresponding to the gravel road area driving is gravel, sand, etc. The texture information representing the attached grip surface can be read out. Thus, according to the invention, the type of texture information mapped to the display object can be changed by a very simple process of changing the object number.
[0013]
In any one of the above aspects, the present invention is characterized in that the change unit performs the change stepwise in accordance with the state of the surface of the display object that changes depending on the simulation state.
[0014]
According to the present invention, for example, when the display object is a tire, the type of texture information mapped to the display object can be changed stepwise in accordance with, for example, the travel distance in the gravel road area. As a result, an expression in which more gravel and sand are attached to the tire as the travel distance becomes longer becomes possible. Therefore, the real feeling of the simulation can be further increased.
[0015]
The present invention is also a three-dimensional simulator apparatus including at least an image synthesizing unit that synthesizes a view field image that can be seen by a viewer in a virtual three-dimensional space,
The image synthesis means includes texture calculation means for performing calculation for mapping a texture to the display object, and texture information storage means for storing texture information mapped in the texture calculation means,
The texture information storage means includes a plurality of types of texture information corresponding to the same display object, and includes means for changing the type of texture information mapped to the display object according to the speed and rotation speed of the display object. It is characterized by.
[0016]
According to the present invention, a plurality of types of texture information are stored as being mapped to a display object, for example, a side surface of a tire. For example, texture information for the stop state and texture information for the high speed rotation state (or high speed running state) are stored. For example, the type of texture information mapped to the side surface of the tire is changed according to the rotation speed of the tire. Thereby, a character with a clear outline can be displayed on the side surface of the tire when the tire is in a stopped state, and a character with a blurred outline when the tire is in a high-speed rotation state. In this case, the means for changing the type of texture information to be mapped may be included in, for example, a virtual three-dimensional space calculation unit that performs calculation for forming a virtual three-dimensional space, or may be included in an image composition unit. Moreover, you may include in both. Further, the present invention also includes obtaining the relative speed and relative rotational speed between the viewer and the display object from the display object speed and rotation speed, and changing the type of texture information in accordance with this.
[0017]
Further, the present invention forms a virtual three-dimensional space by storing means for storing object information including the object number, position information, and direction information of display objects constituting the virtual three-dimensional space, and setting the object information. Virtual three-dimensional space calculation means for performing calculation, means for storing image information of the object designated by the object number, the object information, and the image information read by the object number included in the object information. A three-dimensional simulator device including image composition means for synthesizing a field-of-view image viewed from a viewer,
The image synthesizing unit includes a texture calculation unit that performs a calculation for mapping a texture on the display object, and a texture information storage unit that stores texture information mapped in the texture calculation unit. The means stores different types of texture information corresponding to the same display object,
The virtual three-dimensional space calculation means includes means for changing the object number of the display object according to the speed of the display object and the rotation speed,
The object image information storage means stores the image information so that the type of texture information to be mapped is different for an object specified by an object number that is changed according to the speed and rotation speed of the display object. It is characterized by.
[0018]
According to the present invention, the object number for designating the tire object is changed according to the display object, for example, the rotation speed of the tire. For example, the object number is changed so that a tire object for a stopped state is specified when the tire is in a stopped state, and a tire object for a high-speed rotating state is specified when the tire is in a high-speed rotating state. Then, the image information of the corresponding object is read out from the object image information storage unit by the changed object number. In this case, for example, the image information of the tire object for the stop state reads out the texture information for the stop state, and the image information of the tire object for the high speed rotation state reads out the texture information for the high speed rotation state. It has become. This can be realized, for example, by making texture coordinates (information specifying texture information) included in image information different.
[0019]
In any one of the above aspects, the present invention is characterized in that the changing means performs the change stepwise in accordance with the speed and rotation speed of a display object.
[0020]
According to the present invention, for example, when the display object is a tire, the texture is mapped stepwise, not only for the stop state and the high-speed rotation state, but also for the low-speed rotation state and the medium-speed rotation state. You can change the information.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
1. Game overview
First, an example of a three-dimensional game realized by the present three-dimensional simulator apparatus will be briefly described.
[0022]
FIG. 2 shows an example of the present three-dimensional simulator apparatus. In the three-dimensional simulator device of FIG. 2, a plurality of independent simulator devices (game devices) 1-1, 1-2, 1-3, and 1-4 are connected to each other via a data transmission line. Accordingly, it is possible to realize a racing car game in which a player racing car operated by a player competes with a racing car operated by an opponent player or a computer car operated by a computer.
[0023]
Here, the independent simulator devices 1-1, 1-2, 1-3, and 1-4 mean that each simulator device is formed so that it can independently play a single player game. To do. Of course, a multiplayer game can be played in the same game space with the opponent player via the data transmission line.
[0024]
As shown in FIG. 2, each simulator device is formed in the same manner as an actual driver's seat of a racing car. Then, the player sits on the seat 18 and looks at the game screen (pseudo three-dimensional image of the scenery seen from the driver's seat of the racing car) displayed on the display 10 while looking at the handle 14 and the accelerator 15 provided on the operation unit 12. Then, a game is played by operating a shift lever 16 and driving an imaginary racing car.
[0025]
2 has a multiplayer game configuration, the present invention is not limited to this, and can naturally be applied to a single player configuration.
[0026]
FIG. 3 shows an example of a virtual three-dimensional space in the present three-dimensional game. Thus, the three-dimensionally formed course 20 is arranged in the virtual three-dimensional space in this three-dimensional game. Around the course 20, three-dimensional objects such as a building 60, an arch 62, a stand 64, a cliff 66, a wall 68, a tunnel 70, a tree 72, and a bridge 74 are arranged. The player operates the racing car while viewing the display 10 on which these courses and the like are projected. Then, starting from the start point 76, going around the course 20, and going around the course a predetermined number of times, it becomes a goal and the player's ranking is determined.
[0027]
4 and 5 show an example of a game screen displayed on the display 10 in the three-dimensional game. The player operates the player car 51 while watching the game screen, and competes with the opponent racing car 52, the computer car 53, and the like. 4 and 5, the viewpoint of the player is set behind the player car, but the player's viewpoint may be set at the position of the driver's seat.
[0028]
Now, in FIG. 4, the texture of the character 40 is applied to the tire 30 of the opponent racing car 52. In this case, the opponent racing car 52 is traveling at a high speed, and the tire 30 is rotating at a high speed. Therefore, in this embodiment, in this case, the texture of the blurred character 40 is applied to the side surface of the tire. Thereby, the game screen shown on the display can be made very realistic. In the present embodiment, for example, when the racing car is stopped at the start, the texture of the stopped character is mapped to the tire 30. Further, when the running speed of the racing car is increased and the rotation speed of the tire is increased, the texture of the character that is not blurred but is expressed as flowing in the rotation direction of the tire is mapped to the tire 30. When the rotation speed is further increased, the texture of characters with blurred outlines is mapped to the tire 30 as shown in FIG. As described above, in the present embodiment, the type of texture that is mapped onto the tire is changed step by step according to the rotational speed of the tire (or the running speed of the racing car), so that a more realistic display image can be obtained. .
[0029]
FIG. 5 shows a game screen when the player car 51 goes out of the course to the gravel road area 26 due to an operation mistake of the player. When the racing car enters the gravel road area 26 in this way, in the real world, gravel, sand, etc. will adhere to the tire 30 and the tire should become whitish. Therefore, in the present embodiment, when the racing car enters the gravel road area 26, the texture mapped to the tire 30 is changed as shown in FIG. As a result, the running surface of the tire 30 that was black in FIG. 4 becomes a little whitish in FIG. 5, and a realistic game screen can be obtained. Also in this case, as in the case of the above characters, for example, the type of texture to be mapped to the tire 30 is changed stepwise in accordance with the distance traveled on the gravel road area 26, for example. Thereby, the real feeling of a display screen can further be increased.
[0030]
2. Description of the entire device
FIG. 1 shows a block diagram of an embodiment of a three-dimensional simulator apparatus according to the present invention.
[0031]
As shown in FIG. 1, the present three-dimensional simulator device includes an operation unit 12 through which a player inputs an operation signal, a virtual three-dimensional space calculation unit 100 that performs calculations for setting a virtual three-dimensional space using a predetermined game program, a player The image synthesizing unit 200 that forms a pseudo three-dimensional image at the viewpoint position, and the display 10 that outputs the pseudo three-dimensional image as an image.
[0032]
For example, when the present three-dimensional simulator device is applied to a racing car game, the operation unit 12 is connected with a handle 14, an accelerator 15 and the like for driving the racing car, and an operation signal is input thereby.
[0033]
In the virtual three-dimensional space calculation unit 100, a plurality of display objects in the virtual three-dimensional space shown in FIG. 3, for example, course 20, building 60, arch 62, stand 64, cliff 66, player racing car, opponent racing car, computer car, etc. The calculation of setting the position or the position and direction of is performed. This calculation is performed based on an operation signal from the operation unit 12, map information set and stored in advance, and the like.
[0034]
Then, the image synthesis unit 200 performs a calculation for synthesizing a view image from an arbitrary viewpoint in the virtual three-dimensional space based on the calculation result from the virtual three-dimensional space calculation unit 100. The synthesized view image is output from the display 10.
[0035]
In the present embodiment, the image composition unit 200 includes a texture calculation unit 230 and a texture information storage unit 242. Here, the texture calculation unit 230 performs a calculation for mapping the texture onto the display object. The texture information storage unit 242 stores texture information mapped by the texture calculation unit 230. This texture information represents, for example, a character / wheel pattern mapped onto the side surface of the tire, a grip surface pattern mapped onto the running surface of the tire, and the like. The texture information storage unit 242 stores a plurality of types of texture information for the same display object, for example, one tire. Specifically, as mapping to the side of the tire, texture information representing characters / wheels for the stop state, texture information representing characters / wheels with slightly blurred outlines due to rotation of the tires, and flowing in the tire rotation direction Texture information representing completely blurred characters and wheels is stored. In addition, texture information representing a black grip surface, texture information representing a whitish grip surface due to gravel, etc., texture information representing a whitish grip surface, etc. are stored as mapping onto the tire running surface. Has been. Further, the three-dimensional simulator apparatus of the present embodiment further includes means for changing, for example, the type of texture information mapped on the side surface of the tire according to the rotational speed of the tire or the traveling speed of the racing car. Similarly, it includes means for changing the type of texture information mapped to the running surface of the tire according to the state of the tire surface that changes depending on the simulation (game) situation. That is, for example, when the state of the tire running surface, which is the display object, changes whitish due to a simulation situation in which the racing car goes out of the course and enters the gravel road area, texture information representing the whitish grip surface is displayed on the tire running surface. It will be mapped to. Note that these changing means may be included in the virtual three-dimensional space calculation unit 102, may be included in the image composition unit 200, or may be included in both.
[0036]
Next, an example of specific configurations of the virtual three-dimensional space calculation unit 100 and the image composition unit 200 will be described. FIG. 6 shows an example of a block diagram of the virtual three-dimensional space calculation unit 100, and FIGS. 9 and 12 show an example of a block diagram of the image composition unit 200.
[0037]
In addition, as a structure of the virtual three-dimensional space calculating means and image composition means in this invention, not only what is shown in FIG.6, FIG.9, FIG.12 but all kinds of structures are employable.
[0038]
3. Explanation of virtual three-dimensional space calculation unit
As shown in FIG. 6, the virtual three-dimensional space calculation unit 100 includes a processing unit 102, a virtual three-dimensional space setting unit 104, a movement information calculation unit 106, and an object information storage unit 108.
[0039]
Here, the processing unit 102 controls the entire three-dimensional simulator apparatus. A predetermined game program is stored in a storage unit provided in the processing unit 102. The virtual three-dimensional space calculation unit 100 calculates a virtual three-dimensional space setting according to the game program and the operation signal from the operation unit 12. In the movement information calculation unit 106, the movement information of the racing car is calculated according to the operation signal from the operation unit 12, the instruction from the processing unit 102, and the like.
[0040]
The object information storage unit 108 has as many storage storage areas as the number of objects constituting the virtual three-dimensional space. In each area, the position information / direction information of the object and the position to be displayed (that is, the object) The object number of the object to be applied is stored (hereinafter, the stored position information / direction information and object number are referred to as object information). FIG. 7 shows an example of object information stored in the object information storage unit 108. FIG. 8 shows the relationship between position information, direction information (Xm, Ym, Zm, θm, φm, ρm) and absolute coordinate system (Xw, Yw, Zw) included in these object information.
[0041]
These objects are represented by a set of polygonal polygons as shown in FIG.
[0042]
The object information stored in the object information storage unit 108 is read by the virtual three-dimensional space setting unit 104. In this case, the object information storage unit 108 stores object information in a frame immediately before the frame. Then, the virtual three-dimensional space setting unit 104 obtains object information (position information and direction information) in the frame based on the read object information and the movement information calculated by the movement information calculation unit 106. . Note that there is no such movement information for a stationary object, and the object information does not change, so such processing is not necessary.
[0043]
In this way, the virtual three-dimensional space setting unit 104 sets the object information of all the objects constituting the virtual three-dimensional space in the frame. Note that the map setting unit 110 selects and sets only a map necessary for display when a map divided in the virtual three-dimensional space is displayed.
[0044]
In the present embodiment, the texture information mapped to the display object is changed by changing the object number in the object information shown in FIG. For example, consider a case in which object information to be mapped to the side surface of a tire is changed according to the rotation speed of the tire (or the running speed of the racing car). In this case, first, the tire rotation speed (or the running speed of the racing car) is obtained by a calculation process in the movement information calculation unit 106 or the virtual three-dimensional space setting unit 104. When it is determined that the rotation of the tire is stopped or rotating at a low speed, the tire object number is changed so as to designate a tire object for the stopped state. Similarly, when it is determined that the tire is rotating at a medium speed or a high speed, the tire object number is changed so as to designate a tire object for a medium speed rotation state or a high speed rotation state. The object image information storage unit 212 in the image composition unit 200 stores image information of a plurality of types of tire objects corresponding to one tire. Which of the plurality of types of tire objects is selected is specified by the object number. For example, when a tire object for a stopped state is selected by specifying the object number, image information of the tire object for the stopped state is read from the object image information storage unit 212. In the tire object for the stop state, the characters mapped to the tire side surface and the texture coordinates (coordinates for reading texture information) are specified so that the wheel appears to stop. Further, the side surface of the tire rotating at a low speed can be expressed by rotating the tire object for the stopped state.
[0045]
Similarly, in the tire object for the medium speed and high speed rotation state, the polygon shape is the same, but the texture that makes the outline of the character and the wheel appear blurred or flows in the rotation direction is mapped. The texture coordinates are designated as follows. Thus, according to this embodiment, it is possible to change the texture information mapped to the tire by changing the object number.
[0046]
A similar method is adopted when changing object information to be mapped onto the tire running surface according to the simulation (game) situation. That is, it is determined whether the racing car has entered the gravel road area or how far the car has traveled in the gravel road area by the calculation processing in the movement information calculation unit 106 or the virtual three-dimensional space setting unit 104. The Then, based on these determinations, the object number of the tire is changed, whereby the texture information mapped to the tire object read from the object image information storage unit 212 is changed.
[0047]
4). Explanation about the image supply unit
As illustrated in FIG. 9, the image supply unit 210 includes an object image information storage unit 212, a processing unit 215, a coordinate conversion unit 218, a clipping processing unit 220, a polygon data conversion unit 224, and a sorting processing unit 226. The clipping processing unit 220 includes a perspective projection conversion unit 222.
[0048]
In the image supply unit 210, various coordinate conversion processes and three-dimensional calculation processes are performed in accordance with the virtual three-dimensional space setting information set by the virtual three-dimensional space calculation unit 100.
[0049]
That is, first, as shown in FIG. 10, with respect to objects 300, 333, and 334 representing racing cars, courses, and the like, polygons constituting the objects are expressed in an absolute coordinate (world coordinate) system (XW, YW, ZW). Arithmetic processing for placement in the virtual three-dimensional space is performed. Next, for each of these objects, a process of performing coordinate conversion of the polygons constituting the objects into a viewpoint coordinate system (Xv, Yv, Zv) based on the viewpoint of the player 302 is performed. Thereafter, so-called clipping processing is performed, and then perspective projection conversion processing to the screen coordinate system (XS, YS) is performed. Next, conversion processing of the output polygon format is performed, and finally sorting processing is performed.
[0050]
In the present embodiment, the object information including the position information, the direction information, and the object number is transferred from the virtual three-dimensional space calculation unit 100 to the processing unit 215. Then, the image information of the corresponding object is read from the object image information storage unit 212 using the transferred object number as an address. That is, for example, when the object number specifies a tire object for a stopped state, image information representing the tire object for a stopped state is read from the object image information storage unit 212. Similarly, when the object number designates a tire object for medium speed and high speed rotation state, image information representing the tire object for medium speed and high speed rotation state is read from the object image information storage unit 212. In the object image information storage unit 212, image information of these tires is expressed and stored as a set (polyhedron) of a plurality of polygons. The processing unit 215 forms data in which frame data, object data, and polygon data are paired from the data read out by the data format forming unit 217, and sequentially transfers the data to the coordinate conversion unit 218 and subsequent units.
[0051]
Here, the frame data is data such as the viewpoint position and direction of the player 302 in the virtual three-dimensional space. The object data refers to data including object position information, rotation information, and other attached data. Polygon data is image information about polygons constituting an object, and refers to data composed of polygon vertex coordinates, vertex texture coordinates, vertex luminance information, and other attached data. These data are converted into a data format as shown in FIGS. 11A and 11B by the data format forming unit 217. As shown in FIG. 11A, in this data format, the frame data is the head and the data of the object displayed in the frame is continuous. Then, with these object data at the head, data of polygons constituting the object are connected. Each of these polygon data includes a header, vertex luminance information, vertex texture coordinates, and vertex coordinates given to each vertex of the polygon, as shown in FIG. 11B.
[0052]
In the present embodiment, the value of the vertex texture coordinates in FIG. 11B is different between the tire object for the stopped state and the tire object for the medium speed and rotating state. As will be described later, the vertex texture coordinates serve as address information when texture information is read from the texture information storage unit. Therefore, if the vertex texture coordinates are made different, the texture information mapped to the tire will be different.
[0053]
5. Explanation of image forming unit
The image forming unit 228 calculates image information inside the polygon based on the vertex image information given for each vertex of the polygon, and outputs this to the display 10, as shown in FIG. A texture calculation unit 230, a texture information storage unit 242, and a palette & mixer circuit 244 are included.
[0054]
In the present embodiment, image synthesis is performed by a technique called a texture mapping technique and a Gouraud shading technique in order to more efficiently synthesize higher quality images. Hereinafter, the concept of these methods will be briefly described.
[0055]
FIG. 13 shows the concept of the texture mapping method.
[0056]
For example, in the case of synthesizing images in which each surface of an object 332 as shown in FIG. 13 is provided with, for example, a lattice pattern or a striped pattern, the object is conventionally represented by polygons (1) to (80) (polygon ( 41) to (80) are not illustrated), and image processing is performed on all these polygons. The reason is that in the conventional image synthesizing apparatus, the color in one polygon can be filled with only one designated color. As a result, when a high-quality image with a complicated pattern or the like is synthesized, the number of polygons is greatly increased. Therefore, it is virtually impossible to synthesize such a high-quality image. It was possible.
[0057]
Therefore, in this embodiment, coordinate transformation such as rotation, translation, perspective projection transformation, and clipping of the object 332 and clipping are performed for each of the polygons A, B, and C constituting each surface (specifically, each polygon For each vertex), a lattice-like or striped pattern is handled as a texture, and is processed separately from polygon processing. That is, as shown in FIG. 12, a texture information storage unit 242 is provided in the image forming unit 228, in which texture information to be mapped to each three-dimensional polygon, that is, an image such as a grid pattern or a striped pattern Information is stored.
[0058]
Then, the address of the texture information storage unit 242 for designating the texture information is given as vertex texture coordinates VTX and VTY of each three-dimensional polygon. Specifically, as shown in FIG. 13, the vertex texture coordinates of (VTX0, VTY0), (VTX1, VTY1), (VTX2, VTY2), (VTX3, VTY3) are set for each vertex of the polygon A. Is set.
[0059]
The texture calculation unit 230 in the image forming unit 228 obtains the texture coordinates TX and TY for all dots in the polygon from the vertex texture coordinates VTX and VTY. Then, corresponding texture information is read from the texture information storage unit 242 based on the obtained texture coordinates TX and TY, and is output to the palette & mixer circuit 244. Thereby, it is possible to synthesize an image of a three-dimensional object to which a texture such as a lattice shape or a stripe shape is mapped as shown in FIG.
[0060]
In the present embodiment, as described above, the object 332 is expressed as a block of polygons. Therefore, the continuity of luminance information at the boundary of each polygon becomes a problem. For example, if you want to represent a sphere using multiple polygons, if all the dots in the polygon are set to the same brightness, you would actually want to represent “roundness” but express the boundary of each polygon as “roundness”. The situation that is not done occurs. Therefore, in the present embodiment, this is avoided by a technique called Gouraud shading. In this method, as in the texture mapping method described above, vertex luminance information VBRI0 to VBRI3 is given to each vertex of the three-dimensional polygon as shown in FIG. From the vertex luminance information VBRI0 to VBRI3, luminance information for all dots in the three-dimensional polygon is obtained by interpolation.
[0061]
FIGS. 14A to 14K visually show the flow of calculation processing for texture mapping. As already described, the image forming unit 228 performs arithmetic processing for forming all the image information in the polygon based on the vertex image information of the polygon. In this case, the texture information to be mapped to the polygon is stored in the texture information storage unit 242, and the texture coordinates TX and TY are required to read this texture information. 14 (F), (G), (H), and (I) show all perspective projection transformation texture coordinates TX in the polygon. * , TY * The state of the arithmetic processing for obtaining is visually shown. 14B, 14C, 14D, and 14E, perspective projection transformation display coordinates X, which are coordinates at which texture information is to be displayed. * , Y * The state of the arithmetic processing for obtaining is visually shown. The above calculation is performed by the texture calculation unit 230. Then, as shown in FIG. 14 (J), the calculated perspective projection transformation texture coordinates TX * , TY * Are subjected to inverse perspective projection conversion to the texture coordinates TX and TY, and texture information is read from the texture information storage unit 242 based on the texture coordinates TX and TY subjected to the inverse perspective projection conversion. Finally, as shown in FIG. 14 (K), the calculated X * , Y * Image synthesis is performed by associating the read texture information with the coordinate position. FIG. 15 shows an example of a texture storage plane configured by the texture information storage unit 242.
[0062]
FIG. 16 shows an example of a racing car 50 expressed by texture mapping as described above. By applying texture mapping in this way, a very high quality display image can be obtained.
[0063]
FIG. 17 shows an example of an object applied to the tire 30 constituting the racing car 50 of FIG. In this way, the tire object is expressed by combining a plurality of polygons. As shown in FIG. 17, when an object is expressed by a plurality of polygons, there is a problem that the boundary between the polygons is not expressed as “round”. However, this problem can also be solved by using the above-mentioned Gouraud shading method, and as a result, a round tire can be expressed as shown in FIG.
[0064]
18A and 18B show an example of texture information mapped to the side surface 32 of the tire 30. FIG. FIG. 18A shows texture information used when the tire is stationary and in a low-speed rotation state, and FIG. 18B shows texture information used when the tire is in a high-speed rotation state. In FIG. 18A, the letters 34, the wheel holes 36, and the shaft 38 are drawn with clear outlines. On the other hand, in FIG. 18B, the character 34, the wheel 36, and the shaft 44 are drawn so as to appear to flow in the rotational direction at a very high speed and to appear blurred. When the tire rotates at a medium speed, texture information in an intermediate state between FIGS. 18A and 18B may be used. Thus, it is understood that the reality of the display image can be greatly enhanced by changing the texture to be mapped in accordance with the rotation of the tire.
[0065]
19A, 19B, and 19C show examples of texture information mapped to the running surface 33 of the tire 30. FIG. This texture information may be mapped one by one to each polygon constituting the running surface 33, or may be mapped collectively to all polygons constituting the running surface 33 of the tire. FIG. 19A shows texture information used when a racing car is running on a normal road surface. FIGS. 19B and 19C show a case where the racing car enters a gravel road area. Texture information to be used. FIG. 19B shows texture information used when the distance traveled on the gravel road area is short, and FIG. 19C shows texture information used when the travel distance is long. The texture information shown in FIG. 19 (C) is the most white, and this allows a realistic expression of gravel and sand adhering to the running surface of the tire.
[0066]
In addition, this invention is not limited to the said embodiment, A various deformation | transformation implementation is possible within the range of the summary of this invention.
[0067]
For example, the method of the present invention for changing the type of texture information to be mapped to the display object in accordance with the speed and rotation speed of the display object can be applied to various things as well as the case of mapping the texture on the side surface of the tire. . For example, in FIG. 4, this method can be applied to the road surface 21, the guard rail 22, and the building 24 that flow backward as the player car 51 travels. In this case, texture information to be mapped to the road surface 21, guardrail 22, and building 24 when the player car 51 is in a stopped state, texture information to be mapped to these when the player car 51 is in a medium speed and high speed running state, and so on. A plurality of types of texture information may be prepared.
[0068]
In addition, the method of changing the type of texture information to be mapped to the display object according to the state of the surface of the display object that changes depending on the simulation situation is not limited to the case where the texture is mapped to the running surface of the tire. Applicable. For example, the texture information mapped to the vehicle body may be changed in order to express that the vehicle body becomes dirty with oil or the like every time the racing car goes around the course. Also, consider a case where a racing car is stopped by a brake, and a brake disk pressed against a brake pad is heated red. In this case, the red heating color of the portion of the brake disc that is not covered by the caliber should be visible from the outside through the spoke wheel gap. In order to express this, if the texture information is changed so that the surface of the brake disc shines red according to the degree of deceleration of the rotation of the tire, a more realistic expression can be realized. In particular, this effect is effective for expressing a racing game that runs at night.
[0069]
In this embodiment, a racing car game has been described as an example. However, the present invention is not limited to this, and can be applied to all types of three-dimensional games. For example, a spaceship game or a robot in which a three-dimensional map is formed. It can also be applied to battle games, tank games, fighter games, role playing games, and the like.
[0070]
Further, the present invention can be applied not only to a commercial three-dimensional game but also to a driving simulator used in a home game device, a flight simulator, a school, and the like. Furthermore, the present invention can be applied to a large attraction type game apparatus and simulation apparatus in which a large number of players participate.
[0071]
In addition, for example, when the present invention is applied to a fighter game, the texture information mapped to the aircraft is changed so that a bullet hole is generated on the surface of the aircraft every time a gunshot from an enemy aircraft is received. May be. Further, when the fighter accelerates, the texture information mapped to the engine portion may be changed by backfire so that the surface of the fighter aircraft engine portion shines red. In addition, when the present invention is applied to a roll plain game, texture information that is mapped to the surface of clothes worn by the player and the party before and after the battle in order to express the return blood received by the battle with the enemy May be changed.
[0072]
In the present invention, the arithmetic processing performed in the virtual three-dimensional space arithmetic means, the image synthesizing means, etc. may be processed using a dedicated image processing device, or software using a general-purpose microcomputer, DSP or the like. May be processed automatically.
[0073]
Further, the calculation processing performed by the virtual three-dimensional space calculation means, the image synthesis means, and the like is not limited to the one described in the present embodiment, and the texture mapping method is not limited to the one described above. .
[0074]
Further, the pseudo three-dimensional image synthesized by the present invention can naturally be displayed on a display called a head mounted display (HMD).
[0075]
[Brief description of the drawings]
FIG. 1 is an example of a block diagram of an embodiment according to the present invention.
FIG. 2 is a diagram showing an example of an appearance of the present three-dimensional simulator device.
FIG. 3 is a diagram illustrating an example of a virtual three-dimensional space in the present three-dimensional game.
FIG. 4 is a diagram showing an example of a game screen image synthesized by the three-dimensional simulator apparatus.
FIG. 5 is a diagram showing an example of a game screen image synthesized by the three-dimensional simulator apparatus.
FIG. 6 is an example of a block diagram of a virtual three-dimensional space calculation unit.
FIG. 7 is a diagram for explaining object information stored in an object information storage unit;
FIG. 8 is a diagram for explaining object information set in an object.
FIG. 9 is an example of a block diagram of an image composition unit.
FIG. 10 is a diagram for explaining a three-dimensional calculation process in the present embodiment.
FIGS. 11A and 11B are diagrams illustrating an example of a data format formed by a data format forming unit. FIGS.
FIG. 12 is an example of a block diagram of an image composition unit.
FIG. 13 is a diagram for explaining a texture mapping method;
FIGS. 14A to 14K are diagrams visually showing a texture mapping method in the present embodiment.
FIG. 15 is a diagram illustrating an example of a texture storage plane configured by a texture information storage unit.
FIG. 16 is a diagram illustrating an example of a racing car expressed by texture mapping.
FIG. 17 is a diagram showing a tire object composed of polygons.
FIGS. 18A and 18B are examples of texture information mapped to a side surface of a tire.
FIGS. 19A, 19B, and 19C are examples of texture information mapped to a running surface of a tire.
FIG. 20A is a schematic explanatory diagram for explaining the concept of the three-dimensional simulator device, and FIG. 20B is a diagram showing an example of a screen formed by the three-dimensional simulator device. is there.
[Explanation of symbols]
10 display
12 Operation unit
100 Virtual three-dimensional space calculation unit
102 processing unit
104 Virtual 3D space setting unit
106 Movement information calculation unit
108 Object information storage unit
110 Map setting section
200 Image composition part
210 Image supply unit
212 Object image information storage unit
215 processing section
217 Data format forming part
218 Coordinate converter
220 Clipping processing unit
222 Perspective projection converter
224 Polygon data converter
226 Sorting processor
228 Image forming unit
230 Texture calculator
242 Texture information storage unit
244 Pallet & mixer circuit

Claims (4)

仮想3次元空間において観者から見える視界画像を合成する画像合成手段と、仮想3次元空間演算手段とを少なくとも含む3次元シミュレータ装置であって、
前記画像合成手段が、前記視界画像の一部として表示される表示物にテクスチャをマッピングするための演算を行うテクスチャ演算手段と、該テクスチャ演算手段においてマッピングされるテクスチャの情報を記憶するテクスチャ情報記憶手段とを含み、
前記テクスチャ情報記憶手段には同一の表示物に対応して複数種類のテクスチャ情報が記憶され、
前記仮想3次元空間演算手段は、前記表示物が所定エリアに進入したか否かを判断するとともに、該所定エリア内の前記表示物の移動距離を判断する手段と、前記表示物にマッピングするテクスチャ情報の種類を前記移動距離に応じて変更する変更手段を含むことを特徴とする3次元シミュレータ装置。
A three-dimensional simulator apparatus including at least an image synthesis unit that synthesizes a visual field image that is visible to a viewer in a virtual three-dimensional space, and a virtual three-dimensional space calculation unit ,
Texture information storage for storing texture information mapped by the texture calculation means, and a texture calculation means for performing an operation for mapping a texture on a display object displayed as a part of the field-of-view image. Means,
The texture information storage means stores a plurality of types of texture information corresponding to the same display object,
The virtual three-dimensional space calculation means determines whether or not the display object has entered a predetermined area, determines a movement distance of the display object within the predetermined area, and textures mapped to the display object A three-dimensional simulator apparatus comprising a changing means for changing the type of information according to the moving distance .
仮想3次元空間を構成する表示物のオブジェクトナンバー、位置情報、方向情報が含まれるオブジェクト情報を記憶する手段と、該オブジェクト情報の設定を行うことで仮想3次元空間を形成する演算を行う仮想3次元空間演算手段と、前記オブジェクトナンバーにより指定されるオブジェクトの画像情報を記憶する手段と、前記オブジェクト情報と、該オブジェクト情報に含まれるオブジェクトナンバーにより読み出される前記画像情報とに基づいて観者から見える視界画像を合成する画像合成手段とを含む3次元シミュレータ装置であって、
前記画像合成手段が、前記視界画像の一部として表示される表示物にテクスチャをマッピングするための演算を行うテクスチャ演算手段と、該テクスチャ演算手段においてマッピングされるテクスチャの情報を記憶するテクスチャ情報記憶手段とを含み、該テクスチャ情報記憶手段には同一の表示物に対応して異なる複数種類のテクスチャ情報が記憶され、
前記仮想3次元空間演算手段は、前記表示物が所定エリアに進入したか否かを判断するとともに、該所定エリア内の前記表示物の移動距離を判断する手段と、前記表示物のオブジェクトナンバーを前記移動距離に応じて変更する変更手段を含み、
前記オブジェクト画像情報記憶手段では、前記変更手段によって変更されるオブジェクトナンバーにより指定されるオブジェクトについてはマッピングされるテクスチャ情報の前記種類が異なるように前記画像情報が記憶されることを特徴とする3次元シミュレータ装置。
Means for storing object information including the object number, position information, and direction information of a display object constituting the virtual three-dimensional space, and virtual 3 for performing calculation to form the virtual three-dimensional space by setting the object information Dimension space calculating means, means for storing image information of an object specified by the object number, visible to the viewer based on the object information and the image information read by the object number included in the object information A three-dimensional simulator device including image composition means for synthesizing a view field image,
Texture information storage for storing texture information mapped by the texture calculation means, and a texture calculation means for performing an operation for mapping a texture on a display object displayed as a part of the field-of-view image. A plurality of different types of texture information corresponding to the same display object are stored in the texture information storage means,
The virtual three-dimensional space calculation means determines whether or not the display object has entered a predetermined area, determines a moving distance of the display object within the predetermined area, and determines an object number of the display object. Changing means for changing according to the moving distance ;
The object image information storage means stores the image information so that the type of texture information to be mapped is different for the object specified by the object number changed by the changing means. Simulator device.
請求項1又は2のいずれかにおいて、
前記変更手段が、前記移動距離に応じて前記変更を段階的に行うことを特徴とする3次元シミュレータ装置。
In either claim 1 or 2,
The three-dimensional simulator apparatus, wherein the changing means performs the change stepwise according to the moving distance .
仮想3次元空間において観者から見える視界画像を合成することで仮想3次元空間をシミュレートする3次元シミュレータ装置に使用される画像合成方法であって、
前記3次元シミュレータ装置に含まれるテクスチャ演算手段により前記視界画像の一部として表示される表示物にテクスチャをマッピングするための演算を行い、前記3次元シミュレータ装置に含まれるテクスチャ情報記憶手段により前記テクスチャ演算手段においてマッピングされるテクスチャの情報を記憶し、前記テクスチャ情報記憶手段に同一の表示物に対応して複数種類のテクスチャ情報を記憶し、
前記3次元シミュレータ装置に含まれる仮想3次元空間演算手段は、前記表示物が所定エリアに進入したか否かを判断し、
前記仮想3次元空間演算手段は、前記所定エリア内の前記表示物の移動距離を判断し、
前記仮想3次元空間演算手段は、前記表示物にマッピングするテクスチャ情報の種類を前記移動距離に応じて変更することを特徴とする画像合成方法。
An image synthesizing method used in a three-dimensional simulator device for simulating a virtual three-dimensional space by synthesizing a visual field image seen from a viewer in the virtual three-dimensional space,
The texture calculation means included in the three-dimensional simulator device performs an operation for mapping a texture to a display object displayed as a part of the view field image, and the texture information storage means included in the three-dimensional simulator device performs the texture. Storing texture information mapped in the calculation means, storing a plurality of types of texture information corresponding to the same display object in the texture information storage means,
The virtual three-dimensional space calculation means included in the three-dimensional simulator device determines whether the display object has entered a predetermined area,
The virtual three-dimensional space calculation means determines a moving distance of the display object within the predetermined area,
The virtual three-dimensional space calculation means changes the type of texture information mapped to the display object according to the movement distance .
JP22648798A 1994-08-22 1998-07-27 3D simulator apparatus and image composition method Expired - Lifetime JP3752081B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP10226488A JPH11134515A (en) 1994-08-22 1998-07-27 Game device and game screen compositing method
JP22648798A JP3752081B2 (en) 1994-08-22 1998-07-27 3D simulator apparatus and image composition method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP6219418A JP2846252B2 (en) 1994-08-22 1994-08-22 Three-dimensional simulator device and image synthesizing method
JP22648798A JP3752081B2 (en) 1994-08-22 1998-07-27 3D simulator apparatus and image composition method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP6219418A Division JP2846252B2 (en) 1994-08-22 1994-08-22 Three-dimensional simulator device and image synthesizing method

Publications (2)

Publication Number Publication Date
JPH11134514A JPH11134514A (en) 1999-05-21
JP3752081B2 true JP3752081B2 (en) 2006-03-08

Family

ID=16845878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22648798A Expired - Lifetime JP3752081B2 (en) 1994-08-22 1998-07-27 3D simulator apparatus and image composition method

Country Status (1)

Country Link
JP (1) JP3752081B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5860329B2 (en) * 2012-03-30 2016-02-16 株式会社カプコン Game program and game system

Also Published As

Publication number Publication date
JPH11134514A (en) 1999-05-21

Similar Documents

Publication Publication Date Title
JP2846252B2 (en) Three-dimensional simulator device and image synthesizing method
JP2807608B2 (en) Sorting processing apparatus, image synthesizing apparatus using the same, and sorting processing method
JP3056256B2 (en) Three-dimensional simulator device and image synthesizing method
US5616079A (en) Three-dimensional games machine
US6652376B1 (en) Driving game with assist and training modes
US5764232A (en) Three-dimensional simulator apparatus and image synthesis method
JP3635729B2 (en) Image processing method, image processing apparatus, and simulated experience apparatus
JP4771821B2 (en) Program, information storage medium, and image generation system
JP4226663B2 (en) Image generating apparatus and image generating method
JP4056021B2 (en) Image generating apparatus and information storage medium
JP3752081B2 (en) 3D simulator apparatus and image composition method
JPH11134515A (en) Game device and game screen compositing method
GB2324013A (en) Three-dimensional simulator and image synthesising method
JP3364456B2 (en) 3D simulator apparatus and image composition method
JP3254091B2 (en) Three-dimensional simulator device and image synthesizing method
JP4243395B2 (en) GAME DEVICE, GAME IMAGE GENERATION METHOD, AND INFORMATION STORAGE MEDIUM
JP2990190B2 (en) Three-dimensional simulator device and image synthesizing method
JP3783735B2 (en) Image processing apparatus and game apparatus having the same
JPH07178243A (en) Three-dimensional simulator and map setting method used for the same
JP3638669B2 (en) Image composition method and game device
JPH07116353A (en) Video game apparatus
JP3538248B2 (en) Image composition apparatus and image composition method
JP2912454B2 (en) Three-dimensional simulator device and image synthesizing method
JP2007252426A (en) Program, information storage medium and game apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051209

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081216

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081216

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091216

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091216

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091216

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101216

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101216

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111216

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111216

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121216

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121216

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131216

Year of fee payment: 8

EXPY Cancellation because of completion of term