JP4714763B2 - 画像処理プログラム、画像処理装置、および画像制御方法 - Google Patents

画像処理プログラム、画像処理装置、および画像制御方法 Download PDF

Info

Publication number
JP4714763B2
JP4714763B2 JP2008154825A JP2008154825A JP4714763B2 JP 4714763 B2 JP4714763 B2 JP 4714763B2 JP 2008154825 A JP2008154825 A JP 2008154825A JP 2008154825 A JP2008154825 A JP 2008154825A JP 4714763 B2 JP4714763 B2 JP 4714763B2
Authority
JP
Japan
Prior art keywords
polygon
image
virtual camera
reflected
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008154825A
Other languages
English (en)
Other versions
JP2009301309A (ja
Inventor
茂樹 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2008154825A priority Critical patent/JP4714763B2/ja
Publication of JP2009301309A publication Critical patent/JP2009301309A/ja
Application granted granted Critical
Publication of JP4714763B2 publication Critical patent/JP4714763B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理プログラム、特に、オブジェクトを画像表示部に表示するためのデータを処理する画像処理プログラムに関する。また、この画像処理プログラムを実行可能な画像処理装置、およびこの画像処理プログラムに基づいてコンピュータにより制御される画像制御方法に関する。
従来から、オブジェクトをモニタに表示するための様々な表示技術が提案されている。特に、近年では、コンピュータの性能の向上に伴い、できるだけリアリティのあるオブジェクトをモニタに表示する試みがなされるようになってきた。
たとえば、シミュレーションゲームや対戦ゲーム等において、建物のようなオブジェクトをモニタに表示する場合、建物の質感を向上したり建物の窓に映る景色を表現したりすることにより、リアリティのある建物が再現されていた(非特許文献1を参照)。
ここで、建物の質感を向上する例としては、たとえば、テクスチャの解像度を高くしたりポリゴン数を増やしたりする方法がある。また、建物の窓に映る景色を表現する例としては、たとえば、建物の前の景色用の画像を建物の窓に貼り付ける方法がある。このように、建物の質感を向上したり建物の窓に映る景色を表現したりすることによって、リアリティのある建物が、モニタに表示され再現されていた。
プロ野球スピリッツ3、コナミデジタルエンタテインメント、PS2版、2006年4月6日
従来のゲームでは、建物のようなオブジェクトをモニタに表示する場合、建物の質感を向上したり建物の窓に映る景色を表現したりすることにより、リアリティのある建物を再現していた。ところで、近年、都市部等では、壁面のほぼ全面をガラス張りとすることによって、外部の景色や他の建物が壁面全体に映りこむようなビルや建築物が見られる。このようなビルをゲーム等の仮想空間上に再現する場合は、建物の窓に映る景色を表現しない場合または単に一つの窓に外部の景色を映す場合と比較すると、よりリアリティのある建物を表示することができる。しかしながら、従来のゲームでは、このような壁面全体に外部の景色が反映され得るビルや建物を再現する場合であっても、建物の前の景色を単に建物の窓や壁面に対応する箇所に貼り付けているだけなので、カメラの位置が移動して建物を見る角度が変わっても、建物の窓や壁面に映る景色が変化しないという問題点があった。また、カメラの位置が移動して建物を見る角度が変わったときの視差の影響を、建物の窓に映る景色に反映することが難しいという問題点があった。さらに、建物の外壁の反射や建物の窓の反射等を、適切に再現することができないという問題点もあった。
本発明は、このような問題に鑑みてなされたものであり、本発明の目的は、オブジェクト表面に映る画像を、リアリティのある表現で、画像表示部に表示することにある。
請求項1に係る画像処理プログラムは、オブジェクトを画像表示部に表示するためのデータを処理するためのものである。この画像処理プログラムでは、以下の機能が実現される。
(1)オブジェクト用のテクスチャデータを、記憶部に格納する第1テクスチャ格納機能。
(2)オブジェクトの外側の画像に対応する映り込み画像用のテクスチャデータを、記憶部に格納する第2テクスチャ格納機能。
(3)オブジェクト用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、オブジェクト用のポリゴンを仮想空間に配置する第1ポリゴン配置機能。
(4)オブジェクト用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、映り込み画像用のポリゴンをオブジェクト用のポリゴンの内部に配置する第2ポリゴン配置機能。
(5)オブジェクト用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置機能。
(6)仮想カメラの注視点に対応する座標データを、制御部に認識させることにより、仮想カメラの注視点を仮想空間に配置する注視点配置機能。
(7)仮想カメラの位置および仮想カメラの注視点の位置に基づいて、映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、制御部に実行させることにより、オブジェクト表面に映る画像のテクスチャを決定するテクスチャ決定機能。
(8)オブジェクト用のテクスチャデータをオブジェクト用のポリゴンに投影する処理を、制御部に実行させることにより、少なくとも一部が透明なオブジェクト用のポリゴンモデルを生成する第1ポリゴン生成機能。
(9)抽出された映り込み画像用のテクスチャデータを映り込み画像用のポリゴンに投影する処理を、制御部に実行させることにより、映り込み画像用のポリゴンモデルを生成する第2ポリゴン生成機能。
(10)オブジェクト用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影する処理を制御部に実行させることにより、オブジェクトとオブジェクト表面に映る画像とを画像表示部に表示する画像表示機能。
この画像処理プログラムでは、第1テクスチャ格納機能において、オブジェクト用のテクスチャデータが、記憶部に格納される。第2テクスチャ格納機能においては、オブジェクトの外側の画像に対応する映り込み画像用のテクスチャデータが、記憶部に格納される。
第1ポリゴン配置機能においては、オブジェクト用のポリゴンの配置位置を規定するための座標データが、制御部に認識される。これにより、オブジェクト用のポリゴンが、仮想空間に配置される。第2ポリゴン配置機能においては、オブジェクト用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データが、制御部に認識される。これにより、映り込み画像用のポリゴンが、オブジェクト用のポリゴンの内部に配置される。カメラ配置機能においては、オブジェクト用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データが、制御部に認識される。これにより、仮想カメラが、仮想空間に配置される。注視点配置機能においては、仮想カメラの注視点に対応する座標データが、制御部に認識される。これにより、仮想カメラの注視点が、仮想空間に配置される。
テクスチャ決定機能においては、仮想カメラの位置および仮想カメラの注視点の位置に基づいて、映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理が、制御部により実行される。これにより、オブジェクト表面に映る画像のテクスチャが、決定される。第1ポリゴン生成機能においては、オブジェクト用のテクスチャデータをオブジェクト用のポリゴンに投影する処理が、制御部により実行される。これにより、少なくとも一部が透明なオブジェクト用のポリゴンモデルが、生成される。第2ポリゴン生成機能においては、抽出された映り込み画像用のテクスチャデータを映り込み画像用のポリゴンに投影する処理が、制御部により実行される。これにより、映り込み画像用のポリゴンモデルが、生成される。
画像表示機能においては、オブジェクト用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影する処理が、制御部により実行される。これにより、オブジェクトとオブジェクト表面に映る画像とが、画像表示部に表示される。
この場合、仮想カメラの位置および仮想カメラの注視点の位置に基づいて、映り込み画像用のテクスチャデータの少なくとも一部が、抽出される。そして、抽出された映り込み画像用のテクスチャデータが、映り込み画像用のポリゴンに投影される。このようにして、オブジェクトの外側の画像からオブジェクト表面に映る画像の部分のテクスチャが決定され、オブジェクト用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルが、生成される。そして、オブジェクト用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルが、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影される。すると、オブジェクトとオブジェクト表面に映る画像とが、画像表示部に表示される。
このように、請求項1に係る発明では、オブジェクト用のポリゴンモデルの内部に配置された映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影することにより、仮想カメラがオブジェクトを撮影する位置に応じて異なる画像(オブジェクト表面に映る画像)を、画像表示部に表示することができる。
ここで、上記のポリゴンモデルの透明な部分とは、ゲーム空間上においては、建物の窓やガラス等の鏡面からなる壁面等に相当する。つまり、内部処理的には、上記の通りポリゴンモデルの透明な部分を通して、その中の映り込み画像用のポリゴンモデルを仮想カメラから見ているのであるが、ゲーム空間上では、ポリゴンモデルの透明な部分を建物の窓や壁面に対応させて表現している。このために、その内部の映り込み画像用のポリゴンモデルが、あたかも建物の窓や壁面に映る外部の景色であるかのように、ゲームのプレイヤからは観察される。以上のことから、請求項1に係る発明では、オブジェクト表面に映る画像を、リアリティのある表現で、画像表示部に表示することができる。
さらに、請求項1によれば、建物の窓や壁面に映る画像が、移動する仮想カメラの視点(ゲーム内におけるキャラクタから見た視点等)に応じて変化する演出を、非常に低い処理負荷で実現できる。すなわち、単純に、従来の周知技術で仮想カメラの移動に伴って変化する建物の窓や壁面に映る画像を表現しようとした場合には、まず、仮想カメラの位置(座標)と建物を見る角度とから、反射画像を求めることになるが、その際、建物周囲の景色のうち、どの部分がどのように建物表面に反射するかを計算し、さらにその反射画像を建物表面に表示する作業が必要であるためにCPUには大きな負荷がかかる。加えて、仮想カメラは移動しているので、その移動に伴い、1フレーム毎に上記計算を繰り返し行う必要があり、CPUには膨大な負荷がかかるため、例えば一般にゲームに使用されるCPUでこの手法を採用するのは現実的ではない。この点、請求項1に係る手法によれば、上記のような膨大な計算は不要であり、CPUに加わる負荷を低く抑えながら、建物表面等に映り込む画像の変化を容易に実現することができる。
請求項2に係る画像処理プログラムでは、請求項1に記載の画像処理プログラムにおいて、オブジェクト用のポリゴンの外部において仮想カメラを移動するためのカメラ移動命令が制御部から発行された場合、移動後の仮想カメラの位置を示す座標データが、制御部に認識される。これにより、仮想カメラが仮想空間に配置される。また、移動後の仮想カメラの位置および仮想カメラの注視点の位置に応じて、映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理が、制御部により実行される。これにより、オブジェクト表面に映る画像のテクスチャが決定される。前者の機能は、カメラ配置機能において実現され、後者の機能は、テクスチャ決定機能において実現される。
この場合、オブジェクト用のポリゴンの外部において、仮想カメラが移動させられる。そして、移動後の仮想カメラの位置に応じて、映り込み画像用のテクスチャデータの少なくとも一部が、抽出される。このように、請求項2に係る発明では、仮想カメラが移動したとしても、移動後の仮想カメラの位置から撮影を行うことにより、仮想カメラの位置に応じて異なる画像(オブジェクト表面に映る画像)を、画像表示部に表示することができる。また、仮想カメラの位置に応じて異なる視差を、画像表示部に表示される画像において表現することができる。以上のことから、請求項2に係る発明では、オブジェクト表面に映る画像を、リアリティのある表現で、画像表示部に表示することができる。
請求項3に係る画像処理プログラムは、請求項1又は2に記載の画像処理プログラムにおいて、以下の機能をさらに実現させるためのプログラムである。
(11)オブジェクトのテクスチャデータの透明度を制御部に認識させることにより、オブジェクト表面に映る画像の映り込み度を設定する映り込み度設定機能。
この画像処理プログラムでは、映り込み度設定機能において、オブジェクトのテクスチャデータの透明度が、制御部に認識される。これにより、オブジェクト表面に映る画像の映り込み度が設定される。
この場合、オブジェクト用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルは、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影されるので、オブジェクト用のポリゴンモデルの透明な部分のテクスチャデータの透明度を制御部に認識させることにより、オブジェクト表面に映る画像の映り込みの程度を設定することができる。これにより、ゲーム空間内の例えばビルの窓部の汚れやくすみ、くもり等に起因する外部景色の映り込みの程度を変えることができる。つまり、窓部が汚れているような場合には外部の景色がきれいに映り込まない、といった演出を行うことができる。もし、窓部が複数あるビルの場合には、例えばその一枚だけを汚しておく、即ち、オブジェクト用のポリゴンモデルの透明な部分を複数設けた状態で、且つその一枚の透明度のみを低くするといった処理を行うことで、ゲーム空間上の建物に対して、見た目上の完全さを崩し、あえて現実世界の不完全さを加味することでよりリアリティに富む演出を行うことができる。このように、請求項3に係る発明では、オブジェクト表面に映る画像を、よりリアリティのある表現で、画像表示部に表示することができる。
請求項4に係る画像処理プログラムは、請求項1から3のいずれかに記載の画像処理プログラムにおいて、以下の機能をさらに実現させるためのプログラムである。
(12)オブジェクト用のポリゴンの外部において光源の配置位置を規定するための座標データを、制御部に認識させることにより、光源を仮想空間に配置する光源配置機能。
(13)仮想カメラの位置、仮想カメラの注視点の位置、および光源の位置に応じて、オブジェクトのテクスチャデータの反射率を設定する処理を、制御部に実行させることにより、オブジェクト表面に映る画像に反射効果を付加する反射効果付加機能。
この画像処理プログラムでは、光源配置機能において、オブジェクト用のポリゴンの外部において光源の配置位置を規定するための座標データが、制御部に認識される。これにより、光源が仮想空間に配置される。反射効果付加機能においては、仮想カメラの位置、仮想カメラの注視点の位置、および光源の位置に応じて、オブジェクトのテクスチャデータの反射率を設定する処理が、制御部により実行される。これにより、オブジェクト表面に映る画像に反射効果が付加される。
この場合、オブジェクト用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルは、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影されるので、仮想カメラの位置、仮想カメラの注視点の位置、および光源の位置に応じて、オブジェクトのテクスチャデータの反射率を制御部に設定させることにより、オブジェクト表面に映る画像に反射効果を付加することができる。このように、請求項4に係る発明では、オブジェクト表面に映る画像を、よりリアリティのある表現で、画像表示部に表示することができる。
請求項5に係る画像処理プログラムでは、請求項1から4のいずれかに記載の画像処理プログラムにおいて、仮想カメラの位置を示す座標データおよび仮想カメラの注視点を示す座標データに基づいて、仮想カメラの視線角度を算出する処理が、制御部により実行される。そして、映り込み画像用のテクスチャデータが示す画像における、視線角度に対応する座標データが、制御部に認識される。これにより、視線角度に対応する座標データが示す位置を基準とした、オブジェクト表面に仮想的に映りうる画像からオブジェクト表面に映る画像のテクスチャが、抽出される。この機能は、テクスチャ決定機能において実現される。
この場合、仮想カメラの位置を示す座標データおよび仮想カメラの注視点を示す座標データに基づいて、仮想カメラの視線角度が算出される。そして、映り込み画像用のテクスチャデータが示す画像における、視線角度に対応する位置が決定される。すると、この位置を基準とした、オブジェクト表面に映る画像が、オブジェクト表面に仮想的に映りうる画像から抽出される。
このように、請求項5に係る発明では、仮想カメラの視線角度に応じて、オブジェクト表面に映る画像を、オブジェクト表面に仮想的に映りうる画像から抽出することができる。このため、オブジェクト用のポリゴンモデルの内部に配置された映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影すると、仮想カメラがオブジェクトを撮影する位置に応じて異なる画像(オブジェクト表面に映る画像)を、画像表示部に表示することができる。すなわち、請求項5に係る発明では、オブジェクト表面に映る画像を、リアリティのある表現で、画像表示部に表示することができる。
請求項6に係る画像処理プログラムでは、請求項5に記載の画像処理プログラムにおいて、仮想カメラの位置を示す座標データに基づいて、仮想カメラの位置とオブジェクトとの距離を算出する処理が、制御部によりさらに実行される。そして、この距離に対応する、オブジェクト表面に映る画像の範囲が、制御部に認識される。これにより、視線角度に対応する座標データが示す位置を基準として、オブジェクト表面に仮想的に映りうる画像におけるオブジェクト表面に映る画像の範囲のテクスチャが抽出される。
この場合、仮想カメラの位置を示す座標データに基づいて、仮想カメラの位置とオブジェクトとの距離が算出される。そして、オブジェクト表面に仮想的に映りうる画像における視線角度に対応する位置を基準として、算出された距離に対応する範囲が、オブジェクト表面に仮想的に映りうる画像において決定される。すなわち、仮想カメラの視線角度に応じて、オブジェクト表面に仮想的に映りうる画像の抽出位置を決定し、仮想カメラの位置とオブジェクトとの距離に応じて、オブジェクト表面に映る画像の範囲が、決定される。
これにより、請求項6に係る発明では、オブジェクト表面に仮想的に映りうる画像のテクスチャから、オブジェクト表面に映る画像のテクスチャを、抽出することができる。このため、オブジェクト用のポリゴンモデルの内部に配置された映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影すると、仮想カメラがオブジェクトを撮影する位置に応じて大きさの異なる画像(オブジェクト表面に映る画像)を、画像表示部に表示することができる。すなわち、請求項6に係る発明では、オブジェクト表面に映る画像を、よりリアリティのある表現で、画像表示部に表示することができる。
請求項7に係る画像処理装置は、オブジェクトを画像表示部に表示するためのデータを処理可能な画像処理装置である。
この画像処理装置は、オブジェクト用のテクスチャデータを、記憶部に格納する第1テクスチャ格納手段と、オブジェクトの外側の画像に対応する映り込み画像用のテクスチャデータを、記憶部に格納する第2テクスチャ格納手段と、オブジェクト用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、オブジェクト用のポリゴンを仮想空間に配置する第1ポリゴン配置手段と、オブジェクト用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、映り込み画像用のポリゴンをオブジェクト用のポリゴンの内部に配置する第2ポリゴン配置手段と、オブジェクト用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置手段と、仮想カメラの注視点に対応する座標データを、制御部に認識させることにより、仮想カメラの注視点を仮想空間に配置する注視点配置手段と、仮想カメラの位置および仮想カメラの注視点の位置に基づいて、映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、制御部に実行させることにより、オブジェクト表面に映る画像のテクスチャを決定するテクスチャ決定手段と、オブジェクト用のテクスチャデータをオブジェクト用のポリゴンに投影する処理を、制御部に実行させることにより、少なくとも一部が透明なオブジェクト用のポリゴンモデルを生成する第1ポリゴン生成手段と、抽出された映り込み画像用のテクスチャデータを映り込み画像用のポリゴンに投影する処理を、制御部に実行させることにより、映り込み画像用のポリゴンモデルを生成する第2ポリゴン生成手段と、オブジェクト用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影する処理を制御部に実行させることにより、オブジェクトとオブジェクト表面に映る画像とを画像表示部に表示する画像表示手段と、を備えている。
請求項8に係る画像制御方法は、オブジェクトを画像表示部に表示するためのデータをコンピュータにより制御する画像制御方法である。
この画像制御方法は、オブジェクト用のテクスチャデータを、記憶部に格納する第1テクスチャ格納ステップと、オブジェクトの外側の画像に対応する映り込み画像用のテクスチャデータを、記憶部に格納する第2テクスチャ格納ステップと、オブジェクト用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、オブジェクト用のポリゴンを仮想空間に配置する第1ポリゴン配置ステップと、オブジェクト用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、映り込み画像用のポリゴンをオブジェクト用のポリゴンの内部に配置する第2ポリゴン配置ステップと、オブジェクト用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置ステップと、仮想カメラの注視点に対応する座標データを、制御部に認識させることにより、仮想カメラの注視点を仮想空間に配置する注視点配置ステップと、仮想カメラの位置および仮想カメラの注視点の位置に基づいて、映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、制御部に実行させることにより、オブジェクト表面に映る画像のテクスチャを決定するテクスチャ決定ステップと、オブジェクト用のテクスチャデータをオブジェクト用のポリゴンに投影する処理を、制御部に実行させることにより、少なくとも一部が透明なオブジェクト用のポリゴンモデルを生成する第1ポリゴン生成ステップと、
抽出された映り込み画像用のテクスチャデータを映り込み画像用のポリゴンに投影する処理を、制御部に実行させることにより、映り込み画像用のポリゴンモデルを生成する第2ポリゴン生成ステップと、オブジェクト用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影する処理を制御部に実行させることにより、オブジェクトとオブジェクト表面に映る画像とを画像表示部に表示する画像表示ステップと、を備えている。
本発明では、オブジェクト用のポリゴンモデルの内部に配置された映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影することにより、仮想カメラがオブジェクトを撮影する位置に応じて異なる画像(オブジェクト表面に映る画像)を、画像表示部に表示することができる。すなわち、本発明では、オブジェクト表面に映る画像を、リアリティのある表現で、画像表示部に表示することができる。
〔ゲーム装置の構成と動作〕
図1は、本発明の一実施形態によるゲーム装置の基本構成を示している。ここでは、ビデオゲーム装置の一例として、家庭用ビデオゲーム装置をとりあげて説明を行うこととする。家庭用ビデオゲーム装置は、家庭用ゲーム機本体および家庭用テレビジョンを備える。家庭用ゲーム機本体には、記録媒体10が装填可能となっており、記録媒体10からゲームデータが適宜読み出されてゲームが実行される。このようにして実行されるゲーム内容が家庭用テレビジョンに表示される。
家庭用ビデオゲーム装置のゲームシステムは、制御部1と、記憶部2と、画像表示部3と、音声出力部4と、操作入力部5とからなっており、それぞれがバス6を介して接続される。このバス6は、アドレスバス、データバス、およびコントロールバスなどを含んでいる。ここで、制御部1、記憶部2、音声出力部4および操作入力部5は、家庭用ビデオゲーム装置の家庭用ゲーム機本体に含まれており、画像表示部3は家庭用テレビジョンに含まれている。
制御部1は、主に、ゲームプログラムに基づいてゲーム全体の進行を制御するために設けられている。制御部1は、たとえば、CPU(Central Processing Unit)7と、信号処理プロセッサ8と、画像処理プロセッサ9とから構成されている。CPU7と信号処理プロセッサ8と画像処理プロセッサ9とは、それぞれがバス6を介して互いに接続されている。CPU7は、ゲームプログラムからの命令を解釈し、各種のデータ処理や制御を行う。たとえば、CPU7は、信号処理プロセッサ8に対して、画像データを画像処理プロセッサに供給するように命令する。信号処理プロセッサ8は、主に、3次元空間上における計算と、3次元空間上から擬似3次元空間上への位置変換計算と、光源計算処理と、画像および音声データの生成加工処理とを行っている。画像処理プロセッサ9は、主に、信号処理プロセッサ8の計算結果および処理結果に基づいて、描画すべき画像データをRAM12に書き込む処理を行っている。
記憶部2は、主に、プログラムデータや、プログラムデータで使用される各種データなどを格納しておくために設けられている。記憶部2は、たとえば、記録媒体10と、インターフェース回路11と、RAM(Random Access Memory)12とから構成されている。記録媒体10には、インターフェース回路11が接続されている。そして、インターフェース回路11とRAM12とはバス6を介して接続されている。記録媒体10は、オペレーションシステムのプログラムデータや、画像データ、音声データ並びに各種プログラムデータからなるゲームデータなどを記録するためのものである。この記録媒体10は、たとえば、ROM(Read Only Memory)カセット、光ディスク、およびフレキシブルディスクなどであり、オペレーティングシステムのプログラムデータやゲームデータなどが記憶される。なお、記録媒体10にはカード型メモリも含まれており、このカード型メモリは、主に、ゲームを中断するときに中断時点での各種ゲームパラメータを保存するために用いられる。RAM12は、記録媒体10から読み出された各種データを一時的に格納したり、制御部1からの処理結果を一時的に記録したりするために用いられる。このRAM12には、各種データとともに、各種データの記憶位置を示すアドレスデータが格納されており、任意のアドレスを指定して読み書きすることが可能になっている。
画像表示部3は、主に、画像処理プロセッサ9によってRAM12に書き込まれた画像データや、記録媒体10から読み出される画像データなどを画像として出力するために設けられている。この画像表示部3は、たとえば、テレビジョンモニタ20と、インターフェース回路21と、D/Aコンバータ(Digital-To-Analogコンバータ)22とから構成されている。テレビジョンモニタ20にはD/Aコンバータ22が接続されており、D/Aコンバータ22にはインターフェース回路21が接続されている。そして、インターフェース回路21にバス6が接続されている。ここでは、画像データが、インターフェース回路21を介してD/Aコンバータ22に供給され、ここでアナログ画像信号に変換される。そして、アナログ画像信号がテレビジョンモニタ20に画像として出力される。
ここで、画像データには、たとえば、ポリゴンデータやテクスチャデータなどがある。ポリゴンデータはポリゴンを構成する頂点の座標データのことである。テクスチャデータは、ポリゴンにテクスチャを設定するためのものであり、テクスチャ指示データとテクスチャカラーデータとからなっている。テクスチャ指示データはポリゴンとテクスチャとを対応づけるためのデータであり、テクスチャカラーデータはテクスチャの色を指定するためのデータである。ここで、ポリゴンデータとテクスチャデータとには、各データの記憶位置を示すポリゴンアドレスデータとテクスチャアドレスデータとが対応づけられている。このような画像データでは、信号処理プロセッサ8により、ポリゴンアドレスデータの示す3次元空間上のポリゴンデータ(3次元ポリゴンデータ)が、画面自体(視点)の移動量データおよび回転量データに基づいて座標変換および透視投影変換されて、2次元空間上のポリゴンデータ(2次元ポリゴンデータ)に置換される。そして、複数の2次元ポリゴンデータでポリゴン外形を構成して、ポリゴンの内部領域にテクスチャアドレスデータが示すテクスチャデータを書き込む。このようにして、各ポリゴンにテクスチャが貼り付けられた物体つまり各種キャラクタを表現することができる。
音声出力部4は、主に、記録媒体10から読み出される音声データを音声として出力するために設けられている。音声出力部4は、たとえば、スピーカー13と、増幅回路14と、D/Aコンバータ15と、インターフェース回路16とから構成されている。スピーカー13には増幅回路14が接続されており、増幅回路14にはD/Aコンバータ15が接続されており、D/Aコンバータ15にはインターフェース回路16が接続されている。そして、インターフェース回路16にバス6が接続されている。ここでは、音声データが、インターフェース回路16を介してD/Aコンバータ15に供給され、ここでアナログ音声信号に変換される。このアナログ音声信号が増幅回路14によって増幅され、スピーカー13から音声として出力される。音声データには、たとえば、ADPCM(Adaptive Differential Pulse Code Modulation)データやPCM(Pulse Code Modulation)データなどがある。ADPCMデータの場合、上述と同様の処理方法で音声をスピーカー13から出力することができる。PCMデータの場合、RAM12においてPCMデータをADPCMデータに変換しておくことで、上述と同様の処理方法で音声をスピーカー13から出力することができる。
操作入力部5は、主に、コントローラ17と、操作情報インターフェース回路18と、インターフェース回路19とから構成されている。コントローラ17には、操作情報インターフェース回路18が接続されており、操作情報インターフェース回路18にはインターフェース回路19が接続されている。そして、インターフェース回路19にバス6が接続されている。
コントローラ17は、プレイヤが種々の操作命令を入力するために使用する操作装置であり、プレイヤの操作に応じた操作信号をCPU7に送出する。コントローラ17には、第1ボタン17a、第2ボタン17b、第3ボタン17c、第4ボタン17d、上方向キー17U、下方向キー17D、左方向キー17L、右方向キー17R、L1ボタン17L1、L2ボタン17L2、R1ボタン17R1、R2ボタン17R2、スタートボタン17e、セレクトボタン17f、左スティック17SL及び右スティック17SRが設けられている。
上方向キー17U、下方向キー17D、左方向キー17L及び右方向キー17Rは、例えば、キャラクタやカーソルをテレビジョンモニタ20の画面上で上下左右に移動させるコマンドをCPU7に与えるために使用される。
スタートボタン17eは、記録媒体10からゲームプログラムをロードするようにCPU7に指示するときなどに使用される。
セレクトボタン17fは、記録媒体10からロードされたゲームプログラムに対して、各種選択をCPU7に指示するときなどに使用される。
左スティック17SL及び右スティック17SRは、いわゆるジョイスティックとほぼ同一構成のスティック型コントローラである。このスティック型コントローラは、直立したスティックを有している。このスティックは、支点を中心として直立位置から前後左右を含む360°方向に亘って、傾倒可能な構成になっている。左スティック17SL及び右スティック17SRは、スティックの傾倒方向及び傾倒角度に応じて、直立位置を原点とするx座標及びy座標の値を、操作信号として操作情報インターフェース回路18とインターフェース回路19とを介してCPU7に送出する。
第1ボタン17a、第2ボタン17b、第3ボタン17c、第4ボタン17d、L1ボタン17L1、L2ボタン17L2、R1ボタン17R1及びR2ボタン17R2には、記録媒体10からロードされるゲームプログラムに応じて種々の機能が割り振られている。
なお、左スティック17SL及び右スティック17SRを除くコントローラ17の各ボタン及び各キーは、外部からの押圧力によって中立位置から押圧されるとオンになり、押圧力が解除されると中立位置に復帰してオフになるオンオフスイッチになっている。
以上のような構成からなる家庭用ビデオゲーム装置の概略動作を、以下に説明する。電源スイッチ(図示省略)がオンにされゲームシステム1に電源が投入されると、CPU7が、記録媒体10に記憶されているオペレーティングシステムに基づいて、記録媒体10から画像データ、音声データ、およびプログラムデータを読み出す。読み出された画像データ、音声データ、およびプログラムデータの一部若しくは全部は、RAM12に格納される。そして、CPU7が、RAM12に格納されたプログラムデータに基づいて、RAM12に格納された画像データや音声データにコマンドを発行する。
画像データの場合、CPU7からのコマンドに基づいて、まず、信号処理プロセッサ8が、3次元空間上におけるキャラクタの位置計算および光源計算などを行う。次に、画像処理プロセッサ9が、信号処理プロセッサ8の計算結果に基づいて、描画すべき画像データのRAM12への書き込み処理などを行う。そして、RAM12に書き込まれた画像データが、インターフェース回路13を介してD/Aコンバータ17に供給される。ここで、画像データがD/Aコンバータ17でアナログ映像信号に変換される。そして、画像データはテレビジョンモニタ20に供給され画像として表示される。
音声データの場合、まず、信号処理プロセッサ8が、CPU7からのコマンドに基づいて音声データの生成および加工処理を行う。ここでは、音声データに対して、たとえば、ピッチの変換、ノイズの付加、エンベロープの設定、レベルの設定及びリバーブの付加などの処理が施される。次に、音声データは、信号処理プロセッサ8から出力されて、インターフェース回路16を介してD/Aコンバータ15に供給される。ここで、音声データがアナログ音声信号に変換される。そして、音声データは増幅回路14を介してスピーカー13から音声として出力される。
〔ゲーム装置における各種処理の説明〕
本ゲーム機において実行されるゲームは、たとえば野球ゲームである。本ゲーム機において実行される野球ゲームでは、オブジェクトたとえば建物をテレビジョンモニタ20に表示可能になっている。図2は、本発明で主要な役割を果たす機能を説明するための機能ブロック図である。
第1テクスチャ格納手段50は、建物用のテクスチャデータを、RAM12に格納する機能を備えている。この手段では、建物用のテクスチャデータが、RAM12に格納される。ここで用いられる建物用のテクスチャデータは、建物の表面のテクスチャを表現するためのデータである。このテクスチャデータは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。
第2テクスチャ格納手段51は、建物表面に仮想的に映りうる画像に対応する映り込み画像用のテクスチャデータを、RAM12に格納する機能を備えている。この手段では、建物表面に仮想的に映りうる画像に対応する映り込み画像用のテクスチャデータが、RAM12に格納される。ここで用いられる映り込み画像用のテクスチャデータは、建物側から、建物の前方に位置する建物や物体等を撮影することにより生成されるデータである。すなわち、このテクスチャデータは、建物表面に映りうる景色(建物や物体等を含む)を撮影することにより生成されるデータである。また、このテクスチャデータは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。
第1ポリゴン配置手段52は、建物用のポリゴンの配置位置を規定するための座標データをCPU7に認識させることにより、建物用のポリゴンを仮想空間に配置する機能を備えている。この手段では、建物用のポリゴンの配置位置を規定するための座標データをCPU7に認識させることにより、建物用のポリゴンが仮想空間に配置される。
ここでは、建物用のポリゴンの配置位置は、ゲームプログラムにおいて予め規定されている。この建物用のポリゴンの配置位置を規定するための座標データは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。
第2ポリゴン配置手段53は、建物用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データをCPU7に認識させることにより、映り込み画像用のポリゴンを建物用のポリゴンの内部に配置する機能を備えている。この手段は、建物用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データをCPU7に認識させることにより、映り込み画像用のポリゴンが建物用のポリゴンの内部に配置される。
ここでは、映り込み画像用のポリゴンの配置位置は、ゲームプログラムにおいて予め規定されている。具体的には、建物用のポリゴンの内部における所定の位置が、映り込み画像用のポリゴンの配置位置として、ゲームプログラムにおいて予め規定されている。この映り込み画像用のポリゴンの配置位置を規定するための座標データは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。
光源配置手段54は、建物用のポリゴンの外部において光源の配置位置を規定するための座標データを、CPU7に認識させることにより、光源を仮想空間に配置する機能を備えている。この手段では、建物用のポリゴンの外部において光源の配置位置を規定するための座標データを、CPU7に認識させることにより、光源が仮想空間に配置される。
ここでは、光源の配置位置は、ゲームプログラムにおいて予め規定されている。具体的には、建物用のポリゴンの外部の所定の位置が、光源の配置位置として、ゲームプログラムにおいて予め規定されている。この光源の配置位置を規定するための座標データは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。
なお、ここでは、光源が移動しない場合の例が示されるが、光源が移動するようにしても良い。たとえば、時間の経過に応じて光源を移動する場合、各時刻に対応する光源の配置位置が、ゲームプログラムにおいて予め規定されることになる。具体的には、各時刻に対応する光源の配置位置は、時刻をパラメータとして光源の配置位置を規定する方程式に基づいて決定することができる。この場合、光源が移動すると、移動後の光源の配置位置を規定するための座標データが、時刻ごとに、CPU7に認識される。ここで用いられる方程式は、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。
カメラ配置手段55は、建物用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データを、CPU7に認識させることにより、仮想カメラを仮想空間に配置する機能を備えている。
この手段では、建物用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データを、CPU7に認識させることにより、仮想カメラが仮想空間に配置される。
詳細には、この手段では、建物用のポリゴンの外部において仮想カメラを移動するためのカメラ移動命令がCPU7から発行された場合に、移動後の仮想カメラの位置を示す座標データが、CPU7に認識される。これにより、仮想カメラが仮想空間に配置される。
ここでは、まず、建物用のポリゴンの外部において仮想カメラを移動するためのカメラ移動命令がCPU7から発行されたか否かが、判別される。そして、建物用のポリゴンの外部において仮想カメラを移動するためのカメラ移動命令がCPU7から発行された場合に、移動後の仮想カメラの位置を示す座標データが、CPU7に認識される。一方で、建物用のポリゴンの外部において仮想カメラを移動するためのカメラ移動命令がCPU7から発行されていない場合には、現在の仮想カメラの位置を示す座標データが、CPU7に認識される。このようにして、仮想カメラが仮想空間に定義され配置される。
注視点配置手段56は、仮想カメラの注視点に対応する座標データを、CPU7に認識させることにより、仮想カメラの注視点を仮想空間に配置する機能を備えている。この手段では、仮想カメラの注視点に対応する座標データを、CPU7に認識させることにより、仮想カメラの注視点が仮想空間に配置される。
ここでは、仮想カメラの注視点は、建物用のポリゴンの内部に配置される。たとえば、仮想カメラの注視点は、映り込み画像用のポリゴン上に配置される。映り込み画像用のポリゴン上に配置される仮想カメラの注視点の位置は、ゲームプログラムにおいて予め規定されている。この注視点の位置を規定するための座標データは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。
なお、ここでは、注視点が移動しない場合の例が示されるが、注視点が移動するようにしても良い。すなわち、注視点を移動することにより、仮想カメラの視線方向を変更するようにしても良い。たとえば、コントローラ17からの入力信号の認識および注視点移動命令の発行の少なくともいずれか一方に基づいて、注視点を移動するようにしても良い。
映り込み度設設定手段57は、建物のテクスチャデータの透明度をCPU7に認識させることにより、建物表面に映る画像の映り込み度を設定する機能を備えている。この手段では、建物のテクスチャデータの透明度をCPU7に認識させることにより、建物表面に映る画像の映り込み度が設定される。
ここでは、建物のテクスチャデータの透明度が、CPU7に認識される。たとえば、建物の壁面に設けられる窓のテクスチャデータの透明度、および窓を除いた建物の壁面のテクスチャデータの透明度が、CPU7に認識される。これにより、建物表面に映る画像の映り込み度が設定される。
なお、テクスチャデータと透明度との対応関係は、ゲームプログラムにおいて予め規定されている。たとえば、テクスチャデータと透明度との対応関係を示すテーブルは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。
反射効果付加手段58は、仮想カメラの位置、仮想カメラの注視点の位置、および光源の位置に応じて、建物のテクスチャデータの反射率を設定する処理を、CPU7に実行させることにより、建物表面に映る画像に反射効果を付加する機能を備えている。この手段では、仮想カメラの位置、仮想カメラの注視点の位置、および光源の位置に応じて、建物のテクスチャデータの反射率を設定する処理を、CPU7に実行させることにより、建物表面に映る画像に反射効果が付加される。
ここでは、仮想カメラの位置と仮想カメラの注視点とを結ぶ直線(第1直線)と、第1直線が建物表面と交わる交点と光源とを結ぶ直線(第2直線)とがなす角度(反射角度)を算出する処理が、CPU7により実行される。そして、この反射角度に応じて、建物のテクスチャデータの反射率が設定される。なお、仮想カメラの位置と反射率との対応関係は、ゲームプログラムにおいて予め規定されている。
テクスチャ決定手段59は、仮想カメラの位置および仮想カメラの注視点の位置に基づいて、映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、CPU7に実行させることにより、建物表面に映る画像のテクスチャを決定する機能を備えている。この手段では、仮想カメラの位置および仮想カメラの注視点の位置に基づいて、映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、CPU7に実行させることにより、建物表面に映る画像のテクスチャが決定される。また、この手段では、仮想カメラが移動した場合、移動後の仮想カメラの位置および仮想カメラの注視点の位置に応じて、映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、CPU7に実行させることにより、建物表面に映る画像のテクスチャが決定される。
詳細には、この手段では、仮想カメラの位置を示す座標データおよび仮想カメラの注視点を示す座標データに基づいて、仮想カメラの視線角度を算出する処理が、CPU7により実行される。そして、映り込み画像用のテクスチャデータが示す画像における、視線角度に対応する座標データが、CPU7に認識される。これにより、視線角度に対応する座標データが示す位置を基準として、建物表面に映る画像のテクスチャが抽出される。また、この手段では、仮想カメラの位置を示す座標データに基づいて、仮想カメラの位置と建物との距離を算出する処理が、CPU7によりさらに実行される。そして、この距離に対応する、建物表面に映る画像の範囲が、CPU7に認識される。これにより、視線角度に対応する座標データが示す位置を基準として、建物表面に映る画像の範囲のテクスチャが抽出される。
ここでは、仮想カメラの位置と仮想カメラの注視点とを結ぶ直線(上述した第1直線)と、仮想カメラの視線方向の角度を規定するために用いられる基準点と仮想カメラの注視点とを結ぶ直線(第3直線)とがなす角度(仮想カメラの視線角度)が、CPU7により算出される。また、仮想カメラと建物表面との距離(カメラ建物間距離)が、CPU7により算出される。すると、視線角度に対応する位置の座標データ、すなわち、建物表面に映り込む画像上における、視線角度に対応する位置(建物表面に映り込む画像上の視線対応位置)の座標データが、CPU7により検出され認識される。すると、ここでCPU7に認識された、仮想カメラの視線角度に対応する座標データが示す位置を基準として、カメラ建物間距離に対応する範囲の画像、すなわち建物表面に映り込む画像内の部分画像が、CPU7により設定され認識される。これにより、建物表面に映る部分画像のテクスチャが抽出される。
なお、仮想カメラの視線方向の角度を規定するために用いられる基準点は、たとえば、建物表面に垂直な方向の所定の位置に配置される。この位置は、ゲームプログラムにおいて予め規定されている。
また、建物表面に映り込む画像上の視線対応位置を検出する処理は、映り込み画像用のテクスチャデータに基づいて、CPU7により実行される。たとえば、この処理は、視線角度と、建物表面に映り込む画像の内部の位置との対応関係を、ゲームプログラムにおいて予め規定しておくことにより、CPU7により実行される。
さらに、部分画像を規定するための範囲を設定する処理は、建物表面に映り込む画像において、カメラ建物間距離に対応する境界を、建物表面に映り込む画像の内部に設定することにより、実現される。たとえば、カメラ建物間距離と、境界を定義するためのデータとの対応関係は、ゲームプログラムにおいて予め規定されている。
第1ポリゴン生成手段60は、建物用のテクスチャデータを建物用のポリゴンに投影する処理を、CPU7に実行させることにより、少なくとも一部が透明な建物用のポリゴンモデルを生成する機能を備えている。この手段では、建物用のテクスチャデータを建物用のポリゴンに投影する処理を、CPU7に実行させることにより、少なくとも一部が透明な建物用のポリゴンモデルが生成される。
ここでは、建物用のテクスチャデータを建物用のポリゴンに投影する処理が、CPU7により実行される。これにより、少なくとも一部が透明な建物用のポリゴンモデルが生成される。たとえば、建物用のポリゴンの3次元座標を2次元座標系に対応づける処理(マッピング)が、CPU7により実行される。そして、建物用のテクスチャデータの座標を、建物用のポリゴンをマッピングした2次元座標系に対応づける処理が、CPU7により実行される。これにより、建物用のポリゴンモデルが生成される。また、ここでは、透明度の値に応じて、少なくとも一部が透明な建物用のポリゴンモデルが生成される。
第2ポリゴン生成手段61は、抽出された映り込み画像用のテクスチャデータを映り込み画像用のポリゴンに投影する処理を、CPU7に実行させることにより、映り込み画像用のポリゴンモデルを生成する機能を備えている。この手段では、抽出された映り込み画像用のテクスチャデータを映り込み画像用のポリゴンに投影する処理を、CPU7に実行させることにより、映り込み画像用のポリゴンモデルが生成される。
ここでは、抽出された映り込み画像用のテクスチャデータを映り込み画像用のポリゴンに投影する処理が、CPU7により実行される。これにより、映り込み画像用のポリゴンモデルが生成される。たとえば、映り込み画像用のポリゴンの3次元座標を2次元座標系に対応づける処理(マッピング)が、CPU7により実行される。そして、抽出された映り込み画像用のテクスチャデータの座標を、映り込み画像用のポリゴンをマッピングした2次元座標に対応づける処理が、CPU7により実行される。これにより、映り込み画像用のポリゴンモデルが生成される。
画像表示手段62は、建物用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルを、建物用のポリゴンモデルの透明な部分を通して、建物用のポリゴンモデルの外部から仮想カメラにより撮影する処理をCPU7に実行させることにより、建物と建物表面に映る画像とをテレビジョンモニタ20に表示する機能を備えている。この手段では、建物用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルを、建物用のポリゴンモデルの透明な部分を通して、建物用のポリゴンモデルの外部から仮想カメラにより撮影する処理をCPU7に実行させることにより、建物と建物表面に映る画像とがテレビジョンモニタ20に表示される。
ここでは、仮想カメラに対する撮影命令をCPU7に発行させることにより、仮想カメラに写る画像が、テレビジョンモニタ20に表示される。たとえば、仮想カメラの注視点が、建物用のポリゴンの内部に配置される場合、撮影命令がCPU7から発行されると、建物用のポリゴンモデルの内部の映り込み画像用のポリゴンモデルが、建物用のポリゴンモデルの透明な部分を通して、建物用のポリゴンモデルの外部から仮想カメラにより撮影される。すると、建物の画像と、建物表面に映る画像(建物表面に映り込む画像)とが、テレビジョンモニタ20に表示される。
〔野球ゲームにおける映像表示システムの説明〕
次に、野球ゲームにおける映像表示システムの具体的な内容について説明する。また、図8および図9に示すフローについても同時に説明する。なお、図8は野球ゲームの全体概要を説明するためのフローであり、図9は上記システムを説明するためのフローである。
以下では、まず野球ゲームの全体概要を説明し、次に上記システムの内容を説明する。
まず、ゲーム機の電源が投入されゲーム機が起動されると、野球ゲームプログラムが、記録媒体10からRAM12にロードされ格納される。このときには、野球ゲームを実行する上で必要となる各種の基本ゲームデータも、同時に、記録媒体10からRAM12にロードされ格納される(S1)。
たとえば、基本ゲームデータには、3次元ゲーム空間用の各種の画像に関するデータが含まれている。そして、この3次元ゲーム空間用の各種の画像に関するデータ、たとえば、スタジアム用の画像データ、選手キャラクタ用の画像データ、および各種のオブジェクトの画像データ等が、CPU7に認識される。また、基本ゲームデータには、3次元ゲーム空間用の各種の画像に関するデータを3次元ゲーム空間に配置するための位置座標データが含まれている。また、基本ゲームデータには、上記システムで用いられるデータも、含まれている。
続いて、RAM12に格納された野球ゲームプログラムが、基本ゲームデータに基づいて、CPU7により実行される(S2)。すると、野球ゲームの起動画面がテレビジョンモニタ20に表示される。すると、野球ゲームを実行するための各種の設定画面がテレビジョンモニタ20に表示される。ここでは、たとえば、野球ゲームのプレイモードを選択するためのモード選択画面が、テレビジョンモニタ20に表示される(図示しない)。このモード選択画面において、プレイヤがコントローラ17を操作することにより、プレイモードが決定される(S3)。プレイモードには、たとえば、12球団の中から好きなチームを選択して1試合の対戦を楽しむ対戦モード、12球団の中から好きなチームを選択してペナントレースを戦うペナントモード、プレイヤが監督の立場でチームの選手キャラクタを育成する育成モード、およりプレイヤがある1人の選手キャラクタの立場になって野球ゲームを体感する成長体感モード等が、用意されている。
続いて、モード選択画面で選択されたプレイモードにおいて、各種のイベントが、CPU7により実行される(S4)。ここで実行される各種のイベントには、たとえば、AIプログラム(Artificial Intelligence Program)に基づいてCPU7により自動制御されるイベントや、コントローラ17からの入力信号に基づいてプレイヤにより手動制御されるイベントのようなイベントがある。また、選手キャラクタの制御には、AIプログラムに基づいて選手キャラクタに命令を自動的に指示する自動制御や、コントローラ17からの入力信号に基づいて選手キャラクタに命令を直接的に指示する手動制御等がある。このように、本野球ゲームでは、コントローラ17からの指示やAIプログラムからの指示に応じて、イベントが制御されたり、選手キャラクタに命令が指示されたりするようになっている。
続いて、選択されたプレイモードが終了したか否かが、CPU7により判断される(S5)。具体的には、プレイモードが終了したことを示す命令が発行されたか否かが、CPU7により判断される。そして、プレイモードが終了したことを示す命令が発行されたとCPU7により判断された場合(S5でYes)、ゲーム継続用のデータをRAM12に格納する処理が、CPU7により実行される。そして、ゲーム継続用のデータがRAM12に格納されると、この野球ゲームを終了するか否かを選択する選択画面が、テレビジョンモニタ20に表示される(S6)。そして、この選択画面において、プレイヤがコントローラ17を操作することにより、野球ゲームの終了を示す項目が選択されると(S6でYes)、野球ゲームを終了するための処理がCPU7により実行される(S7)。一方で、この選択画面において、プレイヤがコントローラ17を操作することにより、野球ゲームの継続を示す項目が選択されると(S6でNo)、ステップ3(S3)のモード選択画面が、テレビジョンモニタ20に再表示される。
なお、プレイモードが終了するための命令が発行されたとCPU7に判断されない限り(S5でNo)、モード選択画面で選択されたプレイモードにおいて、各種のイベントがCPU7により実行される(S4)。
次に、映像表示システムの詳細を説明する。
本実施形態では、対戦モードが選択されたときに、映像表示システムが機能する場合の例が示される。たとえば、対戦モードにおいて試合イベントが実行されているときに、打者キャラクタによりホームランが放たれると、スタンドと、スタンドに飛び込むボールと、場外の建物と、場外の建物の表面に映る景色や建物等とが、テレビジョンモニタ20に表示される。ここで、場外の建物、および場外の建物の表面に映る景色や建物等を、テレビジョンモニタ20に表示する場合に、映像表示システムが用いられる。
以下では、1つの建物に注目して、この建物、およびこの建物の表面に映る景色や建物等を、映像表示システムを用いてテレビジョンモニタ20に表示する場合の例が示される。
映像表示システムでは、野球ゲームプログラムが、たとえば、記録媒体10からRAM12にロードされたときに、建物の表面のテクスチャに対応するテクスチャデータ、すなわち建物用のテクスチャデータが、RAM12に格納される(S101)。図3には、建物のある一面を見た場合の図が示されている。この建物の表面(外壁および屋上)のテクスチャに対応するテクスチャデータが、RAM12に格納される。また、このときには、この建物の表面に映りうる景色や建物等のテクスチャに対応する映り込み画像用のテクスチャデータが、RAM12に格納される(S102)。
映り込み画像用のテクスチャデータは、建物の表面に映りうる景色や建物等のテクスチャに対応するデータである。ここでは、図3に示すように、後述する映り込み画像用のポリゴンP2の重心位置PG0(後述する仮想カメラの注視点PG0)から、建物の壁面の外側の景色や建物等を見た場合の画像データが、映り込み画像用のテクスチャに対応する映り込み画像用のテクスチャデータTGとして用いられる。具体的には、映り込み画像用のテクスチャデータTGは、後述する仮想カメラの注視点PG0を撮影位置として、少なくとも建物の外面を撮影可能な画角GAを用いて、建物の外面の外側に位置する景色や建物等を撮影することにより生成されるデータである。
続いて、建物用のポリゴンP1が、3次元ゲーム空間に配置される(S103)。ここでは、RAM12に格納された建物用のポリゴンP1の位置座標データが、CPU7に認識される。そして、この位置座標データが示す位置に、建物用のポリゴンP1を配置する命令が、CPU7から発行される。すると、建物用のポリゴンP1が、3次元ゲーム空間に配置される。
なお、「建物用のポリゴン」という文言は、三角形や四角形等のポリゴン(各要素)という意味で用いられる場合と、三角形や四角形等のポリゴン(各要素)を組み合わせて建物(六面体)を形成するポリゴン集合体という意味で用いられる場合とがある。
続いて、映り込み画像用のポリゴンP2が、3次元ゲーム空間に配置される(S104)。ここでは、RAM12に格納された映り込み画像用のポリゴンP2の位置座標データが、CPU7に認識される。映り込み画像用のポリゴンP2の位置座標データが示す位置は、建物用のポリゴンP1の内部における所定の位置である。そして、この位置座標データが示す位置に、映り込み画像用のポリゴンP2を配置する命令が、CPU7から発行される。すると、映り込み画像用のポリゴンP2が、建物用のポリゴンP1の内部において、3次元ゲーム空間に配置される。
なお、「映り込み画像用のポリゴン」という文言は、三角形や四角形等のポリゴン(各要素)という意味で用いられる場合と、三角形や四角形等のポリゴン(各要素)を組み合わせて平面を形成するポリゴン集合体という意味で用いられる場合とがある。
続いて、光源Lが、図4に示すように、3次元ゲーム空間に設定される(S105)。ここでは、RAM12に格納された光源Lの位置座標データが、CPU7に認識される。そして、この位置座標データが示す位置に、光源Lを配置する命令が、CPU7から発行される。すると、光源Lが、3次元ゲーム空間に配置される。
続いて、仮想カメラCが、図3および図4に示すように、3次元ゲーム空間に配置される(S106)。ここでは、RAM12に格納された仮想カメラCの初期位置を示す位置座標データが、CPU7に認識される。そして、この位置座標データが示す位置に、仮想カメラCを配置する命令が、CPU7から発行される。すると、仮想カメラCが、3次元ゲーム空間の初期位置に配置される。
続いて、仮想カメラCの注視点PG0が、図3および図4に示すように、3次元ゲーム空間に配置される(S107)。ここでは、仮想カメラCの注視点PG0は、映り込み画像用のポリゴンP2上に配置される。具体的には、仮想カメラCの注視点PG0は、映り込み画像用のポリゴンP2の重心位置PG0に配置される。この映り込み画像用のポリゴンP2の重心位置PG0を示す位置座標データは、RAM12に格納されている。この位置座標データがCPU7に認識されると、この位置座標データが示す位置に、注視点PG0を配置する命令がCPU7から発行される。すると、注視点PG0が、3次元ゲーム空間に配置される。
続いて、建物用のポリゴンP1の外部において仮想カメラCを移動するためのカメラ移動命令がCPU7から発行されたか否かが、判別される(S108)。そして、建物用のポリゴンP1の外部において仮想カメラCを移動するためのカメラ移動命令がCPU7から発行された場合(S108でYes)、移動後の仮想カメラCの位置を示す座標データが、CPU7に認識される(S109)。一方で、建物用のポリゴンP1の外部において仮想カメラCを移動するためのカメラ移動命令がCPU7から発行されていない場合(S108でNo)、現在の仮想カメラCの位置を示す座標データが、CPU7に認識される(S110)。このようにして、仮想カメラCが仮想空間に定義され配置される。
続いて、建物表面の透明度Wに対応する、建物のテクスチャデータの透明度が、CPU7に認識される(S111)。ここでは、RAM12に格納された、建物の壁面に設けられる窓のテクスチャデータの透明度W1、および窓を除いた建物の壁面のテクスチャデータの透明度W2が、CPU7に認識される。これにより、建物表面に映る画像の映り込み度が設定される。
具体的には、ここでは、透明度Wが0%のときが不透明で、透明度Wが100%のときが透明であると定義されている。そして、RAM12に格納された、建物の壁面に設けられる窓のテクスチャデータの透明度W1が、たとえば100%であり、窓を除いた建物の壁面のテクスチャデータの透明度W2が、たとえば0%であった場合、建物の壁面の窓に映る景色や建物等だけを、テレビジョンモニタ20に表示することができる。
また、RAM12に格納された、建物の壁面に設けられる窓のテクスチャデータの透明度W1が、たとえば100%であり、窓を除いた建物の壁面のテクスチャデータの透明度W2が、たとえば100%であった場合、建物の壁面全体に映る画像を、テレビジョンモニタ20に表示することができる。
このように、RAM12に格納するテクスチャデータの透明度Wの値に応じて、建物表面に映る映像を、様々な映り込みの程度で、テレビジョンモニタ20に表示することができる。以下では、建物の壁面に設けられる窓のテクスチャデータの透明度W1が、100%であり、窓を除いた建物の壁面のテクスチャデータの透明度W2が、50%である場合の例を一例として、説明を行う。
続いて、仮想カメラCの位置、仮想カメラCの注視点PG0の位置、および光源Lの位置に応じて、建物のテクスチャデータの反射率Hを設定する処理を、CPU7に実行させることにより、反射効果の設定が実行される(S112)。ここでは、図4に示すように、仮想カメラCの位置と仮想カメラCの注視点PG0とを結ぶ直線LS1(第1直線)と、第1直線が建物表面と交わる交点Kと光源Lとを結ぶ直線LS2(第2直線)とがなす角度α(反射角度)を算出する処理が、CPU7により実行される。そして、この反射角度αに応じて、建物のテクスチャデータの反射率Hが設定される。
具体的には、まず、仮想カメラCの位置と仮想カメラCの注視点PG0とを結ぶ直線LS1が建物表面と交わる交点Kが、CPU7により算出される。そして、この交点Kから光源Lに向かうベクトルA<A>が、CPU7により算出される。また、この交点Kから仮想カメラCの位置に向かうベクトルB<B>が、CPU7により算出される。次に、ベクトルA<A>とベクトルB<B>との内積を求める式(cosα=(<A>・<B>)/(|<A>||<B>|))に基づいて、ベクトルA<A>とベクトルB<B>とがなす角度すなわち反射角度αが、CPU7により算出される。このようにして、第1直線LS1と第2直線LS2とがなす角度(反射角度α)が、CPU7により算出される。
なお、図4に示したベクトルA<A>およびベクトルB<B>は、図を見やすくするために、単位ベクトルで表示している。
この反射角度αに応じて、建物のテクスチャデータの反射率Hが設定される。ここでは、反射率Hが100%のときが完全反射で、反射率Hが0%のときが無反射であると定義されている。たとえば、図5に示すように、反射角度αが80度以上100以下の場合、反射率Hが、たとえば100%に設定される。そして、反射角度αが、90度から180度、又は90度から0度に向かうにつれて、反射率Hが小さくなるように設定される。これにより、仮想カメラCの位置に応じて、建物壁面で反射した光の眩しさを変更することができる。
なお、反射角度αと反射率Hとの対応関係は、ゲームプログラムにおいて予め規定されている。たとえば、反射角度αと反射率Hとの対応関係を示すテーブルは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。
続いて、仮想カメラCの位置および仮想カメラCの注視点PG0の位置に基づいて、映り込み画像用のテクスチャデータTGの少なくとも一部を抽出する処理を、CPU7に実行させることにより、建物表面に映る画像のテクスチャが決定される(S113)。
ここでは、図6に示すように、仮想カメラCの位置と仮想カメラCの注視点PG0とを結ぶ直線LS1(上記の第1直線)と、仮想カメラCの視線方向の角度を規定するために用いられる基準点Bと仮想カメラCの注視点PG0とを結ぶ直線LS3(第3直線)とがなす角度β(仮想カメラCの視線角度β)が、CPU7により算出される。
なお、仮想カメラCの視線方向の角度を規定するために用いられる基準点Bは、たとえば、仮想カメラCの注視点PG0を基準として、平面状の映り込み画像用のポリゴンP2に垂直な方向の所定の位置に配置される。この位置は、ゲームプログラムにおいて予め規定されている。
具体的には、仮想カメラCの注視点PG0から仮想カメラCの位置に向かうベクトルC<C>と、仮想カメラCの注視点PG0から基準点Bに向かうベクトルD<D>との内積を求める式(cosβ=(<C>・<D>)/(|<C>||<D>|))に基づいて、ベクトルC<C>とベクトルD<D>とがなす角度すなわち視線角度βが、CPU7により算出される。このようにして、第1直線LS1と第3直線LS3とがなす角度(視線角度β)が、CPU7により算出される。
また、図3および図6に示すように、仮想カメラCと建物表面との距離BC(カメラ建物間距離)が、CPU7により算出される。具体的には、仮想カメラCから建物表面又は建物表面の延長面に下ろした垂線の長さを算出する処理を、CPU7に実行させることにより、カメラ建物間距離BCが設定される。
すると、建物表面に映り込む画像上における、視線角度βに対応する位置TS(建物表面に映り込む画像上の視線対応位置)の座標データが、CPU7により検出され認識される。ここでは、建物表面に映り込む画像上の視線対応位置TSの座標データは、次のようにして、CPU7により検出される。
たとえば、図3に示すように、映り込み画像用のテクスチャデータTGに対応する画像(建物表面に映り込む画像)における、四隅T1,T2,T3,T4の位置および重心の位置T0が、CPU7に認識される。具体的には、建物表面に映り込む画像の四隅それぞれの位置座標データT1(0,0),T2(0,1),T3(1,1),T4(1,0)、および重心の位置座標データT0(0.5,0.5)が、CPU7に認識される。
視線角度βが0度である場合、重心の位置座標データT0(0.5,0.5)が、この視線角度βに対応する、建物表面に映り込む画像上の視線対応位置TSの座標データとして、CPU7に認識される。この視線角度βが0度である場合の、建物表面に映り込む画像上の視線対応位置TS(=T0)が、基準となる。
ここで、図6に示すように、映り込み画像用のポリゴンP2の重心位置PG0を原点として、水平方向をx座標、垂直方向をy座標とし、仮想カメラCの注視点PG0から基準点Bに向かうベクトルD<D>の方向を、z方向と定義する。この座標系において、視線角度βをxz平面に投影した角度βxz(図3を参照)に応じて、建物表面に映り込む画像上の視線対応位置TSのx座標が設定される。また、視線角度βをyz平面に投影した角度βyz(図示しない)に応じて、建物表面に映り込む画像上の視線対応位置TSのy座標が設定される。
具体的には、仮想カメラCの位置と仮想カメラCの注視点PG0とを結ぶ直線LS1が、仮想カメラC側の建物表面の幅方向の境界と交わるときの角度βxz_max(図3を参照)を算出する処理が、CPU7により実行される。また、仮想カメラCの位置と仮想カメラCの注視点PG0とを結ぶ直線LS1が、仮想カメラC側の建物表面の高さ方向の境界と交わるときの角度βyz_max(図示しない)を算出する処理が、CPU7により実行される。そして、視線角度βをxz平面に投影した角度βxzを、角度βxz_maxで除算する処理(βxz/βxz_max)が、CPU7により実行される。また、視線角度βをyz平面に投影した角度βyzを、角度βyz_maxで除算する処理(βyz/βyz_max)が、CPU7により実行される。
そして、建物表面に映り込む画像上の視線対応位置TS(=T0)を基準とした、除算結果である「(βxz/βxz_max,βyz/βyz_max)」の位置が、視線角度βに対応する位置TS(建物表面に映り込む画像上の視線対応位置)の座標データとして、CPU7に認識される。
このようにして、視線角度βに対応する位置TS(建物表面に映り込む画像上の視線対応位置)がCPU7に認識されると、この位置TSを基準として、カメラ建物間距離BCに対応する画像の抽出範囲、すなわち建物表面に映り込む画像内の部分画像の範囲が、CPU7により設定され認識される。このようにして、映り込み画像用のテクスチャデータTGの少なくとも一部が、CPU7により抽出される。
ここでは、たとえば、カメラ建物間距離BCが建物の幅方向の長さと等しい場合に、建物表面に映る画像が等倍になるように、カメラ建物間距離BCと、画像を抽出する範囲(境界)を定義するためのデータとが対応付けられている。そして、カメラ建物間距離BCが仮想カメラC側の建物表面に近づくにつれて、建物表面に映り込む画像内から抽出される画像の範囲が小さくなるように、カメラ建物間距離BCと、画像を抽出する範囲(境界)を定義するためのデータとが対応付けられている。一方で、カメラ建物間距離BCが仮想カメラC側の建物表面から遠ざかるにつれて、建物表面に映り込む画像内から抽出される画像の範囲が大きくなるように、カメラ建物間距離BCと、画像を抽出する範囲(境界)を定義するためのデータとが対応付けられている。
なお、ここでは、画像を抽出する範囲(境界)を定義するためのデータ、すなわち建物表面に映り込む画像内の部分画像の範囲を定義するためのデータは、四隅の座標データになっている。すなわち、カメラ建物間距離BCが算出されると、視線角度βに対応する位置TSを示すx座標データおよびy座標データそれぞれに、カメラ建物間距離BCに対応する4つの所定の値を加算する処理が、CPU7により実行される。これにより、視線角度βに対応する位置TSを基準とした、四隅の座標データTS1,TS2,TS3,TS4(図3を参照)が、求められる。建物表面に映り込む画像内の部分画像の範囲を定義するための、これら四隅の座標データTS1,TS2,TS3,TS4(図3を参照)をCPU7に認識させることにより、建物表面に映り込む画像内の部分画像の範囲を規定することができ、建物表面に映り込む画像内の部分画像を抽出することができる。
続いて、建物用のテクスチャデータを建物用のポリゴンP1に投影する処理が、CPU7により実行される(S114)。たとえば、建物用のポリゴンP1の3次元座標を2次元座標系に対応づける処理(マッピング)が、CPU7により実行される。そして、建物用のテクスチャデータの座標を、建物用のポリゴンP1をマッピングした2次元座標系に対応づける処理が、CPU7により実行される。これにより、建物用のポリゴンモデルPM1が生成される。ここで生成される建物用のポリゴンモデルPM1は、透明度Wの値に応じて、少なくとも一部が透明性を有している。たとえば、この建物用のポリゴンモデルPM1では、壁面の窓は、100%の透明度W1に対応する透明性を有し、窓を除いた建物の壁面は、50%の透明度W2に対応する透明性を有している。
続いて、抽出された映り込み画像用のテクスチャデータを映り込み画像用のポリゴンP2に投影する処理が、CPU7により実行される(S115)。たとえば、映り込み画像用のポリゴンP2の3次元座標を2次元座標系に対応づける処理(マッピング)が、CPU7により実行される。そして、抽出された映り込み画像用のテクスチャデータの座標を、映り込み画像用のポリゴンP2をマッピングした2次元座標に対応づける処理が、CPU7により実行される。これにより、映り込み画像用のポリゴンモデルPM2が生成される。
続いて、建物用のポリゴンモデルPM1の内部の映り込み画像用のポリゴンモデルPM2を、建物用のポリゴンモデルPM1の壁面全体を通して、建物用のポリゴンモデルPM1の外部から仮想カメラCにより撮影する処理をCPU7に実行させることにより、図7に示すように、建物と建物表面に映る映像とがテレビジョンモニタ20に表示される(S116)。
なお、図7では、建物表面に映る映像を破線にて示している。また、建物表面に映る映像をテレビジョンモニタ20に表示するためのポリゴンモデルPM2は、図6に示すポリゴンP2の位置に形成されている。
具体的には、仮想カメラCに対する撮影命令をCPU7に発行させることにより、仮想カメラCに写る画像が、テレビジョンモニタ20に表示される。たとえば、仮想カメラCの注視点PG0が、建物用のポリゴンP1の内部に配置される場合、撮影命令がCPU7から発行されると、建物用のポリゴンモデルPM1の内部の映り込み画像用のポリゴンモデルPM2が、建物用のポリゴンモデルPM1の壁面全体を通して、建物用のポリゴンモデルPM1の外部から仮想カメラCにより撮影される。すると、建物の画像と、建物表面に映る画像(建物表面に映り込む画像)とが、テレビジョンモニタ20に表示される。
なお、上述した映像表示システムの説明において、ステップ101(S101)の処理およびステップ102(S102)の処理は、ステップ1(S1)において実行される。また、ステップ103(S103)からステップ116(S116)までの処理は、ステップ4(S4)において実行される。すなわち、プレイモードが終了したことを示す命令がCPU7から発行されるまでの間において(S5でYesになるまでの間において)、建物がテレビジョンモニタ20に表示されるときには、このステップ103(S103)からステップ116(S116)までの処理が実行される。
上記のように、本実施形態では、建物用のポリゴンモデルPM1の内部に配置された映り込み画像用のポリゴンモデルPM2を、建物用のポリゴンモデルPM1の外部から仮想カメラCにより撮影することにより、仮想カメラCが建物を撮影する位置に応じて、建物表面に異なる映像を、描画することができる。また、仮想カメラCが建物を撮影する位置に応じて異なる視差を、テレビジョンモニタ20に表示される映像において表現することができる。このように、建物表面に映る画像を、リアリティのある表現で、テレビジョンモニタ20に表示することができる。
〔他の実施形態〕
(a )前記実施形態では、オブジェクト用のポリゴンモデルの内部に配置された映り込み画像用のポリゴンモデルを、オブジェクト用のポリゴンモデルの透明な部分を通して、オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影することにより、仮想カメラがオブジェクトを撮影する位置に応じて異なる画像(オブジェクト表面に映る画像)を、画像表示部に表示するものである。ここで、映り込み画像用のポリゴンモデルをオブジェクト用のポリゴンモデルの透明な部分から奥行き方向に複数、互いに離間させて配置するようにしてもよい。例えば、透明な部分の内側に車のポリゴンモデルを配置し、さらにその奥に家のポリゴンモデルを配置し、さらにその奥に森を含む背景のポリゴンモデルを配置するようにする。この場合には、仮想カメラの位置や移動によって、家の一部がその前に位置する車によって遮られて見えたり、全く遮られることなく全体像が見えたりすることになる。同時に、背景の森がその前に位置する車や家によって遮られる部分が変化することになる。つまり、複数の互いに離間したポリゴンモデルによって外部の写り込み景色を構成することで、一枚からなるポリゴンモデルで外部の写り込み景色を構成する場合に比べ、奥行き感のあるより立体的な現実に近い画像表現を行うことができる。
(b)前記実施形態では、ゲームプログラムを適用しうるコンピュータの一例としての家庭用ビデオゲーム装置を用いた場合の例を示したが、ゲーム装置は、前記実施形態に限定されず、モニタが別体に構成されたゲーム装置、モニタが一体に構成されたゲーム装置、ゲームプログラムを実行することによってゲーム装置として機能するパーソナルコンピュータやワークステーションなどにも同様に適用することができる。
(c)本発明には、前述したようなゲームを実行するプログラムおよびこのプログラムを記録したコンピュータ読み取り可能な記録媒体も含まれる。この記録媒体としては、カートリッジ以外に、たとえば、コンピュータ読み取り可能なフレキシブルディスク、半導体メモリ、CD−ROM、DVD、MO、ROMカセット、その他のものが挙げられる。
本発明の一実施形態によるビデオゲーム装置の基本構成図。 前記ビデオゲーム装置の一例としての機能ブロック図。 3次元ゲーム空間における、建物用のポリゴン、映り込み画像用のポリゴン、および仮想カメラ等の配置位置を説明するための図。 3次元ゲーム空間における、仮想カメラの位置、注視点の位置、および光源の位置を示す図。 反射角度と反射率との対応関係を示す図。 視線角度を算出方法を説明するための図。 モニタに表示される建物と建物表面に映る映像とを示す図(モニタに表示される部分のポリゴンモデルを示す図)。 野球ゲームの全体概要を示すフロー。 映像表示システムを説明するためのフローチャート。
1 制御部
3 画像表示部
7 CPU
12 RAM
17 コントローラ
20 テレビジョンモニタ
50 第1テクスチャ格納手段
51 第2テクスチャ格納手段
52 第1ポリゴン配置手段
53 第2ポリゴン配置手段
54 光源配置手段
55 カメラ配置手段
56 注視点配置手段
57 映り込み度設定手段
58 反射効果付加手段
59 テクスチャ決定手段
60 第1ポリゴン生成手段
61 第2ポリゴン生成手段
62 画像表示手段
C 仮想カメラ
BC カメラ建物間距離
PG0 注視点
P1 建物用のポリゴン
PM1 建物用のポリゴンモデル
P2 映り込み画像用のポリゴン
PM2 映り込み画像用のポリゴンモデル
TG 映り込み画像用のテクスチャデータ
L 光源
α 反射角度
β 視線角度
H 反射率

Claims (8)

  1. オブジェクトを画像表示部に表示するためのデータを処理可能なコンピュータに、
    オブジェクト用のテクスチャデータを、記憶部に格納する第1テクスチャ格納機能と、
    前記オブジェクトの外側の画像に対応する映り込み画像用のテクスチャデータを、記憶部に格納する第2テクスチャ格納機能と、
    オブジェクト用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、前記オブジェクト用のポリゴンを仮想空間に配置する第1ポリゴン配置機能と、
    前記オブジェクト用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、前記映り込み画像用のポリゴンを前記オブジェクト用のポリゴンの内部に配置する第2ポリゴン配置機能と、
    前記オブジェクト用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置機能と、
    仮想カメラの注視点に対応する座標データを、制御部に認識させることにより、前記仮想カメラの注視点を仮想空間に配置する注視点配置機能と、
    仮想カメラの位置および前記仮想カメラの注視点の位置に基づいて、前記映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、制御部に実行させることにより、オブジェクト表面に映る画像のテクスチャを決定するテクスチャ決定機能と、
    前記オブジェクト用のテクスチャデータを前記オブジェクト用のポリゴンに投影する処理を、制御部に実行させることにより、少なくとも一部が透明なオブジェクト用のポリゴンモデルを生成する第1ポリゴン生成機能と、
    抽出された前記映り込み画像用のテクスチャデータを前記映り込み画像用のポリゴンに投影する処理を、制御部に実行させることにより、映り込み画像用のポリゴンモデルを生成する第2ポリゴン生成機能と、
    前記オブジェクト用のポリゴンモデルの内部の前記映り込み画像用のポリゴンモデルを、前記オブジェクト用のポリゴンモデルの透明な部分を通して、前記オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影する処理を制御部に実行させることにより、前記オブジェクトと前記オブジェクト表面に映る画像とを画像表示部に表示する画像表示機能と、
    を実現させるための画像処理プログラム。
  2. 前記カメラ配置機能では、前記オブジェクト用のポリゴンの外部において仮想カメラを移動するためのカメラ移動命令が制御部から発行された場合、移動後の仮想カメラの位置を示す座標データを、制御部に認識させることにより、仮想カメラが仮想空間に配置され、
    前記テクスチャ決定機能では、移動後の仮想カメラの位置および仮想カメラの注視点の位置に応じて、前記映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、制御部に実行させることにより、前記オブジェクト表面に映る画像のテクスチャが決定される、
    請求項1に記載の画像処理プログラム。
  3. 前記コンピュータに、
    前記オブジェクトのテクスチャデータの透明度を制御部に認識させることにより、前記オブジェクト表面に映る画像の映り込み度を設定する映り込み度設定機能と、
    をさらに実現させるための請求項1又は2に記載の画像処理プログラム。
  4. 前記コンピュータに、
    前記オブジェクト用のポリゴンの外部において光源の配置位置を規定するための座標データを、制御部に認識させることにより、光源を仮想空間に配置する光源配置機能と、
    仮想カメラの位置、仮想カメラの注視点の位置、および光源の位置に応じて、前記オブジェクトのテクスチャデータの反射率を設定する処理を、制御部に実行させることにより、前記オブジェクト表面に映る画像に反射効果を付加する反射効果付加機能と、
    をさらに実現させるための請求項1から3のいずれかに記載の画像処理プログラム。
  5. 前記テクスチャ決定機能では、仮想カメラの位置を示す座標データおよび仮想カメラの注視点を示す座標データに基づいて、仮想カメラの視線角度を算出する処理を制御部に実行させ、前記映り込み画像用のテクスチャデータが示す画像における、前記視線角度に対応する座標データを、制御部に認識させることにより、前記視線角度に対応する座標データが示す位置を基準として、前記オブジェクト表面に映る画像のテクスチャが抽出される、
    請求項1から4のいずれかに記載の画像処理プログラム。
  6. 前記テクスチャ決定機能では、仮想カメラの位置を示す座標データに基づいて、仮想カメラの位置と前記オブジェクトとの距離を算出する処理を、制御部にさらに実行させ、前記距離に対応する、オブジェクト表面に映る画像の範囲を、制御部に認識させることにより、前記視線角度に対応する座標データが示す位置を基準として、前記オブジェクト表面に映る画像の範囲のテクスチャが抽出される、
    請求項5に記載の画像処理プログラム。
  7. オブジェクトを画像表示部に表示するためのデータを処理可能な画像処理装置であって、
    オブジェクト用のテクスチャデータを、記憶部に格納する第1テクスチャ格納手段と、
    前記オブジェクトの外側の画像に対応する映り込み画像用のテクスチャデータを、記憶部に格納する第2テクスチャ格納手段と、
    オブジェクト用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、前記オブジェクト用のポリゴンを仮想空間に配置する第1ポリゴン配置手段と、
    前記オブジェクト用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、前記映り込み画像用のポリゴンを前記オブジェクト用のポリゴンの内部に配置する第2ポリゴン配置手段と、
    前記オブジェクト用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置手段と、
    仮想カメラの注視点に対応する座標データを、制御部に認識させることにより、前記仮想カメラの注視点を仮想空間に配置する注視点配置手段と、
    仮想カメラの位置および前記仮想カメラの注視点の位置に基づいて、前記映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、制御部に実行させることにより、オブジェクト表面に映る画像のテクスチャを決定するテクスチャ決定手段と、
    前記オブジェクト用のテクスチャデータを前記オブジェクト用のポリゴンに投影する処理を、制御部に実行させることにより、少なくとも一部が透明なオブジェクト用のポリゴンモデルを生成する第1ポリゴン生成手段と、
    抽出された前記映り込み画像用のテクスチャデータを前記映り込み画像用のポリゴンに投影する処理を、制御部に実行させることにより、映り込み画像用のポリゴンモデルを生成する第2ポリゴン生成手段と、
    前記オブジェクト用のポリゴンモデルの内部の前記映り込み画像用のポリゴンモデルを、前記オブジェクト用のポリゴンモデルの透明な部分を通して、前記オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影する処理を制御部に実行させることにより、前記オブジェクトと前記オブジェクト表面に映る画像とを画像表示部に表示する画像表示手段と、
    を備える画像処理装置。
  8. オブジェクトを画像表示部に表示するためのデータをコンピュータにより制御する画像制御方法であって、
    オブジェクト用のテクスチャデータを、記憶部に格納する第1テクスチャ格納ステップと、
    前記オブジェクトの外側の画像に対応する映り込み画像用のテクスチャデータを、記憶部に格納する第2テクスチャ格納ステップと、
    オブジェクト用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、前記オブジェクト用のポリゴンを仮想空間に配置する第1ポリゴン配置ステップと、
    前記オブジェクト用のポリゴンの内部において映り込み画像用のポリゴンの配置位置を規定するための座標データを制御部に認識させることにより、前記映り込み画像用のポリゴンを前記オブジェクト用のポリゴンの内部に配置する第2ポリゴン配置ステップと、
    前記オブジェクト用のポリゴンの外部において仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置ステップと、
    仮想カメラの注視点に対応する座標データを、制御部に認識させることにより、前記仮想カメラの注視点を仮想空間に配置する注視点配置ステップと、
    仮想カメラの位置および前記仮想カメラの注視点の位置に基づいて、前記映り込み画像用のテクスチャデータの少なくとも一部を抽出する処理を、制御部に実行させることにより、オブジェクト表面に映る画像のテクスチャを決定するテクスチャ決定ステップと、
    前記オブジェクト用のテクスチャデータを前記オブジェクト用のポリゴンに投影する処理を、制御部に実行させることにより、少なくとも一部が透明なオブジェクト用のポリゴンモデルを生成する第1ポリゴン生成ステップと、
    抽出された前記映り込み画像用のテクスチャデータを前記映り込み画像用のポリゴンに投影する処理を、制御部に実行させることにより、映り込み画像用のポリゴンモデルを生成する第2ポリゴン生成ステップと、
    前記オブジェクト用のポリゴンモデルの内部の前記映り込み画像用のポリゴンモデルを、前記オブジェクト用のポリゴンモデルの透明な部分を通して、前記オブジェクト用のポリゴンモデルの外部から仮想カメラにより撮影する処理を制御部に実行させることにより、前記オブジェクトと前記オブジェクト表面に映る画像とを画像表示部に表示する画像表示ステップと、
    を備える画像制御方法。
JP2008154825A 2008-06-13 2008-06-13 画像処理プログラム、画像処理装置、および画像制御方法 Active JP4714763B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008154825A JP4714763B2 (ja) 2008-06-13 2008-06-13 画像処理プログラム、画像処理装置、および画像制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008154825A JP4714763B2 (ja) 2008-06-13 2008-06-13 画像処理プログラム、画像処理装置、および画像制御方法

Publications (2)

Publication Number Publication Date
JP2009301309A JP2009301309A (ja) 2009-12-24
JP4714763B2 true JP4714763B2 (ja) 2011-06-29

Family

ID=41548132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008154825A Active JP4714763B2 (ja) 2008-06-13 2008-06-13 画像処理プログラム、画像処理装置、および画像制御方法

Country Status (1)

Country Link
JP (1) JP4714763B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101932595B1 (ko) 2012-10-24 2018-12-26 삼성전자주식회사 영상에서 투명 오브젝트를 검출하는 영상 처리 장치 및 방법
DE102018203405A1 (de) * 2018-03-07 2019-09-12 Zf Friedrichshafen Ag Visuelles Surround-View-System zur Überwachung des Fahrzeuginneren
KR102285339B1 (ko) * 2020-02-17 2021-08-02 한국기술교육대학교 산학협력단 증강현실 기반 인터페이스를 이용한 3차원 가상 이미지 출력 방법
CN116067283B (zh) * 2023-04-03 2023-08-04 成都飞机工业(集团)有限责任公司 一种深腔测量方法、装置、设备及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067771A (ja) * 2001-08-24 2003-03-07 Konami Co Ltd 3次元画像処理プログラム、3次元画像処理方法及びビデオゲーム装置
JP2004171251A (ja) * 2002-11-20 2004-06-17 Hitachi Ltd 画像生成装置
JP2008003870A (ja) * 2006-06-22 2008-01-10 Samii Kk 画像生成方法及び装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271999A (ja) * 1994-03-31 1995-10-20 Oki Electric Ind Co Ltd 3次元地形出力方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067771A (ja) * 2001-08-24 2003-03-07 Konami Co Ltd 3次元画像処理プログラム、3次元画像処理方法及びビデオゲーム装置
JP2004171251A (ja) * 2002-11-20 2004-06-17 Hitachi Ltd 画像生成装置
JP2008003870A (ja) * 2006-06-22 2008-01-10 Samii Kk 画像生成方法及び装置

Also Published As

Publication number Publication date
JP2009301309A (ja) 2009-12-24

Similar Documents

Publication Publication Date Title
JP3877077B2 (ja) ゲーム装置および画像処理プログラム
JP5706241B2 (ja) 画像生成プログラム、画像生成装置、画像生成システム及び画像生成方法
JP4177381B2 (ja) 画像生成方法、画像生成装置、および画像生成プログラム
US8259112B2 (en) Image generating apparatus, method of generating image, program, and recording medium
JP5822655B2 (ja) ゲーム処理システム、ゲーム処理方法、ゲーム処理装置およびゲーム処理プログラム
US8520901B2 (en) Image generation system, image generation method, and information storage medium
JP2009237680A (ja) プログラム、情報記憶媒体および画像生成システム
JP3625184B2 (ja) ゲーム用3次元画像処理方法、装置、ゲーム用3次元画像処理プログラムを記録した可読記録媒体及びビデオゲーム装置
US8072458B2 (en) Storage medium having game program stored thereon and game apparatus
JP2000102672A (ja) ビデオゲーム装置、ビデオゲームにおけるゲーム画面の視点切替方法及びビデオゲームにおけるゲーム画面の視点切替プログラムが記録された可読記録媒体
US20050009602A1 (en) Storage medium and game device storing image generating program
JP2011258158A (ja) プログラム、情報記憶媒体及び画像生成システム
JP5960409B2 (ja) ゲーム処理システム、ゲーム処理方法、ゲーム処理装置およびゲーム処理プログラム
JP4343207B2 (ja) ゲーム装置および画像処理プログラム
JP4714763B2 (ja) 画像処理プログラム、画像処理装置、および画像制御方法
JP2009273865A (ja) ゲームプログラム、ゲーム装置及びゲーム制御方法
JP5237312B2 (ja) ゲームプログラム、ゲーム装置、ゲーム制御方法
JP3602835B2 (ja) ビデオゲーム装置およびその制御方法ならびにゲームプログラム
JP2009129167A (ja) プログラム、情報記憶媒体、及び画像生成システム
US20050068313A1 (en) Game software and game machine
JP4572245B2 (ja) 画像処理プログラム、画像処理装置及び画像処理制御方法
JP4447000B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP5149956B2 (ja) ゲームプログラム、ゲーム装置、ゲーム制御方法
JP2000268193A (ja) 画像作成装置、画像作成方法、画像作成プログラムが記録された可読記録媒体およびビデオゲーム装置
JP4824738B2 (ja) ゲームプログラム、ゲーム装置、及びゲーム制御方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110328

R150 Certificate of patent or registration of utility model

Ref document number: 4714763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250