JP2002236935A - Image display device, image display method, information storage medium and image display program - Google Patents

Image display device, image display method, information storage medium and image display program

Info

Publication number
JP2002236935A
JP2002236935A JP2001219501A JP2001219501A JP2002236935A JP 2002236935 A JP2002236935 A JP 2002236935A JP 2001219501 A JP2001219501 A JP 2001219501A JP 2001219501 A JP2001219501 A JP 2001219501A JP 2002236935 A JP2002236935 A JP 2002236935A
Authority
JP
Japan
Prior art keywords
frame buffer
polygon
coordinates
image display
intermediate point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001219501A
Other languages
Japanese (ja)
Other versions
JP4726347B2 (en
Inventor
Toru Okatsu
徹 大勝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2001219501A priority Critical patent/JP4726347B2/en
Publication of JP2002236935A publication Critical patent/JP2002236935A/en
Application granted granted Critical
Publication of JP4726347B2 publication Critical patent/JP4726347B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image display device, an image display method, an information storage medium and an image display program capable of reducing distortions of each polygon shape when displaying an image of a three dimensional object composed of polygons on a curved screen. SOLUTION: An intermediate point calculating part 41 calculates coordinates of an intermediate point between two vertexes of a polygon arranged in three dimensional space. A coordinate transformation process part 42 calculates a storing position of a circular frame buffer 50 corresponding to each vertex coordinates and the intermediate point coordinates. A borderline calculating part 43 specifies an arc shape passing three points on the circular frame buffer 50 respectively corresponding to the two adjacent vertexes and the intermediate point in between. After a borderline corresponding to the polygon is approximated by an arc, a texture mapping process part 44 generates image information regarding a polygon interior surrounded by the arc as a drawing area.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、広角レンズを通し
て曲面スクリーンに画像を投影する画像表示装置、画像
表示方法、情報記憶媒体および画像表示プログラムに関
する。
The present invention relates to an image display device, an image display method, an information storage medium, and an image display program for projecting an image on a curved screen through a wide-angle lens.

【0002】[0002]

【従来の技術】従来から、非平面スクリーン上に画像を
投影する画像表示装置が知られている。例えば、特開平
9−81785号公報や特開平3−82493号公報に
は、非平面スクリーンに画像を投影するとともに、投影
した画像の歪みを補正する各種の画像表示装置が開示さ
れている。平面スクリーンに投影するために作成した画
像を、そのまま非平面スクリーンに投影すると歪んだ画
像が表示される。このため、上述した画像表示装置で
は、表示の際に歪むことを考慮して、歪んだ結果正常な
表示内容となるようにあらかじめ反対方向に歪んだ画像
を生成することにより、非平面スクリーン上の表示の歪
みを補正している。
2. Description of the Related Art Conventionally, an image display device for projecting an image on a non-planar screen has been known. For example, JP-A-9-81785 and JP-A-3-82493 disclose various image display devices that project an image on a non-planar screen and correct distortion of the projected image. When an image created for projection on a flat screen is projected on a non-flat screen as it is, a distorted image is displayed. For this reason, in the image display device described above, in consideration of the distortion at the time of display, by generating an image that is distorted in the opposite direction in advance so as to obtain a normal display content as a result of the distortion, a non-planar screen is displayed. Display distortion is corrected.

【0003】[0003]

【発明が解決しようとする課題】ところで、上述した従
来の画像表示装置では、非平面スクリーンに投影するこ
とにより凸形状に歪む場合には、あらかじめ凹形状に歪
んだ画像を生成しておいて、結果的に非平面スクリーン
上の歪みを補正している。ところが、この方法では、三
次元空間内に配置された三次元オブジェクトを非平面ス
クリーンに表示するような場合は、十分に歪みを補正す
ることができなかった。例えば、画像の投影位置と視点
位置が異なる場合には、三次元オブジェクトの遠近の程
度によって、生成画像に与える歪みの程度が異なるた
め、生成画像を単純に歪ませただけでは、投影後の画像
の歪みを取り除くことはできない。
In the above-described conventional image display device, when the image is distorted into a convex shape by projecting it on a non-planar screen, an image distorted into a concave shape is generated in advance. As a result, the distortion on the non-planar screen is corrected. However, with this method, when a three-dimensional object arranged in a three-dimensional space is displayed on a non-planar screen, distortion cannot be sufficiently corrected. For example, when the projection position of the image and the viewpoint position are different, the degree of distortion given to the generated image varies depending on the degree of perspective of the three-dimensional object. The distortion of can not be removed.

【0004】特に、二次元画像の歪み補正と三次元画像
の歪み補正とでは本質的に相違すると考えられるが、上
述した公報に開示された画像表示装置では、単に二次元
画像の歪み補正の手法について開示しているだけであ
り、これらの手法を用いただけでは、複数のオブジェク
トによって構成した三次元オブジェクトをスクリーン上
に投影した場合に生じる各ポリゴン形状の歪みを充分に
除去することができないという問題があった。
In particular, although it is considered that the two-dimensional image distortion correction is essentially different from the three-dimensional image distortion correction, the image display apparatus disclosed in the above-mentioned publication discloses a method of simply correcting the two-dimensional image distortion. However, the use of only these methods cannot sufficiently remove distortion of each polygonal shape caused when a three-dimensional object composed of a plurality of objects is projected on a screen. was there.

【0005】本発明は、このような点に鑑みて創作され
たものであり、その目的は、ポリゴンによって構成した
三次元オブジェクトの画像を曲面スクリーンに表示する
際に各ポリゴン形状の歪みを少なくすることができる画
像表示装置、画像表示方法、情報記憶媒体および画像表
示プログラムを提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and has as its object to reduce distortion of each polygon shape when displaying an image of a three-dimensional object constituted by polygons on a curved screen. It is an object of the present invention to provide an image display device, an image display method, an information storage medium, and an image display program, which are capable of displaying an image.

【0006】[0006]

【課題を解決するための手段】上述した課題を解決する
ために、本発明の画像表示装置は、仮想的な三次元空間
に配置された三次元オブジェクトの画像を広角レンズを
通して曲面スクリーンに投影するために、フレームバッ
ファ、投影装置、輪郭線算出手段、画像情報格納手段を
備えている。フレームバッファは、曲面スクリーン上に
投影すべき位置と画像情報の格納位置とが対応してい
る。投影装置は、フレームバッファに格納された画像情
報に対応する画像を前記広角レンズに向けて照射する。
輪郭線算出手段は、三次元オブジェクトを構成するポリ
ゴンの輪郭線に対応するフレームバッファ上のポリゴン
の輪郭線の形状を曲線で近似する。画像情報格納手段
は、輪郭線算出手段によって近似された輪郭線で囲まれ
たフレームバッファの格納位置に、対応する三次元オブ
ジェクトの画像情報を格納する。三次元オブジェクトを
ポリゴンによって構成した場合に、各ポリゴンの輪郭線
を直線形状としてフレームバッファ上に描画処理を行っ
た場合には、曲面スクリーン上の画像が歪むため、三次
元オブジェクトを構成する各ポリゴンの輪郭線が歪んで
非直線形状になってしまう。本発明では、フレームバッ
ファ上のポリゴンの輪郭線を直線形状ではなく曲線形状
で近似することにより、曲面スクリーンに投影された三
次元オブジェクトを構成する各ポリゴンの輪郭線を、歪
みの少ないほぼ直線形状にすることができる。
In order to solve the above-mentioned problems, an image display apparatus of the present invention projects an image of a three-dimensional object arranged in a virtual three-dimensional space onto a curved screen through a wide-angle lens. For this purpose, a frame buffer, a projection device, a contour calculation unit, and an image information storage unit are provided. In the frame buffer, the position to be projected on the curved screen corresponds to the storage position of the image information. The projection device irradiates an image corresponding to the image information stored in the frame buffer toward the wide-angle lens.
The outline calculating means approximates the shape of the outline of the polygon on the frame buffer corresponding to the outline of the polygon constituting the three-dimensional object by a curve. The image information storage means stores the image information of the corresponding three-dimensional object at the storage position of the frame buffer surrounded by the contour approximated by the contour calculation means. If the three-dimensional object is composed of polygons and the outline of each polygon is drawn as a straight line on the frame buffer, the image on the curved screen will be distorted. Is distorted into a non-linear shape. According to the present invention, the outline of each polygon constituting the three-dimensional object projected on the curved screen is formed into a substantially linear shape with little distortion by approximating the outline of the polygon on the frame buffer with a curved shape instead of a linear shape. Can be

【0007】また、本発明の画像表示装置は、中間点算
出手段と座標計算手段をさらに備えていることが望まし
い。中間点算出手段は、ポリゴンに含まれていて隣接す
る2つの頂点を結ぶ直線上あるいはその近傍に位置する
仮想的な三次元空間内の中間点の座標を算出する。座標
計算手段は、仮想的な三次元空間内における2つの頂点
および中間点のそれぞれに対応するフレームバッファの
格納位置を計算する。そして、上述した輪郭線算出手段
は、2つの頂点および中間点のそれぞれに対応するフレ
ームバッファ上の各点を通る曲線の形状を決定する。こ
のようにして、曲線近似を行うことにより、実際に投影
された三次元オブジェクトを構成する各ポリゴンの輪郭
線を、直線上に配置された複数の点を通る形状、すなわ
ち歪みの少ない直線に近づけることができる。
It is desirable that the image display device of the present invention further includes an intermediate point calculating means and a coordinate calculating means. The intermediate point calculating means calculates coordinates of an intermediate point in a virtual three-dimensional space located on or near a straight line connecting two adjacent vertices included in the polygon. The coordinate calculation means calculates a storage position of the frame buffer corresponding to each of the two vertices and the intermediate point in the virtual three-dimensional space. Then, the above-described contour calculating means determines the shape of the curve passing through each point on the frame buffer corresponding to each of the two vertices and the intermediate point. By performing the curve approximation in this manner, the contour of each polygon constituting the actually projected three-dimensional object is approximated to a shape passing through a plurality of points arranged on a straight line, that is, a straight line with little distortion. be able to.

【0008】また、上述した曲線の形状を決定するため
にN個の点を指定する必要がある場合に、中間点算出手
段は、少なくとも(N−2)個の中間点の座標を算出す
ることが望ましい。このようにして、2つの頂点と(N
−2)個の中間点が特定されるため、ポリゴンの輪郭線
に対する正確な曲線形状を求めることができる。
When it is necessary to designate N points in order to determine the shape of the above-mentioned curve, the intermediate point calculating means calculates coordinates of at least (N-2) intermediate points. Is desirable. Thus, two vertices and (N
-2) Since the number of intermediate points is specified, it is possible to obtain an accurate curve shape for the outline of the polygon.

【0009】特に、上述した曲線は円弧であり、中間点
算出手段によって、1個の中間点の座標を算出すること
が望ましい。曲線近似を円弧を用いて行う場合には、1
個の中間点を追加するだけでよいため、曲線近似を行う
ために必要な演算量および中間点を算出するために必要
な演算量を低減することができる。
In particular, the above-mentioned curve is a circular arc, and it is desirable that the coordinates of one intermediate point be calculated by the intermediate point calculating means. When performing curve approximation using an arc, 1
Since it is only necessary to add the number of intermediate points, it is possible to reduce the amount of computation required for performing the curve approximation and the amount of computation required for calculating the intermediate points.

【0010】また、上述した中間点算出手段は、広角レ
ンズの位置に対応する投影位置と2つの頂点のそれぞれ
とを結ぶ2つの線分のなす角を、投影位置と中間点とを
結ぶ線分によって2等分するように中間点を設定するこ
とが望ましい。このような中間点を用いることにより、
曲線近似に用いられる中間点に対応するフレームバッフ
ァ上の中間点の位置が、各頂点に対応するフレームバッ
ファ上の各頂点とほぼ等距離に位置するため、曲線近似
の精度を上げることができる。
The above-mentioned intermediate point calculating means calculates an angle formed by two line segments connecting the projection position corresponding to the position of the wide-angle lens and each of the two vertices, to a line segment connecting the projection position and the intermediate point. It is desirable to set the intermediate point so as to divide the middle point into two. By using such an intermediate point,
Since the position of the intermediate point on the frame buffer corresponding to the intermediate point used for curve approximation is located at substantially the same distance as each vertex on the frame buffer corresponding to each vertex, the accuracy of curve approximation can be improved.

【0011】また、上述した広角レンズは魚眼レンズで
あることが望ましい。魚眼レンズを用いることにより、
ほぼ180°の投影角度を実現することができるため、
このようにして投影される画像を曲面スクリーンに表示
することにより、歪みのない臨場感のある画像を投影す
ることができる。
Further, it is desirable that the above-mentioned wide-angle lens is a fisheye lens. By using a fisheye lens,
Since a projection angle of almost 180 ° can be realized,
By displaying the image projected on the curved screen in this way, it is possible to project a realistic image without distortion.

【0012】また、上述した座標計算手段は、三次元オ
ブジェクトを所定の視点位置から見た場合の曲面スクリ
ーン上の位置に対応させて、フレームバッファの格納位
置を計算することが望ましい。三次元オブジェクトを視
点位置から見た場合に実際に曲面スクリーン上のどの位
置に対応するかが計算され、この位置に画像を投影する
ために必要なフレームバッファの格納位置が計算される
ため、理論上歪みのない正確な画像を投影することがで
きる。
It is preferable that the above-described coordinate calculation means calculates the storage position of the frame buffer in correspondence with the position on the curved screen when the three-dimensional object is viewed from a predetermined viewpoint position. When the 3D object is viewed from the viewpoint position, it is calculated which position on the curved screen actually corresponds, and the storage position of the frame buffer required to project the image at this position is calculated. It is possible to project an accurate image without distortion.

【0013】また、上述した座標計算手段は、三次元オ
ブジェクトの仮想的な三次元空間内の位置情報と、視点
位置あるいは広角レンズの位置に対応する投影位置の少
なくとも一方に基づいてフレームバッファの格納位置を
計算することが望ましい。三次元オブジェクトの立体的
な形状や表示位置は、三次元オブジェクトの仮想的な三
次元空間内の位置情報や視点位置、投影位置との相対的
な関係によってその歪みの状態が決まる。このため、こ
れらの位置情報に基づいてフレームバッファの格納位置
を計算することにより、ほとんど歪みのない画像を投影
することができる。
The coordinate calculation means stores the frame buffer based on at least one of the position information of the three-dimensional object in the virtual three-dimensional space and the projection position corresponding to the viewpoint position or the position of the wide-angle lens. It is desirable to calculate the position. The state of the distortion of the three-dimensional shape and the display position of the three-dimensional object is determined by the relative relationship with the position information, the viewpoint position, and the projection position of the three-dimensional object in the virtual three-dimensional space. Therefore, by calculating the storage position of the frame buffer based on the position information, it is possible to project an image with almost no distortion.

【0014】また、上述した視点位置と投影位置を異な
らせることが望ましい。実際に、投影位置から曲面スク
リーン上の画像を見ることはできない。したがって、視
点位置と投影位置が異なることを前提にして歪み補正を
行うことにより、現実に即した条件で歪みのない画像を
投影することができる。
It is desirable that the viewpoint position and the projection position are different from each other. In fact, it is not possible to see the image on the curved screen from the projection position. Therefore, by performing distortion correction on the assumption that the viewpoint position and the projection position are different, it is possible to project an image without distortion under conditions that are realistic.

【0015】また、投影位置が曲面スクリーンの中心位
置からずらして設定されている場合に、上述した画像情
報格納手段は、投影位置と曲面スクリーン上に投影すべ
き位置との距離を考慮して、フレームバッファに格納す
る画像情報について明るさ補正を行うことが望ましい。
投影位置が中心位置からずれていると、明るさが均一な
画像を投影した場合であっても、投影された画像の明る
さに偏りが生じる。したがって、距離を考慮して明るさ
補正を行うことにより、明るさの偏りをなくしてほぼ均
一な明るさの画像を得ることができる。
Further, when the projection position is set to be shifted from the center position of the curved screen, the above-mentioned image information storage means takes into account the distance between the projection position and the position to be projected on the curved screen. It is desirable to perform brightness correction on the image information stored in the frame buffer.
If the projection position is shifted from the center position, the brightness of the projected image will be biased even when an image with uniform brightness is projected. Therefore, by performing the brightness correction in consideration of the distance, it is possible to eliminate the bias of the brightness and obtain an image with substantially uniform brightness.

【0016】また、上述した画像情報格納手段は、ポリ
ゴンに対応するテクスチャデータに含まれる画像情報を
特定してフレームバッファに格納するテクスチャマッピ
ング処理を行っており、フレームバッファ上の格納位置
に対応するテクスチャ座標を求めるために、この格納位
置に対応する仮想的な三次元空間におけるポリゴン内の
座標を求め、この座標に対応するテクスチャ座標を決定
することが望ましい。フレームバッファ上でのポリゴン
の輪郭線が曲線形状になると、ポリゴン内部の任意の位
置とテクスチャ座標との対応がとれなくなるが、仮想的
な三次元空間において多角形形状を有するポリゴン内の
対応位置を算出することにより、この対応を取ることが
容易になり、必要な画像情報を読み出すことが可能にな
る。
The image information storage means performs a texture mapping process of specifying image information included in texture data corresponding to a polygon and storing the image information in a frame buffer. In order to determine the texture coordinates, it is desirable to determine the coordinates in the polygon in the virtual three-dimensional space corresponding to the storage position, and determine the texture coordinates corresponding to the coordinates. If the outline of the polygon on the frame buffer becomes curved, the correspondence between the arbitrary position in the polygon and the texture coordinates cannot be established, but the corresponding position in the polygon having the polygon shape in the virtual three-dimensional space is determined. By calculating, it is easy to take this correspondence, and necessary image information can be read.

【0017】また、所定の間隔毎に仮想的な三次元空間
内におけるポリゴンの頂点の座標を計算するオブジェク
ト計算手段をさらに備えるとともに、フレームバッファ
に対する画像情報の格納処理をこの所定の間隔で繰り返
すことが望ましい。仮想的な三次元空間内を三次元オブ
ジェクトが動いたり、透視投影変換の基準となる視点が
移動した場合に、所定の間隔で三次元オブジェクトの座
標が計算され、その都度歪みのない画像が生成されるた
め、三次元オブジェクトを用いたゲームやプレゼンテー
ション等において歪みのない動画像を曲面スクリーンに
投影することができる。
Further, the apparatus further comprises an object calculating means for calculating the coordinates of the vertices of the polygon in the virtual three-dimensional space at predetermined intervals, and repeating the process of storing the image information in the frame buffer at the predetermined intervals. Is desirable. When a three-dimensional object moves in a virtual three-dimensional space or a viewpoint serving as a reference for perspective projection transformation moves, coordinates of the three-dimensional object are calculated at predetermined intervals, and an image without distortion is generated each time. Therefore, a moving image without distortion can be projected on a curved screen in a game or a presentation using a three-dimensional object.

【0018】また、本発明の画像表示方法は、三次元オ
ブジェクトを構成するポリゴンに含まれる各頂点の仮想
的な三次元空間内の位置情報を取得する第1のステップ
と、この取得した位置情報に基づいてポリゴンの輪郭線
に対応するフレームバッファ上のポリゴンの輪郭線の形
状を曲線で近似する第2のステップと、この近似された
輪郭線で囲まれたフレームバッファの格納位置に画像情
報を格納する第3のステップと、フレームバッファに格
納された画像情報を読み出して広角レンズを通して曲面
スクリーン上に投影する第4のステップとを有してい
る。
Further, in the image display method according to the present invention, a first step of acquiring position information in a virtual three-dimensional space of each vertex included in a polygon constituting a three-dimensional object; A second step of approximating the shape of the outline of the polygon on the frame buffer corresponding to the outline of the polygon with a curve based on the image information, and storing the image information in the storage position of the frame buffer surrounded by the approximated outline. The method includes a third step of storing the image information, and a fourth step of reading out the image information stored in the frame buffer and projecting the image information on a curved screen through a wide-angle lens.

【0019】また、本発明の情報記憶媒体は、これら第
1のステップ〜第4のステップを実行するプログラムを
含んでいる。また、本発明の画像表示プログラムは、仮
想的な三次元空間に配置された三次元オブジェクトの画
像を広角レンズを通して曲面スクリーンに投影するため
にコンピュータに、これら第1のステップ〜第4のステ
ップを実行させるためのものである。
The information storage medium of the present invention includes a program for executing the first to fourth steps. Further, the image display program of the present invention executes the first to fourth steps on a computer to project an image of a three-dimensional object arranged in a virtual three-dimensional space onto a curved screen through a wide-angle lens. It is intended to be executed.

【0020】本発明の画像表示方法を実施することによ
り、あるいは本発明の情報記憶媒体に格納されたプログ
ラムや、本発明の画像表示プログラムを実行することに
より、フレームバッファ上のポリゴンの輪郭線が直線形
状ではなく曲線形状で近似されるので、曲面スクリーン
に投影された三次元オブジェクトを構成する各ポリゴン
の輪郭線を、歪みの少ないほぼ直線形状にすることがで
きる。
By executing the image display method of the present invention, or executing the program stored in the information storage medium of the present invention or the image display program of the present invention, the outline of the polygon on the frame buffer is changed. Since it is approximated not by a straight line but by a curved line, the outline of each polygon constituting the three-dimensional object projected on the curved screen can be made into a substantially straight line with little distortion.

【0021】また、ポリゴンに含まれていて隣接する2
つの頂点を結ぶ直線上あるいはその近傍に位置する前記
仮想的な三次元空間内の中間点の座標を算出する第5の
ステップと、仮想的な三次元空間内における2つの頂点
および中間点のそれぞれに対応するフレームバッファの
格納位置を計算する第6のステップとを上述した第2の
ステップの前に挿入するとともに、第2のステップにお
いて、2つの頂点および中間点のそれぞれに対応するフ
レームバッファ上の各点を通る曲線の形状を決定するこ
とが望ましい。このようにして、曲線近似を行うことに
より、実際に投影された三次元オブジェクトを構成する
各ポリゴンの輪郭線を、直線上に配置された複数の点を
通る形状、すなわち歪みの少ない直線に近づけることが
できる。
Also, two adjacent polygons included in a polygon
A fifth step of calculating coordinates of an intermediate point in the virtual three-dimensional space located on or near a straight line connecting the two vertices, and each of the two vertices and the intermediate point in the virtual three-dimensional space And a sixth step of calculating the storage position of the frame buffer corresponding to the above are inserted before the above-described second step. It is desirable to determine the shape of the curve passing through each point of. By performing the curve approximation in this manner, the contour of each polygon constituting the actually projected three-dimensional object is approximated to a shape passing through a plurality of points arranged on a straight line, that is, a straight line with little distortion. be able to.

【0022】また、上述した第2のステップにおける近
似処理に用いられる曲線は円弧であり、1個の中間点の
座標を用いてこの近似処理が行われることが望ましい。
曲線近似を円弧を用いて行う場合には、1個の中間点を
追加するだけでよいため、曲線近似を行うために必要な
演算量および中間点を算出するために必要な演算量を低
減することができる。
The curve used for the approximation processing in the above-mentioned second step is a circular arc, and this approximation processing is desirably performed using the coordinates of one intermediate point.
When the curve approximation is performed using an arc, only one intermediate point needs to be added. Therefore, the amount of computation required to perform the curve approximation and the amount of computation required to calculate the intermediate point are reduced. be able to.

【0023】また、上述した第6のステップにおいて、
三次元オブジェクトを所定の視点位置から見た場合の曲
面スクリーン上の位置に対応させて、フレームバッファ
の格納位置を計算することが望ましい。三次元オブジェ
クトを視点位置から見た場合に実際に曲面スクリーン上
のどの位置に対応するかが計算され、この位置に画像を
投影するために必要なフレームバッファの格納位置が計
算されるため、理論上歪みのない正確な画像を投影する
ことができる。
In the above-mentioned sixth step,
It is desirable to calculate the storage position of the frame buffer in correspondence with the position on the curved screen when the three-dimensional object is viewed from a predetermined viewpoint position. When the 3D object is viewed from the viewpoint position, it is calculated which position on the curved screen actually corresponds, and the storage position of the frame buffer required to project the image at this position is calculated. It is possible to project an accurate image without distortion.

【0024】また、上述した第6のステップにおいて、
三次元オブジェクトの仮想的な三次元空間内の位置情報
と、視点位置あるいは広角レンズの位置に対応する投影
位置の少なくとも一方に基づいてフレームバッファの格
納位置を計算することが望ましい。三次元オブジェクト
の立体的な形状や表示位置は、三次元オブジェクトの仮
想的な三次元空間内の位置情報や視点位置、投影位置と
の相対的な関係によってその歪みの状態が決まる。この
ため、これらの位置情報に基づいてフレームバッファの
格納位置を計算することにより、ほとんど歪みのない画
像を投影することができる。
Further, in the sixth step described above,
It is desirable to calculate the storage position of the frame buffer based on at least one of the position information of the three-dimensional object in the virtual three-dimensional space and the projection position corresponding to the viewpoint position or the position of the wide-angle lens. The state of the distortion of the three-dimensional shape and the display position of the three-dimensional object is determined by the relative relationship with the position information, the viewpoint position, and the projection position of the three-dimensional object in the virtual three-dimensional space. Therefore, by calculating the storage position of the frame buffer based on the position information, it is possible to project an image with almost no distortion.

【0025】また、投影位置が曲面スクリーンの中心位
置からずらして設定されている場合に、投影位置と曲面
スクリーン上に投影すべき位置との距離を考慮して、フ
レームバッファに格納する画像情報について明るさ補正
を行う第7のステップを、第4のステップの前に挿入す
ることが望ましい。距離を考慮して明るさ補正を行うこ
とにより、明るさの偏りをなくしてほぼ均一な明るさの
画像を得ることができる。
Further, when the projection position is set to be shifted from the center position of the curved screen, the image information stored in the frame buffer is considered in consideration of the distance between the projection position and the position to be projected on the curved screen. It is desirable to insert a seventh step of performing brightness correction before the fourth step. By performing the brightness correction in consideration of the distance, it is possible to obtain an image with substantially uniform brightness without unevenness in brightness.

【0026】また、上述した第4のステップにおいて、
ポリゴンに対応するテクスチャデータに含まれる画像情
報を特定してフレームバッファに格納するテクスチャマ
ッピング処理を行っており、フレームバッファ上の格納
位置に対応するテクスチャ座標を求めるために、この格
納位置に対応する仮想的な三次元空間におけるポリゴン
内の座標を求め、この座標に対応するテクスチャ座標を
決定することが望ましい。フレームバッファ上でのポリ
ゴンの輪郭線が曲線形状になると、ポリゴン内部の任意
の位置とテクスチャ座標との対応がとれなくなるが、仮
想的な三次元空間において多角形形状を有するポリゴン
内の対応位置を算出することにより、この対応を取るこ
とが容易になり、必要な画像情報を読み出すことが可能
になる。
In the above-mentioned fourth step,
A texture mapping process of specifying image information included in texture data corresponding to a polygon and storing the image information in a frame buffer is performed. In order to obtain texture coordinates corresponding to a storage position on the frame buffer, the texture mapping process is performed. It is desirable to obtain coordinates in a polygon in a virtual three-dimensional space and determine texture coordinates corresponding to the coordinates. If the outline of the polygon on the frame buffer becomes curved, the correspondence between the arbitrary position in the polygon and the texture coordinates cannot be established, but the corresponding position in the polygon having the polygon shape in the virtual three-dimensional space is determined. By calculating, it is easy to take this correspondence, and necessary image information can be read.

【0027】[0027]

【発明の実施の形態】以下、本発明を適用した一実施形
態のゲームシステムについて、図面を参照しながら説明
する。図1は、本実施形態のゲームシステムの構成を示
す図である。同図に示すゲームシステムは、ゲーム装置
1、プロジェクタ2、レンズ3、球面スクリーン4を含
んで構成されている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a game system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a configuration of the game system of the present embodiment. The game system shown in FIG. 1 includes a game device 1, a projector 2, a lens 3, and a spherical screen 4.

【0028】ゲーム装置1は、プレーヤによる操作に対
応して各種のゲーム演算を行うとともに、ゲーム進行に
応じたゲーム画像を表示するための画像情報を生成す
る。プロジェクタ2は、ゲーム装置1によって生成され
た画像情報に基づいて、球面スクリーン4にゲーム画像
を照射する。レンズ3は、プロジェクタ2から照射され
たゲーム画像を球面スクリーン4に投影する。本実施形
態では、このレンズ3として広角レンズ、さらに具体的
には投影角がほぼ180°の魚眼レンズが用いられてい
る。球面スクリーン4は、曲面スクリーンの一種であ
り、半球状の投影面を有しており、プロジェクタ2から
照射されてレンズ3を通したゲーム画像が内側に投影さ
れる。
The game apparatus 1 performs various game calculations in response to operations performed by the player, and generates image information for displaying a game image according to the progress of the game. The projector 2 irradiates a game image to the spherical screen 4 based on image information generated by the game device 1. The lens 3 projects the game image emitted from the projector 2 on the spherical screen 4. In the present embodiment, a wide-angle lens, more specifically, a fish-eye lens having a projection angle of about 180 ° is used as the lens 3. The spherical screen 4 is a kind of a curved screen and has a hemispherical projection surface. A game image emitted from the projector 2 and passed through the lens 3 is projected inside.

【0029】次に、ゲーム装置1の詳細構成について説
明する。図1に示すゲーム装置1は、入力装置10、ゲ
ーム演算部20、情報記憶媒体30、画像処理部40、
円形フレームバッファ50を含んで構成されている。入
力装置10は、プレーヤがゲーム装置1に対して各種の
指示を入力するためのものであり、ゲーム装置1におい
て行われるゲームの種類に応じた各種操作キー、操作レ
バー等を含んで構成されている。例えば、ドライブゲー
ムを行うために設けられた入力装置10には、ハンド
ル、アクセル、ブレーキ、変速レバー等が備わってい
る。
Next, a detailed configuration of the game apparatus 1 will be described. The game device 1 shown in FIG. 1 includes an input device 10, a game calculation unit 20, an information storage medium 30, an image processing unit 40,
It is configured to include a circular frame buffer 50. The input device 10 is used by a player to input various instructions to the game device 1, and includes various operation keys, operation levers, and the like corresponding to the type of a game performed on the game device 1. I have. For example, the input device 10 provided for playing a drive game includes a steering wheel, an accelerator, a brake, a shift lever, and the like.

【0030】ゲーム演算部20は、ゲームの進行に必要
な所定のゲーム演算を行うものである。このゲーム演算
部20は、入力判定部22、イベント処理部24、ゲー
ム空間演算部26を含んで構成されている。このゲーム
演算部20は、CPUやROM、RAM等の半導体メモ
リを用いて所定のゲームプログラムを実行することによ
り実現される。
The game calculation section 20 performs a predetermined game calculation necessary for the progress of the game. The game calculation unit 20 includes an input determination unit 22, an event processing unit 24, and a game space calculation unit 26. The game calculation unit 20 is realized by executing a predetermined game program using a CPU, a semiconductor memory such as a ROM or a RAM.

【0031】入力判定部22は、入力装置10に備わっ
たハンドル、アクセル、ブレーキ等の操作状態を判定
し、操作状態に応じた信号をイベント処理部24に出力
する。イベント処理部24は、各種イベントの発生や、
ゲームの進行状況に対応した分岐判断等、ゲーム進行に
必要な処理を行う。ゲーム空間演算部26は、仮想的な
三次元空間であるゲーム空間内に存在する各種の三次元
オブジェクトの位置情報の計算を行う。本実施形態にお
ける三次元オブジェクトのそれぞれは複数のポリゴンに
よって構成されており、ゲーム空間演算部26は、三次
元オブジェクトを構成する各ポリゴンの頂点座標を計算
する。
The input determining section 22 determines the operating state of the steering wheel, accelerator, brake and the like provided in the input device 10 and outputs a signal corresponding to the operating state to the event processing section 24. The event processing unit 24 generates various events,
Processing necessary for game progress, such as branch determination corresponding to the progress of the game, is performed. The game space calculation unit 26 calculates position information of various three-dimensional objects existing in the game space, which is a virtual three-dimensional space. Each of the three-dimensional objects in the present embodiment is configured by a plurality of polygons, and the game space calculation unit 26 calculates the vertex coordinates of each polygon that forms the three-dimensional object.

【0032】情報記憶媒体30は、コンピュータとして
の機能を有するゲーム装置1を動作させるためのプログ
ラムやデータを格納するためのものである。具体的に
は、情報記憶媒体30は、ゲーム演算部20によって実
行されるゲームプログラムやゲーム画像の表示に必要な
データ(テクスチャマッピング用のテクスチャデータ
等)や画像表示プログラムを格納する。この情報記憶媒
体30は、CD−ROM、DVD−ROM、ハードディ
スク装置、半導体メモリ等によって実現される。
The information storage medium 30 stores a program and data for operating the game apparatus 1 having a function as a computer. Specifically, the information storage medium 30 stores a game program executed by the game calculation unit 20, data (texture data for texture mapping, etc.) necessary for displaying a game image, and an image display program. The information storage medium 30 is realized by a CD-ROM, a DVD-ROM, a hard disk device, a semiconductor memory, or the like.

【0033】画像処理部40は、ゲーム演算部20内の
ゲーム空間演算部26によって計算された各ポリゴンの
頂点座標が入力されており、球面スクリーン4上に画像
を表示するために、円形フレームバッファ50に画像情
報を格納する処理を行う。この画像処理部40は、中間
点算出部41、座標変換処理部42、輪郭線算出部4
3、テクスチャマッピング処理部44、シェーディング
処理部45を含んで構成されている。なお、通常は、こ
の画像処理部40は、専用のグラフィック用LSIやD
SP等を用いて実現されるが、ゲーム演算部20を実現
するCPUの性能が高い場合であって処理能力に余裕が
ある場合には、このCPUに画像処理部40の処理を行
わせてもよい。
The image processing section 40 receives the coordinates of the vertices of each polygon calculated by the game space calculation section 26 in the game calculation section 20, and has a circular frame buffer for displaying an image on the spherical screen 4. A process for storing the image information in 50 is performed. The image processing unit 40 includes an intermediate point calculation unit 41, a coordinate conversion processing unit 42, and a contour line calculation unit 4.
3. It includes a texture mapping unit 44 and a shading unit 45. Normally, the image processing unit 40 includes a dedicated graphic LSI or D
Although it is realized by using the SP or the like, if the performance of the CPU realizing the game calculation unit 20 is high and the processing capacity has a margin, even if the CPU performs the processing of the image processing unit 40, Good.

【0034】中間点算出部41は、ゲーム空間演算部2
6によって計算された各ポリゴンの頂点座標が入力され
ており、隣接する2つの頂点を結ぶ直線上の中間点の座
標を算出する。座標変換処理部42は、三次元オブジェ
クトを視点位置から見た場合に実際に球面スクリーン4
上のどの位置に三次元オブジェクトが対応するかを計算
し、この球面スクリーン4上に画像を投影するために必
要な円形フレームバッファ50上の格納位置を計算す
る。具体的には、座標変換処理部42は、ゲーム空間演
算部26によって計算されたポリゴンの頂点座標と、中
間点算出部41によって計算された中間点の座標とが入
力されている。座標変換処理部42は、これらの頂点お
よび中間点のそれぞれに対応する球面スクリーン4上の
座標を計算し、さらにこの計算結果を用いて円形フレー
ムバッファ50の格納位置を計算する。
The midpoint calculation section 41 is provided by the game space calculation section 2.
The coordinates of the vertices of each polygon calculated in step 6 are input, and the coordinates of an intermediate point on a straight line connecting two adjacent vertices are calculated. When the three-dimensional object is viewed from the viewpoint position, the coordinate conversion processing unit 42
The position on the circular frame buffer 50 necessary for projecting an image on the spherical screen 4 is calculated by calculating which position on the spherical screen 4 the three-dimensional object corresponds to. Specifically, the coordinate conversion processing unit 42 receives the coordinates of the vertices of the polygon calculated by the game space calculation unit 26 and the coordinates of the intermediate point calculated by the intermediate point calculation unit 41. The coordinate conversion processing unit 42 calculates the coordinates on the spherical screen 4 corresponding to each of these vertices and intermediate points, and further calculates the storage position of the circular frame buffer 50 using the calculation results.

【0035】輪郭線算出部43は、座標変換処理部42
の計算結果に基づいて、各ポリゴンの輪郭線(多角形形
状を有するポリゴンの各辺)に対応する円形フレームバ
ッファ50上のポリゴンの輪郭線の形状を算出する。一
般に、ゲーム空間内に存在する各ポリゴンは、各辺が直
線となる多角形形状(例えば三角形形状)を有してい
る。しかし、曲面スクリーン4上に投影されると各辺の
形状が歪むため、円形フレームバッファ50上における
各辺の形状は、直線ではなく曲線となる。したがって、
一般的な三次元画像処理において行われるように、ポリ
ゴンの各頂点についてフレームバッファ上の格納位置を
計算した後に、単純にテクスチャマッピング処理を実施
するだけでは、ポリゴンの各辺の形状が実際の形状から
ずれることになる。このような理由から、本実施形態で
は、円形フレームバッファ50上における各ポリゴンの
輪郭線の形状を曲線で近似することにより、所定の視点
位置から球面スクリーン4上に表示された各ポリゴンの
各辺の形状を見た場合にほぼ直線になるような工夫がな
されている。具体的には、輪郭線算出部43は、各ポリ
ゴンにおいて隣接する2つの頂点の座標と、ゲーム空間
内においてこれら2つの頂点を両端とする直線上に存在
する中間点とに基づいて、これら3点を通る円弧形状を
算出する。以下では、ゲーム空間内における各ポリゴン
形状を三角形として説明を行う。
The contour calculation unit 43 includes a coordinate conversion processing unit 42
Based on the calculation result, the shape of the outline of the polygon on the circular frame buffer 50 corresponding to the outline of each polygon (each side of a polygon having a polygonal shape) is calculated. Generally, each polygon existing in the game space has a polygonal shape (for example, a triangular shape) in which each side is a straight line. However, since the shape of each side is distorted when projected on the curved screen 4, the shape of each side on the circular frame buffer 50 is not a straight line but a curve. Therefore,
As in general three-dimensional image processing, after simply calculating the storage position in the frame buffer for each vertex of a polygon, simply performing texture mapping processing will result in the shape of each side of the polygon being the actual shape Will be deviated. For this reason, in the present embodiment, by approximating the shape of the outline of each polygon on the circular frame buffer 50 with a curve, each side of each polygon displayed on the spherical screen 4 from a predetermined viewpoint position The device has been devised so as to be substantially straight when the shape is viewed. Specifically, the contour calculation unit 43 calculates the three coordinates based on the coordinates of two adjacent vertices in each polygon and an intermediate point on a straight line having both ends in the game space. Calculate the arc shape passing through the point. In the following, each polygon shape in the game space will be described as a triangle.

【0036】テクスチャマッピング処理部44は、円形
フレームバッファ50上での各ポリゴンの輪郭線形状が
輪郭線算出部43によって計算された後に、これらの輪
郭線によって区画されるポリゴン内部にテクスチャデー
タを貼り付ける処理(テクスチャマッピング処理)を行
う。また、シェーディング処理部45は、テクスチャマ
ッピング処理の結果に対してシェーディング補正処理を
行う。このようにして各ポリゴンを構成する複数個(例
えば3個)の頂点座標によって囲まれた領域(円形フレ
ームバッファ50上の対応領域)に含まれる各画素の画
像情報が得られる。例えば、画像情報として、RGBデ
ータによって表された色情報が用いられている。
After the contour shape of each polygon on the circular frame buffer 50 is calculated by the contour calculation unit 43, the texture mapping processing unit 44 pastes the texture data inside the polygon defined by these contour lines. A processing (texture mapping processing) is performed. Further, the shading processing unit 45 performs shading correction processing on the result of the texture mapping processing. In this way, image information of each pixel included in an area (corresponding area on the circular frame buffer 50) surrounded by a plurality (for example, three) of vertex coordinates constituting each polygon is obtained. For example, color information represented by RGB data is used as image information.

【0037】円形フレームバッファ50は、画像処理部
40によって得られた画像情報を格納する。円形フレー
ムバッファ50の各格納位置は、球面スクリーン4上に
投影すべきそれぞれの位置に対応しており、円形フレー
ムバッファ50の所定位置に画像情報を格納することに
より、この画像情報によって特定される色の画像が球面
スクリーン4上の対応位置に投影される。
The circular frame buffer 50 stores the image information obtained by the image processing section 40. Each storage position of the circular frame buffer 50 corresponds to each position to be projected on the spherical screen 4, and is specified by the image information by storing the image information at a predetermined position of the circular frame buffer 50. A color image is projected on a corresponding position on the spherical screen 4.

【0038】上述したプロジェクタ2が投影装置に、中
間点算出部41が中間点算出手段に、座標変換処理部4
2が座標計算手段に、輪郭線算出部43が輪郭線算出手
段に、テクスチャマッピング処理部44、シェーディン
グ処理部45が画像情報格納手段に、ゲーム空間演算部
26がオブジェクト計算手段にそれぞれ対応している。
The above-mentioned projector 2 serves as a projection device, and the intermediate point calculating section 41 serves as an intermediate point calculating means.
2 corresponds to the coordinate calculating means, the contour calculating section 43 corresponds to the contour calculating means, the texture mapping processing section 44 and the shading processing section 45 correspond to the image information storing means, and the game space calculating section 26 corresponds to the object calculating means. I have.

【0039】本実施形態のゲームシステムはこのような
構成を有しており、次にその動作について説明する。図
2は、本実施形態のゲームシステムの動作手順の概要を
示す流れ図であり、ゲーム全体の流れが示されている。
なお、図2に示す一連の処理は、所定の表示間隔に対応
した周期(例えば、1/60秒)で繰り返して行われ
る。
The game system of the present embodiment has such a configuration, and its operation will be described next. FIG. 2 is a flowchart showing an outline of an operation procedure of the game system of the present embodiment, and shows a flow of the entire game.
Note that a series of processes illustrated in FIG. 2 is repeatedly performed at a cycle (for example, 1/60 second) corresponding to a predetermined display interval.

【0040】入力装置10が操作されてプレーヤによっ
てゲームの開始指示がなされると、ゲーム演算部20
は、情報記憶媒体30から読み出したゲームプログラム
に基づいて所定のゲーム演算を開始する。具体的には、
ゲーム演算部20内の入力判定部22は、入力装置10
から出力される信号に基づいて、プレーヤによって行わ
れた操作の内容に応じた信号を出力する所定の入力判定
処理を行う(ステップ100)。
When the input device 10 is operated and a game start instruction is given by the player, the game calculation unit 20
Starts a predetermined game calculation based on the game program read from the information storage medium 30. In particular,
The input determination unit 22 in the game calculation unit 20 includes the input device 10
A predetermined input determination process of outputting a signal corresponding to the content of the operation performed by the player is performed based on the signal output from (step 100).

【0041】次に、イベント処理部24は、入力判定部
22から出力される信号に対応して、ゲーム進行に必要
な各種のイベントを発生する処理(イベント発生処理)
を行う(ステップ101)。また、ゲーム空間演算部2
6は、イベント処理部24によって行われるイベント発
生処理に対応して、ゲーム空間内に存在する各種の三次
元オブジェクトの座標計算を行う(ステップ102)。
この座標計算によって、三次元オブジェクトを構成する
複数のポリゴンの各頂点座標が計算される。
Next, the event processing section 24 generates various events necessary for the progress of the game in response to the signal output from the input determination section 22 (event generation processing).
Is performed (step 101). In addition, the game space calculation unit 2
6 calculates the coordinates of various three-dimensional objects existing in the game space in response to the event generation processing performed by the event processing unit 24 (step 102).
By this coordinate calculation, the coordinates of each vertex of a plurality of polygons forming the three-dimensional object are calculated.

【0042】このようにしてゲーム空間演算部26によ
って各三次元オブジェクトの座標計算が行われて三次元
オブジェクトの位置情報が取得されると、画像処理部4
0内の中間点算出部41は、各ポリゴン内で隣接する2
つの頂点に対応する中間点の座標を計算する(ステップ
103)。また、座標変換処理部42は、ポリゴンの頂
点座標と中間点の座標を、円形フレームバッファ50上
の座標に変換する所定の座標変換処理を行う(ステップ
104)。また、輪郭線算出部43は、座標変換処理部
42の計算結果に基づいて、円形フレームバッファ50
上における各ポリゴンの輪郭線形状を計算する(ステッ
プ105)。
When the coordinates of each three-dimensional object are calculated by the game space calculation unit 26 and the position information of the three-dimensional object is obtained, the image processing unit 4
The intermediate point calculation unit 41 within 0 determines that the adjacent 2
The coordinates of an intermediate point corresponding to one vertex are calculated (step 103). Further, the coordinate conversion processing unit 42 performs a predetermined coordinate conversion process of converting the coordinates of the vertex of the polygon and the coordinates of the intermediate point into the coordinates on the circular frame buffer 50 (step 104). In addition, the contour calculation unit 43 calculates the circular frame buffer 50 based on the calculation result of the coordinate conversion processing unit 42.
The contour shape of each polygon above is calculated (step 105).

【0043】次に、テクスチャマッピング処理部44お
よびシェーディング処理部45は、円形フレームバッフ
ァ50に格納する画像情報(色情報)を求め、この画像
情報を円形フレームバッファ50の対応位置に書き込む
(ステップ106)。具体的には、テクスチャマッピン
グ処理部44により所定のテクスチャマッピング処理が
行われ、その後、シェーディング処理部45により所定
のシェーディング処理が行われることにより、各ポリゴ
ンに対応する円形フレームバッファ50上の領域に画像
情報が書き込まれる。
Next, the texture mapping processing section 44 and the shading processing section 45 obtain image information (color information) to be stored in the circular frame buffer 50, and write the image information to a corresponding position of the circular frame buffer 50 (step 106). ). Specifically, predetermined texture mapping processing is performed by the texture mapping processing unit 44, and then predetermined shading processing is performed by the shading processing unit 45, so that the area on the circular frame buffer 50 corresponding to each polygon is Image information is written.

【0044】円形フレームバッファ50に対して書き込
まれた画像情報が所定の走査順に読み出されてプロジェ
クタ2に送出される。プロジェクタ2は、この画像情報
に基づいて画像を形成し、レンズ3を通して球面スクリ
ーン4に投影する(ステップ107)。
The image information written in the circular frame buffer 50 is read out in a predetermined scanning order and sent to the projector 2. The projector 2 forms an image based on the image information, and projects the image on the spherical screen 4 through the lens 3 (Step 107).

【0045】このようにして所定の繰り返し周期で新し
い内容のゲーム画像が生成されて球面スクリーン4上に
投影される。なお、上述した動作説明では、表示間隔に
対応した周期で図2に示した一連の処理を行って描画処
理を行うようにしたが、必ずしも表示間隔と描画処理の
繰り返し間隔は一致させなくてもよい。また、それ以外
にも、描画処理が表示タイミングに間に合えば毎回の表
示タイミングに同期して描画処理を行い、間に合わなけ
れば同じ内容の画面表示を行うようにした場合には、表
示タイミングと描画タイミングが一致しないこともあ
る。
In this way, a game image having a new content is generated at a predetermined repetition cycle and projected on the spherical screen 4. In the above description of the operation, the drawing process is performed by performing the series of processes illustrated in FIG. 2 at a cycle corresponding to the display interval. However, the display interval and the repetition interval of the drawing process do not necessarily have to match. Good. In addition, if the drawing process is performed in time for the display timing, the drawing process is performed in synchronization with each display timing, and if the screen processing is not performed in time, the same content is displayed on the screen. May not match.

【0046】次に、上述したステップ103における中
間点算出処理、ステップ104における座標変換処理、
ステップ105における輪郭線算出処理、ステップ10
6におけるテクスチャマッピング処理の詳細について説
明する。(1)中間点算出処理 図3および図4は、中間点算出部41において行われる
中間点算出処理の概要を示す図である。これらの図にお
いて、点P0、P1は、ゲーム空間内に配置された一のポ
リゴンに含まれる2つの頂点を示している。
Next, the intermediate point calculation processing in step 103, the coordinate conversion processing in step 104,
Contour calculation processing in step 105, step 10
6 will be described in detail. (1) Intermediate Point Calculation Process FIGS. 3 and 4 are diagrams illustrating an outline of the intermediate point calculation process performed in the intermediate point calculation unit 41. FIG. In these figures, points P 0 and P 1 indicate two vertices included in one polygon arranged in the game space.

【0047】最も簡単な計算を行う場合には、図3に示
すように、中間点算出部41は、2つの頂点P0、P1
ゲーム空間内での中間点P′の座標を計算する。この場
合の中間点P′の座標は、単純に2つの頂点P0、P1
各座標値の相加平均を求めることにより得られる。
When performing the simplest calculation, as shown in FIG. 3, the intermediate point calculating section 41 calculates the coordinates of the intermediate point P 'in the game space of the two vertices P 0 and P 1. . The coordinates of the midpoint P 'of the case, it is simply obtained by determining the two arithmetic mean of the coordinate values of the vertex P 0, P 1.

【0048】また、上述した中間点P′に対応する円形
フレームバッファ50上の位置は、各頂点P0、P1に対
応する円形フレームバッファ50上の各頂点と等距離に
はならない。したがって、図4に示すように、投影位置
r(例えば球心に一致するものとする)と2つの頂点
0、P1とのなす投影角を二等分する中間点P″の座標
を計算することが望ましい。このような中間点P″を用
いることにより、2つの頂点P0、P1に対応する円形フ
レームバッファ50上の各頂点のそれぞれから、この中
間点P″に対応する円形フレームバッファ50上の中間
点までの距離をほぼ等しく設定することができるため、
ステップ105において補間処理によって輪郭線を求め
る際の誤差を少なくすることができる。
The position on the circular frame buffer 50 corresponding to the above-mentioned intermediate point P 'is not equidistant from the vertices on the circular frame buffer 50 corresponding to the vertices P 0 and P 1 . Accordingly, as shown in FIG. 4, the coordinates of the projection position P r (eg, one that matches the sphere center) and two vertices P 0, the midpoint of the formed projection angle between P 1 bisecting P " By using such an intermediate point P ″, a circle corresponding to the intermediate point P ″ is obtained from each of the vertices on the circular frame buffer 50 corresponding to the two vertices P 0 and P 1. Since the distance to the intermediate point on the frame buffer 50 can be set substantially equal,
In step 105, an error in obtaining a contour by interpolation can be reduced.

【0049】具体的には、頂点P0、P1から中間点P″
までの距離をそれぞれL1、L2とし、球心から頂点P
0、P1までの距離をそれぞれL3、L4とすると、三角
形の2等分線の性質から、L1:L2=L3:L4の関
係を満たす。球心および2つの頂点P0、P1の座標は既
知であるため、中間点P″の座標は簡単な計算を行うこ
とにより求めることができる。
More specifically, from the vertices P 0 and P 1 to the intermediate point P ″
L1 and L2 are the distances from the ball center to the vertex P
0, if the respective L3, L4 and distance to P 1, the nature of the bisector of the triangle, L1: L2 = L3: L4 satisfy the relationship. Since the coordinates of the spherical center and the two vertices P 0 and P 1 are known, the coordinates of the intermediate point P ″ can be obtained by performing a simple calculation.

【0050】(2)座標変換処理 図5は、円形フレームバッファ50の描画範囲を示す図
である。本実施形態のプロジェクタ2は、画像の投影範
囲が横長(例えば縦横比が3:4)の長方形を有してお
り、その中の一部の領域が球面スクリーン4に投影する
画像に対応した描画領域として使用される。なお、この
図は後述する図6の投影面Sをz軸の正の方向(図6で
は上側)から原点に向かって見た場合に対応している。
図5において、矩形領域200がプロジェクタ2の投影
範囲に対応している。また、円形領域210がレンズ3
を通して球面スクリーン4に実際に投影される範囲に対
応している。したがって、本実施形態では、円形フレー
ムバッファ50の座標の中で円形領域210の内部に含
まれる範囲についてのみ画像情報の書き込みが行われ
る。
(2) Coordinate Conversion Processing FIG. 5 is a diagram showing a drawing range of the circular frame buffer 50. The projector 2 according to the present embodiment has a rectangular projection whose image projection range is horizontally long (for example, the aspect ratio is 3: 4), and a part of the region has a drawing corresponding to the image projected on the spherical screen 4. Used as an area. This drawing corresponds to a case where a projection surface S in FIG. 6 described later is viewed from the positive direction of the z-axis (the upper side in FIG. 6) toward the origin.
In FIG. 5, a rectangular area 200 corresponds to the projection range of the projector 2. Further, the circular region 210 is the lens 3
Corresponding to the area actually projected on the spherical screen 4 through the Therefore, in the present embodiment, writing of image information is performed only in a range included in the circular area 210 among the coordinates of the circular frame buffer 50.

【0051】図5に示すように、水平方向にX軸、垂直
方向にY軸をとる。円形領域210の中心(円心)を原
点O、円形領域210の半径をRとする。円形フレーム
バッファ50内の任意の点F(X,Y)に格納された画
像情報は、球面スクリーン4上における点Pdに投影さ
れる。
As shown in FIG. 5, the X axis is taken in the horizontal direction and the Y axis is taken in the vertical direction. The center (circle center) of the circular region 210 is defined as the origin O, and the radius of the circular region 210 is defined as R. Image information stored in the arbitrary point F (X, Y) of the circular frame buffer 50 is projected to a point P d on the spherical screen 4.

【0052】(2−1)視点位置、投影位置をともに球
面スクリーン4の球心位置に設定する場合 図6は、座標変換処理の概要を示す図である。同図に示
すように、球面スクリーン4に対応する半球状の投影面
をSとし、この投影面Sの球心を原点oに設定する。ま
た、この原点oから投影面Sの面心に向かってz軸を定
義し、このz軸に垂直にx軸とy軸を定義する。さら
に、この例では、プレーヤの視点位置Peと投影位置
(レンズ3の位置)Prが原点oに一致しているものと
する。
(2-1) Both the viewpoint position and the projection position are spherical.
FIG. 6 is a diagram showing an outline of the coordinate conversion process when setting to the spherical center position of the surface screen 4 . As shown in the figure, the hemispherical projection surface corresponding to the spherical screen 4 is designated as S, and the spherical center of the projection surface S is set as the origin o. Further, the z axis is defined from the origin o toward the plane center of the projection plane S, and the x axis and the y axis are defined perpendicular to the z axis. Furthermore, in this example, the viewpoint position P e and the projection position of the player (the lens 3 position) P r is coincide with the origin o.

【0053】三次元空間であるゲーム空間内の任意の点
p(xp,yp,zp)を円形フレームバッファ50上の
点F(X,Y)へ写像することを考える。図6におい
て、ゲーム空間内の点Pp(xp,yp,zp)を原点oか
ら見たときに、この点Pp と原点oとを結ぶ直線と投影
面Sとの交点をPd(xd,yd,zd)とする。投影面S
に対応する半球の半径をrとすると、xd、yd、z
dは、それぞれ以下の式により表される。
It is assumed that an arbitrary point P p (x p , y p , z p ) in the game space which is a three-dimensional space is mapped to a point F (X, Y) on the circular frame buffer 50. In FIG. 6, when a point P p (x p , y p , z p ) in the game space is viewed from the origin o, the intersection of the straight line connecting the point P p and the origin o with the projection plane S is represented by P d (x d, y d, z d) and. Projection surface S
If the radius of the hemisphere corresponding to is r, x d , y d , z
d is represented by the following equation.

【0054】[0054]

【数1】 (Equation 1)

【0055】また、図6において、原点oと点Pdを結
ぶ直線とz軸とのなす角度をθとすると、この角度θ
は、次式により表される。
[0055] Further, in FIG. 6, when the angle between the straight line and the z axis connecting the origin o and the point P d and theta, the angle theta
Is represented by the following equation.

【0056】[0056]

【数2】 (Equation 2)

【0057】本実施形態で使用したレンズ3は、図5に
示す点F(X,Y)を投影面Sに投影する場合に、原点
Oから点Fまでの距離Lが、図6に示す角度θに比例す
る特性を有している。したがって、θ=0の時にL=
0、θ=π/2の時にL=Rになり、その間の任意の角
度θに対応する距離Lは次式で表すことができる。
When the point F (X, Y) shown in FIG. 5 is projected onto the projection surface S, the distance L from the origin O to the point F is set to the angle shown in FIG. It has a characteristic proportional to θ. Therefore, when θ = 0, L =
When 0 and θ = π / 2, L = R, and the distance L corresponding to an arbitrary angle θ therebetween can be expressed by the following equation.

【0058】L=θ/(π/2)×R また、図5において、円形フレームバッファ50上の原
点Oと点F(X,Y)とを結ぶ直線とX軸とのなす角度
をΦとする。図6において、点Pd(xd,yd,zd
のxy平面への写像点Pd′(xd,yd,0) と原点o
を結ぶ直線とx軸とのなす角度をφとする。この角度Φ
と角度φは等しい。ここで、cosφ、sinφは、以下の式
で表すことができる。
L = θ / (π / 2) × R In FIG. 5, the angle between the straight line connecting the origin O on the circular frame buffer 50 and the point F (X, Y) and the X axis is Φ. I do. In FIG. 6, a point P d (x d , y d , z d )
Is mapped to the xy plane P d ′ (x d , y d , 0) and the origin o
Is the angle between the straight line connecting the x and the x axis. This angle Φ
And the angle φ are equal. Here, cos φ and sin φ can be represented by the following equations.

【0059】[0059]

【数3】 (Equation 3)

【0060】点F(X,Y)は、投影面S上の点P
d(xd,yd,zd)の各軸の座標値を用いて次式のよう
に表すことができる。
The point F (X, Y) is the point P on the projection surface S
Using the coordinate values of each axis of d (x d , y d , z d ), it can be expressed as the following equation.

【0061】[0061]

【数4】 (Equation 4)

【0062】したがって、ゲーム空間内に配置された三
次元オブジェクトを構成する各ポリゴンの頂点P
p(xp,yp,zp)がわかっているときに、対応する円
形フレームバッファ50の格納位置を計算するために、
座標変換処理部42は、まず、頂点Pp(xp,yp
p)の座標値を上述した(1)〜(3)式に代入する
ことにより、投影面S上の点Pd(xd,yd,zd)の座
標を計算する。その後、座標変換処理部42は、この計
算によって得られた点Pd(xd,yd,zd)の座標値を
上述した(4)式および(5)式に代入して、円形フレ
ームバッファ50上の点F(X,Y)を計算する。ま
た、図3および図4に示した中間点P′あるいはP″に
ついても同様の手順により、円形フレームバッファ50
の格納位置が計算される。
Therefore, the vertices P of each polygon constituting the three-dimensional object placed in the game space
When p (x p , y p , z p ) is known, to calculate the storage position of the corresponding circular frame buffer 50,
First, the coordinate conversion processing unit 42 first vertex P p (x p , y p ,
The coordinates of the point P d (x d , y d , z d ) on the projection plane S are calculated by substituting the coordinate values of z p ) into the above-described equations (1) to (3). After that, the coordinate conversion processing unit 42 substitutes the coordinate values of the point P d (x d , y d , z d ) obtained by this calculation into the above-described equations (4) and (5), and obtains the circular frame. The point F (X, Y) on the buffer 50 is calculated. The intermediate point P ′ or P ″ shown in FIG. 3 and FIG.
Is calculated.

【0063】このようにして三次元オブジェクトの各ポ
リゴンの頂点と中間点のそれぞれに対応する円形フレー
ムバッファ50の格納位置が計算される。特に、このよ
うにして行われる座標変換処理は、三次元オブジェクト
のゲーム空間内における位置や視点位置および投影位置
を用いて正確に行われているため、視点位置から見たと
きに理論上歪みのない正確なゲーム画像を球面スクリー
ン4上に投影するために必要な円形フレームバッファ5
0の格納位置を得ることができる。
In this way, the storage positions of the circular frame buffer 50 corresponding to the vertices and intermediate points of each polygon of the three-dimensional object are calculated. In particular, since the coordinate transformation process performed in this manner is accurately performed using the position of the three-dimensional object in the game space, the viewpoint position, and the projection position, theoretically, distortion is observed when viewed from the viewpoint position. Circular frame buffer 5 needed to project accurate game images onto spherical screen 4
A storage position of 0 can be obtained.

【0064】図7は、円形フレームバッファ50に格納
されたポリゴンの頂点と中間点との対応関係を示す図で
ある。例えば、三角形形状のポリゴンが用いられている
ものとし、3つの頂点のそれぞれに対応する円形フレー
ムバッファ50上の頂点をF a、Fb、Fcとする。ま
た、隣接する2つの頂点に挟まれた3つの中間点のそれ
ぞれに対応する円形フレームバッファ50上の中間点を
1、F2、F3とする。図7に示すように、隣接する2
つの頂点とこれらに挟まれた中間点に着目した場合に、
これら3点は一直線上には配置されない。
FIG. 7 shows a case where the data is stored in the circular frame buffer 50.
Showing the correspondence between the vertices of the polygon and the intermediate points
is there. For example, triangular polygons are used
Circular frames corresponding to each of the three vertices
Vertex on the buffer 50 a, Fb, FcAnd Ma
That of three intermediate points between two adjacent vertices
The intermediate point on the circular frame buffer 50 corresponding to each
F1, FTwo, FThreeAnd As shown in FIG.
Focusing on two vertices and the intermediate point between them,
These three points are not arranged on a straight line.

【0065】(2−2)投影位置のみを球面スクリーン
4の球心からずらした場合 ところで、上述した説明では、視点位置Peと投影位置
rを球面スクリーン4の球心に一致させた場合を考え
たが、実際には、このような位置関係を実現することは
難しい。実用的な幾何学的配置を考えた場合に、球面ス
クリーン4を用いることによる臨場感の高いゲーム画像
をプレーヤに見せようとすると、プレーヤの視点位置を
球面スクリーン4の球心近傍に設定することが望まし
い。したがって、この場合には投影位置Prを球面スク
リーン4の球心からずらして設定する必要がある。
(2-2) Only a projection position is a spherical screen
When shifted from the fourth spherical center Incidentally, in the above description, but consider the case where the viewpoint position P e and the projection position P r to match the sphere center of the spherical screen 4, in fact, such a positional relationship It is difficult to realize. Considering a practical geometrical arrangement, if a player wants to show a highly realistic game image by using the spherical screen 4 to the player, the viewpoint of the player should be set near the spherical center of the spherical screen 4. Is desirable. Therefore, in this case, it is necessary to set by shifting the projection position P r from the sphere center of the spherical screen 4.

【0066】図8は、投影位置を球面スクリーン4の球
心位置からずらした場合の座標変換処理の概要を示す図
である。同図に示す座標軸は、上述した図6に示したも
のと同じである。投影位置Pr(xr,yr,zr)は、球
面スクリーン4の球心以外の所定位置(例えば、プレー
ヤの頭上等)に設定されている。また、円形フレームバ
ッファ50については、その原点が投影位置Prに対応
付けられるため、上述した(2−1)の場合における座
標軸の表示(図5参照)と区別するために、原点をO′
とし、水平方向に沿った軸をX′軸、垂直方向に沿った
軸をY′軸と表すことにする。
FIG. 8 is a diagram showing an outline of the coordinate conversion processing when the projection position is shifted from the spherical center position of the spherical screen 4. The coordinate axes shown in the figure are the same as those shown in FIG. The projection position P r (x r , y r , z r ) is set at a predetermined position other than the center of the spherical screen 4 (for example, above the player). As for the circular frame buffer 50, since the origin is associated with the projection position P r, in order to distinguish it from the display of the coordinate axes in the case of the above-described (2-1) (see FIG. 5), the origin O '
The axis along the horizontal direction is referred to as the X 'axis, and the axis along the vertical direction is referred to as the Y' axis.

【0067】上述した(2−1)で説明したように、球
面スクリーン4の球心に対応する原点oの位置に視点位
置Peを一致させた場合には、ゲーム空間内の点Pp(x
p,yp,zp)は、投影面S上における点Pd(xd
d,zd)として見えることになる。すなわち、任意の
投影位置Prから球面スクリーン4上の点Pd(xd
d,zd)に投影してやれば、その点は、視点位置Pe
からはゲーム空間内の点Pp(xp,yp,zp)として認
識されることになる。
[0067] As described in the above-described (2-1), when to match the viewpoint position P e to the position of the origin o which corresponds to the spherical center of the spherical screen 4, a point in the game space P p ( x
p , y p , z p ) is a point P d (x d ,
y d , z d ). That is, a point on the spherical screen 4 from any projection position P r P d (x d,
y d , z d ), the point becomes the viewpoint position P e
Will be recognized as a point P p (x p , y p , z p ) in the game space.

【0068】したがって、任意の投影位置Prに対応し
て、上述した(2−1)に示した手順と同様な座標変換
処理を点Pdに対して行えば、投影位置Prから点Pd
投影する場合に必要な円形フレームバッファ50上の点
F′(X′,Y′)を求めることができる。ただし、投
影位置Prを原点oからずらした場合のx′軸、y′
軸、z′軸は、元のx軸、y軸、z軸を平行移動したも
のであり、軸回りの回転はないものとする。また、xr 2
+yr 2+zr 2<r2 を満たす範囲(原点oから半径r以
下)で投影位置Prが設定されているものとする。
[0068] Thus, in response to an arbitrary projection position P r, by performing the steps similar to the coordinate transformation process shown in the above (2-1) with respect to the point P d, the point from the projection position P r P The point F ′ (X ′, Y ′) on the circular frame buffer 50 required for projecting on d can be obtained. However, the x 'axis and y' when the projection position Pr is shifted from the origin o
The axes and z 'axes are obtained by translating the original x, y, and z axes, and assume that there is no rotation around the axes. Also, x r 2
+ Y r 2 + z r 2 < range satisfying r 2 (hereinafter radius r from the origin o) in the projection position P r is assumed to be set.

【0069】図8において、投影位置Prと点Pdを結ぶ
直線とz′軸とのなす角度をθ′とすると、角度θ′
は、次式により表される。
[0069] In FIG. 8, when 'the angle between the axis theta' straight line z connecting the projection position P r and a point P d and the angle theta '
Is represented by the following equation.

【0070】[0070]

【数5】 (Equation 5)

【0071】また、円形フレームバッファ50上の原点
O′と点F′(X′,Y′)を結ぶ直線とX′軸とのな
す角度をΦ′とし、図8において、点Pd(xd,yd
d)のx′y′平面への写像点Pd″(xd−xr,yd
−yr,0) と点Prを結ぶ直線とx′軸とのなす角度
をφ′とすると、これらの角度Φ′およびφ′は等しく
なる。ここで、cosφ′、sinφ′は、以下の式で表すこ
とができる。
The angle between a straight line connecting the origin O 'on the circular frame buffer 50 and the point F' (X ', Y') and the X 'axis is Φ'. In FIG. 8, the point P d (x d , y d ,
z d ) is a mapping point P d ″ (x d −x r , y d
When -y r, 0) and 'an angle between the axis phi' straight line x which connects the point P r and, these angles [Phi 'and phi' are equal. Here, cos φ ′ and sin φ ′ can be represented by the following equations.

【0072】[0072]

【数6】 (Equation 6)

【0073】また、投影面S上の点Pd(xd,yd
d)の座標値は、上述した(1)〜(3)式に基づい
て求められる。点F′(X′,Y′)は、投影面S上の
点Pd(xd,yd,zd)および投影位置Pr(xr
r,zr)の各座標値を用いて次式のように表すことが
できる。
A point P d (x d , y d ,
The coordinate value of z d ) is obtained based on the above equations (1) to (3). The point F ′ (X ′, Y ′) is a point P d (x d , y d , z d ) and a projection position P r (x r ,
y r , z r ) can be expressed by the following equation using the respective coordinate values.

【0074】[0074]

【数7】 (Equation 7)

【0075】したがって、ゲーム空間内に配置された三
次元オブジェクトを構成する各ポリゴンの頂点P
p(xp,yp,zp)がわかっているときに、対応する円
形フレームバッファ50上の格納位置を計算するため
に、座標変換処理部42は、まず、頂点Pp(xp
p,zp)の座標値を上述した(1)〜(3)式に代入
することにより、投影面S上の点Pd(xd,yd,zd
の座標を計算する。その後、座標変換処理部42は、こ
の計算によって得られた点Pd(xd,yd,zd)の座標
値を上述した(7)式および(8)式に代入して、円形
フレームバッファ50上の点F′(X′,Y′)の座標
を計算する。また、図3および図4に示した中間点P′
あるいはP″についても同様の手順により、円形フレー
ムバッファ50の格納位置が計算される。
Therefore, the vertices P of each polygon constituting the three-dimensional object placed in the game space
When p (x p , y p , z p ) is known, the coordinate transformation processing unit 42 first calculates the vertex P p (x p , z p ) in order to calculate the corresponding storage position on the circular frame buffer 50.
By substituting the coordinate values of y p , z p ) into the above equations (1) to (3), a point P d (x d , y d , z d ) on the projection plane S is obtained.
Calculate the coordinates of. Thereafter, the coordinate conversion processing unit 42 substitutes the coordinate values of the point P d (x d , y d , z d ) obtained by this calculation into the above-described equations (7) and (8), and The coordinates of the point F ′ (X ′, Y ′) on the buffer 50 are calculated. Further, the intermediate point P 'shown in FIGS.
Alternatively, the storage position of the circular frame buffer 50 is calculated by the same procedure for P ″.

【0076】このようにして三次元オブジェクトの各ポ
リゴンの頂点や中間点のそれぞれに対応する円形フレー
ムバッファ50上の格納位置が計算される。特に、この
ようにして行われる座標変換処理は、三次元オブジェク
トのゲーム空間内における位置や視点位置および投影位
置を用いて正確に行われているため、投影位置を任意の
位置へ移動した場合においても、視点位置から見たとき
に理論上歪みのない正確なゲーム画像を球面スクリーン
4上に投影するために必要な円形フレームバッファ50
の格納位置を得ることができる。
In this way, the storage positions on the circular frame buffer 50 corresponding to the vertices and intermediate points of each polygon of the three-dimensional object are calculated. In particular, since the coordinate transformation process performed in this way is accurately performed using the position, viewpoint position, and projection position of the three-dimensional object in the game space, when the projection position is moved to an arbitrary position. The circular frame buffer 50 necessary for projecting an accurate game image theoretically free from distortion when viewed from the viewpoint position on the spherical screen 4.
Can be obtained.

【0077】なお、上述した図8では、説明の都合上、
投影位置Prはzr≧0の領域に描かれていたが、実際に
は、レンズ3の投影角が180度であるため、球面スク
リーン4の全体にゲーム画像を表示するために、投影位
置Prは、zr≦0の範囲で設定することが望ましい。
In FIG. 8 described above, for convenience of explanation,
While the projection position P r was drawn to the region of z r ≧ 0, in fact, since the projection angle of the lens 3 is 180 degrees, in order to display the game image on the entire spherical screen 4, the projection position P r is preferably set in a range of z r ≦ 0.

【0078】また、本実施形態のレンズ3として用いて
いる魚眼レンズは、一般的には、焦点深度が深いため、
フォーカスが合っている範囲が広いという特徴がある。
このため、投影位置をずらした場合においても、球面ス
クリーン4に表示されるゲーム画像は、全体がほぼフォ
ーカスが合っている状態になる。
The fish-eye lens used as the lens 3 of the present embodiment generally has a deep depth of focus.
The feature is that the range in focus is wide.
For this reason, even when the projection position is shifted, the game image displayed on the spherical screen 4 is substantially in focus as a whole.

【0079】(2−3)視点位置、投影位置の両方を球
面スクリーン4の球心からずらした場合 ところで、上述した(2−2)における説明では、投影
位置Prが球面スクリーン4の球心位置からずれた位置
に設定される場合について説明していたが、実際には、
プレーヤの視点位置Peも、球面スクリーン4の球心位
置からずらしたい場合がある。以下では、視点位置およ
び投影位置の両方を球面スクリーン4の球心位置からず
らして設定した場合について説明する。
(2-3) Both the viewpoint position and the projection position are spherical
When shifted from the spherical center of the surface screen 4 Incidentally, in the description of the above-described (2-2), although the projection position P r had described the case that is set at a position shifted from the spherical center position of the spherical screen 4, actually,
Player's viewpoint position P e also may wish shifted from the spherical center position of the spherical screen 4. Hereinafter, a case where both the viewpoint position and the projection position are set so as to be shifted from the spherical center position of the spherical screen 4 will be described.

【0080】図9は、視点位置および投影位置を球面ス
クリーン4の球心位置からずらした場合の座標変換処理
の概要を示す図である。同図に示す座標軸は、上述した
図6等に示したものと同じである。視点位置Pe、投影
位置Prの両者が球面スクリーン4の球心以外の所定位
置に設定されている。また、円形フレームバッファ50
については、その原点が投影位置Prに対応付けられる
ため、上述した(2−1)の場合における座標軸の表示
(図5参照)と区別するために、上述した(2−2)の
場合と同様に、原点をO′とし、水平方向に沿った軸を
X′軸、垂直方向に沿った軸をY′軸と表すことにす
る。
FIG. 9 is a diagram showing an outline of a coordinate conversion process when the viewpoint position and the projection position are shifted from the spherical center position of the spherical screen 4. The coordinate axes shown in the figure are the same as those shown in FIG. Viewpoint position P e, both projection position P r is set at a predetermined position other than the spherical center of the spherical screen 4. The circular frame buffer 50
For, since the origin is associated with the projection position P r, in order to distinguish it from the display of the coordinate axes in the case of the above-described (2-1) (see FIG. 5), in the case of the above-described (2-2) Similarly, the origin is O ', the axis along the horizontal direction is X' axis, and the axis along the vertical direction is Y 'axis.

【0081】図9において、ゲーム空間内の点P
p(xp,yp,zp)と視点位置Pe(xe,ye,ze)を
結ぶ直線は、以下の式で表される。
In FIG. 9, a point P in the game space
A straight line connecting p (x p , y p , z p ) and the viewpoint position Pe (x e , y e , z e ) is represented by the following equation.

【0082】[0082]

【数8】 (Equation 8)

【0083】また、投影面Sに対応する半球は、以下に
示す球の方程式で表される(ただし、z≧0)。 x2 +y2 +z2 =r2 …(10) 視点位置Peからゲーム空間内の点Pp(xp,yp
p)を見たときに、この点Pp に対応する投影面S上
の点Pd(xd,yd,zd)の座標は、上述した(9)式
に示す直線と(10)式に示す半球との交点の座標を計算
することにより求めることができる。
The hemisphere corresponding to the projection plane S is represented by the following spherical equation (where z ≧ 0). x 2 + y 2 + z 2 = r 2 (10) From the viewpoint position Pe to a point P p (x p , y p ,
When looking at z p ), the coordinates of the point P d (x d , y d , z d ) on the projection plane S corresponding to this point P p are represented by the straight line shown in the above-described equation (9) and ) Can be obtained by calculating the coordinates of the intersection with the hemisphere shown in the equation.

【0084】具体的には、(9)式を変形することによ
り、以下の各式が導かれる。
Specifically, the following equations are derived by modifying equation (9).

【0085】[0085]

【数9】 (Equation 9)

【0086】(11)式および(12)式を(10)式に代入
すると、次式が得られる。 ((xp−xe)2+(yp−ye)2+(zp−ze)2)×x2 −2×((yp−ye)×(xe×yp−ye×xp)+(zp−ze) ×(xe×zp−ze×xp))×x +((xe×yp−ye×xp)2+(xe×zp−ze×xp)2 −r2×(xp−xe)2) =0 …(13) ここで、 a=(xp−xe)2+(yp−ye)2+(zp−ze)2 b=(yp−ye)×(xe×yp−ye×xp)+(zp−ze)×(xe×zp−ze×xp) c=(xe×yp−ye×xp)2+(xe×zp−ze×xp)2−r2×(xp−xe)2 とおくと、上述した(13)式の解は、次式のように表さ
れる。
By substituting equations (11) and (12) into equation (10), the following equation is obtained. ((x p -x e) 2 + (y p -y e) 2 + (z p -z e) 2) × x 2 -2 × ((y p -y e) × (x e × y p - y e × x p) + ( z p -z e) × (x e × z p -z e × x p)) × x + ((x e × y p -y e × x p) 2 + (x e × z p -z e × x p) 2 -r 2 × (x p -x e) 2) = 0 ... (13) where, a = (x p -x e ) 2 + (y p -y e) 2 + (z p -z e) 2 b = (y p -y e) × (x e × y p -y e × x p) + (z p -z e) × (x e × z p -z e × x p) c = (x e × y p -y e × x p) 2 + (x e × z p -z e × x p) 2 -r 2 × (x p -x e) 2 In other words, the solution of the above equation (13) is expressed as the following equation.

【0087】[0087]

【数10】 (Equation 10)

【0088】したがって、ゲーム空間内の点Pp(xp
p,zp)と視点位置Pe(xe,y e,ze)の各座標値
を用いて(14)式を計算することにより、投影面S上の
点P dのx座標値(xd)が求められる。また、(14)式
を上述した(11)式および(12)式に代入することによ
り、点Pdのy座標値(yd)、z座標値(zd)が求め
られる。
Therefore, the point P in the game spacep(Xp,
yp, Zp) And viewpoint position Pe(Xe, Y e, Ze)
By calculating equation (14) using
Point P dX coordinate value (xd) Is required. Also, equation (14)
By substituting into the above equations (11) and (12)
Point PdY coordinate value (yd), Z coordinate value (zd) Asked
Can be

【0089】実際に(14)式を用いてx座標値を計算す
ると、2つの解x1、x2が得られる。これらの2つの解
のうち、一方の解x1を(11)式および(12)式にそれ
ぞれ代入することにより、対応するy座標値(y1)お
よびz座標値(z1)が得られる。この結果、点Pdの座
標値は(x1,y1,z1)となる。また、他方の解x2
(11)式および(12)式にそれぞれ代入することによ
り、対応するy座標値(y2)およびz座標値(z2)が
得られる。この結果、点Pdの座標値は(x2,y 2
2)となる。これら2つの座標値のうちで、必要な解
としては、点Peから各座標値(x1,y1,z1)および
(x2,y2,z2)の点へ向かう2本のベクトルのうち
で、視点位置Peから点Pp へ向かうベクトルと同じ向
きを有するベクトルに対応する座標値が選択される。
The x coordinate value is actually calculated using equation (14).
Then, two solutions x1, XTwoIs obtained. These two solutions
One of the solutions x1Into equations (11) and (12)
By substituting each value, the corresponding y coordinate value (y1)
And z coordinate value (z1) Is obtained. As a result, the point PdSeat
The standard value is (x1, Y1, Z1). Also, the other solution xTwoTo
By substituting into equations (11) and (12),
And the corresponding y coordinate value (yTwo) And z coordinate values (zTwo)But
can get. As a result, the point PdIs (xTwo, Y Two,
zTwo). Of these two coordinate values, the required solution
As a point PeFrom each coordinate value (x1, Y1, Z1)and
(XTwo, YTwo, ZTwo) Of the two vectors going to the point
And the viewpoint position PeFrom point Pp The same direction as the vector going to
The coordinate value corresponding to the vector having the shift is selected.

【0090】このようにして、点Pd(xd,yd,zd
の座標値を求めることができる。その後、この座標値を
上述した(7)式および(8)式に代入することによ
り、投影位置Prから投影面S上の点Pdに画像を投影す
る際に必要な円形フレームバッファ50上の点F′
(X′,Y′)の座標を求めることができる。
Thus, the point P d (x d , y d , z d )
Can be obtained. Then, by substituting this coordinate value mentioned above (7) and (8), on a circular frame buffer 50 necessary for projecting the image at a point P d on the projection plane S from the projection position P r The point F '
The coordinates of (X ', Y') can be obtained.

【0091】したがって、ゲーム空間内に配置された三
次元オブジェクトを構成する各ポリゴンの頂点P
p(xp,yp,zp)がわかっているときに、対応する円
形フレームバッファ50上の格納位置を計算するため
に、座標変換処理部42は、まず、頂点Pp(xp
p,zp)の座標値と視点位置Pe(xe,ye,ze)の
座標値を用いて上述した(14)式等を計算することによ
り、投影面S上の点Pd(xd,yd,zd)の座標を計算
する。その後、座標変換処理部42は、この計算によっ
て得られた点Pd(xd,yd,zd)の座標値を上述した
(7)式および(8)式に代入して、円形フレームバッ
ファ50上の点F′(X′,Y′)の座標を計算する。
また、図3および図4に示した中間点P′あるいはP″
についても同様の手順により、円形フレームバッファ5
0の格納位置が計算される。
Therefore, the vertices P of each polygon constituting the three-dimensional object arranged in the game space are
When p (x p , y p , z p ) is known, the coordinate transformation processing unit 42 first calculates the vertex P p (x p , z p ) in order to calculate the corresponding storage position on the circular frame buffer 50.
y p, coordinate values and the viewpoint position P e (x e of z p), y e, by calculating the z described above with reference to coordinate values of e) (14) type or the like, a point on the projection plane S P d (x d, y d, z d) calculating the coordinates of. Thereafter, the coordinate conversion processing unit 42 substitutes the coordinate values of the point P d (x d , y d , z d ) obtained by this calculation into the above-described equations (7) and (8), and The coordinates of the point F ′ (X ′, Y ′) on the buffer 50 are calculated.
Further, the intermediate point P 'or P "shown in FIGS.
The same procedure is applied to the circular frame buffer 5
The storage location of 0 is calculated.

【0092】このようにして三次元オブジェクトの各ポ
リゴンの頂点や中間点のそれぞれに対応する円形フレー
ムバッファ50上の格納位置が計算される。特に、この
ようにして行われる座標変換処理は、三次元オブジェク
トのゲーム空間内における位置や視点位置および投影位
置を用いて正確に行われているため、視点位置や投影位
置を任意の位置へ移動した場合においても、視点位置か
ら見たときに理論上歪みのない正確なゲーム画像を球面
スクリーン4上に投影するために必要な円形フレームバ
ッファ50の格納位置を得ることができる。
In this way, the storage positions on the circular frame buffer 50 corresponding to the vertices and intermediate points of each polygon of the three-dimensional object are calculated. In particular, since the coordinate transformation process performed in this manner is accurately performed using the position, the viewpoint position, and the projection position of the three-dimensional object in the game space, the viewpoint position and the projection position are moved to arbitrary positions. Even in this case, the storage position of the circular frame buffer 50 necessary for projecting an accurate game image theoretically free of distortion when viewed from the viewpoint position on the spherical screen 4 can be obtained.

【0093】なお、上述した図9においても、説明の都
合上、投影位置Prはzr≧0の領域に描かれていたが、
上述した(2−2)の場合と同様の理由により、実際の
投影位置Prは、zr≦0の範囲で設定することが望まし
い。(3)輪郭線算出処理図10は、輪郭線算出部43
によってポリゴンの輪郭線算出処理の概要を示す図であ
る。図10において、ポリゴンに含まれる2つの頂点の
円形フレームバッファ50上の写像をFa(Xa
a)、Fb(Xb,Yb)とし、これらに挟まれた中間点
をF1(X1,Y1)とする。また、これら3点Fa
1、Fbを通る円の中心をE(X0,Y0)、この円の半
径をR1とする。
In FIG. 9 described above, for convenience of explanation, the projection position Pr is drawn in an area where z r ≧ 0.
For the same reason as in the case of (2-2) described above, it is desirable that the actual projection position Pr be set in a range of zr ≦ 0. (3) Contour Line Calculation Processing FIG.
FIG. 9 is a diagram showing an outline of a polygon outline calculation process. In FIG. 10, the mapping of the two vertices included in the polygon on the circular frame buffer 50 is represented by F a (X a ,
Y a ) and F b (X b , Y b ), and the intermediate point sandwiched between them is F 1 (X 1 , Y 1 ). In addition, these three points F a ,
The center of a circle passing through F 1 and F b is E (X 0 , Y 0 ), and the radius of the circle is R 1.

【0094】円の中心をE(X0,Y0)とする円の方程
式は、 (X−X02 +(Y−Y02 =R12 …(15) となる。この円の方程式に、3点Fa、F1、Fbの座標
値を代入することにより、以下の連立方程式が得られ
る。
The equation of the circle with the center of the circle as E (X 0 , Y 0 ) is as follows: (X−X 0 ) 2 + (Y−Y 0 ) 2 = R1 2 (15) By substituting the coordinate values of the three points F a , F 1 , and F b into the equation of this circle, the following simultaneous equations are obtained.

【0095】 (Xa−X02 +(Ya−Y02 =R1 2 (Xb−X02 +(Yb−Y02 =R1 2 (X1−X02 +(Y1−Y02 =R1 2 この連立方程式を解くことにより、 Y0=(i×j−g×h)/(2×(Ya×g−Y1×g
−Y1×i+Yb×i)) X0=(h+2×Ya×Y0−2×Y1×Y0)/i R1=√((Xa−X02 +(Ya−Y02 ) が得られる。ここで、 g=−2×X1+2×Xb h=−Xa 2 +X1 2 −Ya 2 +Y1 2 i=−2×Xa+2×X1 j=−X1 2 +Xb 2 −Y1 2 +Yb 2 とする。
[0095] (X a -X 0) 2 + (Y a -Y 0) 2 = R 1 2 (X b -X 0) 2 + (Y b -Y 0) 2 = R 1 2 (X 1 -X 0) 2 + (Y 1 -Y 0) by solving 2 = R 1 2 this simultaneous equation, Y 0 = (i × j -g × h) / (2 × (Y a × g-Y 1 × g
−Y 1 × i + Y b × i)) X 0 = (h + 2 × Y a × Y 0 −2 × Y 1 × Y 0 ) / i R 1 = √ ((X a −X 0 ) 2 + (Y a − Y 0 ) 2 ) is obtained. Here, g = -2 × X 1 + 2 × X b h = -X a 2 + X 1 2 -Y a 2 + Y 1 2 i = -2 × X a + 2 × X 1 j = -X 1 2 + X b 2 −Y 1 2 + Y b 2

【0096】このようにして、輪郭線算出部43は、円
の方程式を決定することにより、3点Fa、F1、Fb
通る輪郭線の形状(円弧形状)を決定する。(4)テクスチャマッピング処理 図11は、テクスチャマッピング処理の概要を示す図で
ある。図11に示すように、本実施形態では、ポリゴン
の3つの頂点のそれぞれに対応した頂点Fa、Fb、Fc
のそれぞれをつなぐ各輪郭線は、円弧によって近似され
ており、これらの内部が、1つのポリゴンに対応して画
像情報を書き込む描画領域となる。
In this way, the contour calculation unit 43 determines the shape of the contour (arc shape) passing through the three points F a , F 1 , and F b by determining the equation of the circle. (4) Texture Mapping Process FIG. 11 is a diagram showing an outline of the texture mapping process. As shown in FIG. 11, in the present embodiment, vertices F a , F b , and F c corresponding to the three vertices of the polygon, respectively.
Are connected to each other by arcs, and the inside of these lines is a drawing area for writing image information corresponding to one polygon.

【0097】テクスチャマッピング処理部44は、この
描画領域の上端(Ymax)から下端(Ymin)まで順番に
X方向のスキャンを行い、円弧形状で近似された輪郭線
に挟まれた領域に含まれる各画素の画像情報を生成す
る。この画像情報の生成は、一般的なテクスチャマッピ
ングの手法を用いて行われる。すなわち、別に用意され
たテクスチャデータ(ポリゴンに対応させるテクスチャ
の画像情報)の中から、ポリゴン内の描画位置に対応す
るものを取得することにより行われる。
The texture mapping processing section 44 sequentially scans the drawing area in the X direction from the upper end (Y max ) to the lower end (Y min ), and includes the area between the contour lines approximated by an arc. Image information of each pixel to be generated. The generation of the image information is performed using a general texture mapping technique. That is, the processing is performed by acquiring data corresponding to the drawing position in the polygon from texture data (image information of the texture corresponding to the polygon) prepared separately.

【0098】ところで、従来のテクスチャマッピング処
理では、フレームバッファ上のポリゴン形状も多角形形
状を有していたため、ポリゴン内の任意の描画位置に対
応するテクスチャ座標を求める際に、単純な直線補間演
算を行うだけでよかった。しかし、本実施形態では、円
形フレームバッファ50上のポリゴン形状は、輪郭線が
円弧形状で近似されているため、任意の描画位置に対応
するテクスチャ座標を単純な直線補間演算によって求め
ることができない。
By the way, in the conventional texture mapping processing, since the polygon shape on the frame buffer also has a polygonal shape, a simple linear interpolation calculation is performed when obtaining the texture coordinates corresponding to an arbitrary drawing position in the polygon. I just had to do. However, in the present embodiment, since the outline of the polygon shape on the circular frame buffer 50 is approximated by an arc shape, texture coordinates corresponding to an arbitrary drawing position cannot be obtained by a simple linear interpolation operation.

【0099】図12は、テクスチャマッピング処理部4
4によって円形フレームバッファ50上の任意の描画位
置に対応するテクスチャ座標を求める処理手順の概要を
示す図である。まず、テクスチャマッピング処理部44
は、画像情報を生成しようとする円形フレームバッファ
50上の描画点F′の座標を決定した後に、ゲーム空間
に配置されたポリゴン内の対応位置Pp′ を計算する。
次に、テクスチャマッピング処理部44は、このポリゴ
ン内の対応位置Pp′ に基づいてテクスチャ座標Tを計
算する。ゲーム空間内のポリゴンは、3つの頂点を直線
で囲んだ三角形形状を有しているため、このポリゴン内
の特定位置Pp′ に対応するテクスチャ座標Tは、単純
な直線補間演算により求めることができる。
FIG. 12 shows the texture mapping processing section 4
FIG. 4 is a diagram showing an outline of a processing procedure for obtaining texture coordinates corresponding to an arbitrary drawing position on the circular frame buffer 50 according to FIG. First, the texture mapping processing unit 44
Calculates the corresponding position P p 'in the polygon arranged in the game space after determining the coordinates of the drawing point F' on the circular frame buffer 50 for which image information is to be generated.
Next, the texture mapping processing unit 44 calculates the texture coordinates T based on the corresponding position P p 'in the polygon. Since the polygon in the game space has a triangular shape in which three vertices are surrounded by straight lines, the texture coordinates T corresponding to the specific position P p ′ in the polygon can be obtained by a simple linear interpolation operation. it can.

【0100】このように、本実施形態のゲームシステム
では、複数のポリゴンによって構成された三次元オブジ
ェクトの画像情報を円形フレームバッファ50に書き込
む際に、多角形で表されたポリゴンの輪郭線形状を円弧
で近似している。したがって、ゲーム空間内の三次元オ
ブジェクトの形状を正確に再現することができ、球面ス
クリーン4に投影される画像の歪みを低減することがで
きる。
As described above, in the game system of the present embodiment, when the image information of the three-dimensional object constituted by the plurality of polygons is written into the circular frame buffer 50, the outline shape of the polygon represented by the polygon is changed. It is approximated by an arc. Therefore, the shape of the three-dimensional object in the game space can be accurately reproduced, and the distortion of the image projected on the spherical screen 4 can be reduced.

【0101】なお、本発明は上記実施形態に限定される
ものではなく、本発明の要旨の範囲内において種々の変
形実施が可能である。例えば、上述した実施形態では、
(2−1)視点位置、投影位置の両者を球面スクリーン
4の球心位置に一致させる場合、(2−2)投影位置の
みをずらして設定する場合、(2−3)視点位置、投影
位置の両者をずらして設定する場合のそれぞれについ
て、座標変換処理の方法を説明したが、これらを応用す
ることにより、視点位置のみを球面スクリーン4の球心
からずらして設定した場合においても、歪みの少ないゲ
ーム画像を表示するための画像情報を生成することがで
きる。
Note that the present invention is not limited to the above-described embodiment, and various modifications can be made within the scope of the present invention. For example, in the embodiment described above,
(2-1) When both the viewpoint position and the projection position match the spherical center position of the spherical screen 4, (2-2) When only the projection position is shifted, (2-3) The viewpoint position and the projection position The method of the coordinate conversion processing has been described for each of the cases where both are shifted from each other. By applying these methods, even when only the viewpoint position is shifted from the spherical center of the spherical screen 4, the distortion is small. Image information for displaying a game image can be generated.

【0102】具体的には、上述した(2−3)に示した
視点位置、投影位置の両者をずらして設定する場合にお
いて説明したように、ゲーム空間内に配置された各三次
元オブジェクトを構成する各ポリゴンの頂点座標を点P
p(xp,yp,zp)として、これらの座標値と視点位置
e(xe,ye,ze)の座標値を用いて、上述した(1
4)式等を計算することにより、投影面S上の点Pd(x
d,yd,zd)の座標値を求める。その後、これらの座
標値に基づいて、上述した(4)式および(5)式を計
算することにより、円形フレームバッファ50上の格納
位置を求めればよい。
More specifically, as described in (2-3) where both the viewpoint position and the projection position are set to be shifted, each of the three-dimensional objects arranged in the game space is constituted. The vertex coordinates of each polygon
The above-mentioned (1) is used by using these coordinate values and the coordinate values of the viewpoint position P e (x e , y e , z e ) as p (x p , y p , z p ).
4) By calculating the equation and the like, the point P d (x
d , y d , z d ) are obtained. Thereafter, the storage position on the circular frame buffer 50 may be obtained by calculating the above-described equations (4) and (5) based on these coordinate values.

【0103】また、投影位置Prを球面スクリーン4の
球心位置からずらして設定する場合(上述した(2−
2)および(2−3)の場合など)には、投影位置Pr
から球面スクリーン4上の位置Pdまでの距離を考慮し
て、円形フレームバッファ50に格納する画像情報に対
して明るさ補正を行うようにしてもよい。
[0103] Further, the case (described above to set by shifting the projection position P r from the sphere center position of the spherical screen 4 (2-
2) and (2-3)), the projection position Pr
Taking into account the distance to the position P d on the spherical screen 4 from may perform brightness correction on the image information to be stored in the circular frame buffer 50.

【0104】図13は、明るさ補正を行う変形例につい
て説明する図であり、球面スクリーン4の断面を簡略化
した様子が示されている。投影位置Prが球面スクリー
ン4の球心位置Qからずれている場合には、投影位置P
rから球面スクリーン4上の任意の位置までの距離は等
距離ではなくなる。例えば、図13に示すように、投影
位置Prから球面スクリーン4上のある点Pd1までの距
離D1 と別の点Pd2までの距離D2 とは大きく異なるこ
とになる。投影位置Prから照射された光(ゲーム画像
を構成する各画素に対応する光)の強度、すなわち明る
さは、距離の2乗に反比例するため、球面スクリーン4
上に表示されるゲーム画像の明るさには偏りが生じるこ
ととなる。
FIG. 13 is a diagram for explaining a modification for performing brightness correction, and shows a state in which the cross section of the spherical screen 4 is simplified. If the projection position P r is deviated from the spherical center position Q of the spherical screen 4, the projection position P
The distance from r to an arbitrary position on the spherical screen 4 is not equal. For example, as shown in FIG. 13, a distance D1 from the projection position Pr to a point Pd1 on the spherical screen 4 is significantly different from a distance D2 to another point Pd2 . The intensity of the light emitted from the projection position P r (light corresponding to each pixel constituting the game image), i.e., the brightness is inversely proportional to the square of the distance, the spherical screen 4
The brightness of the game image displayed above will be biased.

【0105】したがって、例えば、投影位置Prから球
面スクリーン4上の位置までの距離の2乗に反比例する
所定の係数を設定し、これを円形フレームバッファ50
に格納される画像情報に対して乗算すれば、画像情報の
明るさの補正を行うことができる。これにより、ゲーム
画像の明るさの偏りを軽減し、より質の高いゲーム画像
を投影することができるようになる。
Therefore, for example, a predetermined coefficient which is inversely proportional to the square of the distance from the projection position Pr to the position on the spherical screen 4 is set, and this is set to the circular frame buffer 50.
, The brightness of the image information can be corrected. Thereby, the unevenness in brightness of the game image can be reduced, and a higher quality game image can be projected.

【0106】また、より簡便な方法としては、例えば、
投影位置Prから球面スクリーン4上の位置までの距離
に反比例する所定の係数を設定し、これを円形フレーム
バッファ50に格納される画像情報に対して乗算するよ
うにしてもよい。この場合には、ゲーム画像の明るさの
偏りをある程度軽減することができるとともに、明るさ
補正に要する計算量を低減することができる。また、投
影角度も投影位置から球面スクリーン4上に投影された
位置までの距離と所定の相関を有するため、距離の代わ
りに投影角度を用いて明るさ補正を行うようにしてもよ
い。なお、上述したような明るさ補正処理は、画像処理
部40内のシェーディング処理部45によって行うこと
ができる。
As a simpler method, for example,
A predetermined coefficient that is inversely proportional to the distance from the projection position Pr to the position on the spherical screen 4 may be set, and this may be multiplied by the image information stored in the circular frame buffer 50. In this case, the unevenness in brightness of the game image can be reduced to some extent, and the amount of calculation required for brightness correction can be reduced. Further, since the projection angle has a predetermined correlation with the distance from the projection position to the position projected on the spherical screen 4, the brightness correction may be performed using the projection angle instead of the distance. The brightness correction processing as described above can be performed by the shading processing unit 45 in the image processing unit 40.

【0107】また、上述した実施形態では、曲面スクリ
ーンの一種である球面スクリーンに画像を投影する場合
を説明したが、ゲーム空間内に配置された三次元オブジ
ェクトを視点位置から見たときに、曲面スクリーン上に
投影された位置が計算によって得られる場合には、球面
以外の曲面スクリーンに画像を表示する場合に本発明を
適用することができる。例えば、楕円を回転させた回転
体を半分に切断した投影面を有する曲面スクリーンに画
像を投影するようにしてもよい。このような曲面スクリ
ーンを用いた場合であっても、ゲーム空間内に配置され
た三次元オブジェクトの位置情報に基づいてこの曲面ス
クリーン上に投影された位置を算出し、さらに、この算
出位置に画像を投影するために必要な円形フレームバッ
ファ50上の格納位置を計算することにより、ほぼ歪み
のない画像表示を行うことができる。
Further, in the above-described embodiment, the case where the image is projected on the spherical screen which is a kind of the curved screen has been described. However, when the three-dimensional object arranged in the game space is viewed from the viewpoint position, the curved surface is projected. When the position projected on the screen is obtained by calculation, the present invention can be applied to a case where an image is displayed on a curved screen other than a spherical surface. For example, an image may be projected on a curved screen having a projection surface obtained by cutting a rotating body obtained by rotating an ellipse in half. Even when such a curved screen is used, the position projected on the curved screen is calculated based on the position information of the three-dimensional object arranged in the game space, and further, an image is displayed at the calculated position. By calculating the storage position on the circular frame buffer 50 necessary for projecting the image, it is possible to display an image with almost no distortion.

【0108】また、上述した実施形態では、ポリゴンの
輪郭線を円の方程式を用いて近似するようにしたが、そ
れ以外の曲線を用いて近似するようにしてもよい。例え
ば、スプライン曲線やその他の関数を用いて近似する場
合が考えられる。これらの場合には、例えば、N個の点
を特定することにより近似関数の各係数を決定すること
ができるものとすると、2つの頂点を除く(N−2)個
の中間点をゲーム空間内で計算すればよい。これらの中
間点に対応する円形フレームバッファ50の格納位置を
求めることにより、上述した実施形態と同様の手順で近
似関数を求めることができる。
In the above-described embodiment, the outline of the polygon is approximated by using the equation of a circle. However, the outline may be approximated by using another curve. For example, there is a case where approximation is performed using a spline curve or another function. In these cases, for example, if it is assumed that each coefficient of the approximation function can be determined by specifying N points, (N-2) intermediate points excluding two vertices are set in the game space. It can be calculated by By obtaining the storage positions of the circular frame buffer 50 corresponding to these intermediate points, an approximate function can be obtained in the same procedure as in the above-described embodiment.

【0109】また、上述した実施形態では、本発明をゲ
ームシステムに適用した場合の例について説明してきた
が、三次元オブジェクトを用いた三次元画像を曲面スク
リーンに投影する各種の装置に本発明を適用することが
できる。例えば、三次元オブジェクトを用いてプレゼン
テーションを行う装置や、フライトシミュレータ等の各
種のシミュレータ装置などに本発明を適用することがで
きる。
Further, in the above-described embodiment, an example in which the present invention is applied to a game system has been described. However, the present invention is applied to various devices for projecting a three-dimensional image using a three-dimensional object on a curved screen. Can be applied. For example, the present invention can be applied to a device that makes a presentation using a three-dimensional object, various simulator devices such as a flight simulator, and the like.

【0110】[0110]

【発明の効果】上述したように、本発明によれば、フレ
ームバッファ上のポリゴンの輪郭線を直線形状ではなく
曲線形状で近似することにより、曲面スクリーンに投影
された三次元オブジェクトを構成する各ポリゴンの輪郭
線を、歪みの少ないほぼ直線形状にすることができる。
As described above, according to the present invention, the outline of a polygon on a frame buffer is approximated not by a straight line but by a curved line, thereby forming a three-dimensional object projected on a curved screen. The outline of the polygon can be formed into a substantially linear shape with little distortion.

【図面の簡単な説明】[Brief description of the drawings]

【図1】一実施形態のゲームシステムの構成を示す図で
ある。
FIG. 1 is a diagram illustrating a configuration of a game system according to an embodiment.

【図2】ゲームシステムの動作手順の概要を示す流れ図
である。
FIG. 2 is a flowchart showing an outline of an operation procedure of the game system.

【図3】中間点算出処理の概要を示す図である。FIG. 3 is a diagram illustrating an outline of an intermediate point calculation process.

【図4】中間点算出処理の概要を示す図である。FIG. 4 is a diagram showing an outline of an intermediate point calculation process.

【図5】円形フレームバッファの描画範囲を示す図であ
る。
FIG. 5 is a diagram illustrating a drawing range of a circular frame buffer.

【図6】座標変換処理の概要を示す図である。FIG. 6 is a diagram illustrating an outline of a coordinate conversion process.

【図7】円形フレームバッファ上のポリゴンの頂点と中
間点との対応関係を示す図である。
FIG. 7 is a diagram showing the correspondence between vertices of polygons on a circular frame buffer and intermediate points;

【図8】投影位置のみを球面スクリーンの球心からずら
した場合の座標変換処理の概要を示す図である。
FIG. 8 is a diagram showing an outline of a coordinate conversion process when only the projection position is shifted from the spherical center of the spherical screen.

【図9】視点位置および投影位置を球面スクリーンの球
心からずらした場合の座標変換処理の概要を示す図であ
る。
FIG. 9 is a diagram illustrating an outline of a coordinate conversion process when the viewpoint position and the projection position are shifted from the spherical center of the spherical screen.

【図10】ポリゴンの輪郭線算出処理の概要を示す図で
ある。
FIG. 10 is a diagram showing an outline of a polygon outline calculation process.

【図11】テクスチャマッピング処理の概要を示す図で
ある。
FIG. 11 is a diagram illustrating an outline of a texture mapping process.

【図12】円形フレームバッファ上の任意の描画位置に
対応するテクスチャ座標を求める処理手順の概要を示す
図である。
FIG. 12 is a diagram showing an outline of a processing procedure for obtaining texture coordinates corresponding to an arbitrary drawing position on a circular frame buffer.

【図13】明るさ補正を行う変形例について説明する図
である。
FIG. 13 is a diagram illustrating a modified example for performing brightness correction.

【符号の説明】[Explanation of symbols]

1 ゲーム装置 2 プロジェクタ 3 レンズ 4 球面スクリーン 10 入力装置 20 ゲーム演算部 22 入力判定部 24 イベント処理部 26 ゲーム空間演算部 30 情報記憶媒体 40 画像処理部 41 中間点算出部 42 座標変換処理部 43 輪郭線算出部 44 テクスチャマッピング処理部 45 シェーディング処理部 50 円形フレームバッファ DESCRIPTION OF SYMBOLS 1 Game device 2 Projector 3 Lens 4 Spherical screen 10 Input device 20 Game operation part 22 Input judgment part 24 Event processing part 26 Game space operation part 30 Information storage medium 40 Image processing part 41 Intermediate point calculation part 42 Coordinate transformation processing part 43 Outline Line calculation unit 44 Texture mapping processing unit 45 Shading processing unit 50 Circular frame buffer

Claims (33)

【特許請求の範囲】[Claims] 【請求項1】 仮想的な三次元空間に配置された三次元
オブジェクトの画像を広角レンズを通して曲面スクリー
ンに投影する画像表示装置であって、 前記曲面スクリーン上に投影すべき位置と画像情報の格
納位置とが対応したフレームバッファと、 前記フレームバッファに格納された前記画像情報に対応
する画像を前記広角レンズに向けて照射する投影装置
と、 前記三次元オブジェクトを構成するポリゴンの輪郭線に
対応する前記フレームバッファ上のポリゴンの輪郭線の
形状を曲線で近似する輪郭線算出手段と、 前記輪郭線算出手段によって近似された前記輪郭線で囲
まれた前記フレームバッファの格納位置に、対応する前
記三次元オブジェクトの画像情報を格納する画像情報格
納手段と、 を備えることを特徴とする画像表示装置。
1. An image display device for projecting an image of a three-dimensional object arranged in a virtual three-dimensional space onto a curved screen through a wide-angle lens, and storing a position to be projected on the curved screen and image information. A frame buffer corresponding to a position, a projection device for irradiating an image corresponding to the image information stored in the frame buffer toward the wide-angle lens, and a contour line of a polygon constituting the three-dimensional object. Contour calculating means for approximating the shape of the contour of the polygon on the frame buffer with a curve; and the tertiary corresponding to the storage position of the frame buffer surrounded by the contour approximated by the contour calculating means. An image display device, comprising: image information storage means for storing image information of an original object.
【請求項2】 請求項1において、 前記ポリゴンに含まれていて隣接する2つの頂点を結ぶ
直線上あるいはその近傍に位置する前記仮想的な三次元
空間内の中間点の座標を算出する中間点算出手段と、 前記仮想的な三次元空間内における前記2つの頂点およ
び前記中間点のそれぞれに対応する前記フレームバッフ
ァの格納位置を計算する座標計算手段と、 をさらに備え、前記輪郭線算出手段は、前記2つの頂点
および前記中間点のそれぞれに対応する前記フレームバ
ッファ上の各点を通る曲線の形状を決定することを特徴
とする画像表示装置。
2. The intermediate point according to claim 1, wherein coordinates of an intermediate point in the virtual three-dimensional space located on or near a straight line connecting two adjacent vertices included in the polygon are calculated. Calculating means; and coordinate calculating means for calculating a storage position of the frame buffer corresponding to each of the two vertices and the intermediate point in the virtual three-dimensional space. And determining a shape of a curve passing through each point on the frame buffer corresponding to each of the two vertices and the intermediate point.
【請求項3】 請求項2において、 前記曲線の形状を決定するためにN個の点を指定する必
要がある場合に、前記中間点算出手段は、少なくとも
(N−2)個の前記中間点の座標を算出することを特徴
とする画像表示装置。
3. The intermediate point calculation unit according to claim 2, wherein when it is necessary to specify N points to determine the shape of the curve, the intermediate point calculating means includes at least (N−2) intermediate points. An image display device, which calculates coordinates of
【請求項4】 請求項2または3において、 前記曲線は円弧であり、前記中間点算出手段は、1個の
前記中間点の座標を算出することを特徴とする画像表示
装置。
4. The image display device according to claim 2, wherein the curve is an arc, and the intermediate point calculating means calculates coordinates of one intermediate point.
【請求項5】 請求項2〜4のいずれかにおいて、 前記中間点算出手段は、前記広角レンズの位置に対応す
る投影位置と前記2つの頂点のそれぞれとを結ぶ2つの
線分のなす角を、前記投影位置と前記中間点とを結ぶ線
分によって2等分するように前記中間点を設定すること
を特徴とする画像表示装置。
5. The intermediate point calculation unit according to claim 2, wherein the intermediate point calculation unit determines an angle formed by two line segments connecting the projection position corresponding to the position of the wide-angle lens and each of the two vertexes. An image display device, wherein the intermediate point is set so as to be bisected by a line connecting the projection position and the intermediate point.
【請求項6】 請求項2〜5のいずれかにおいて、 前記広角レンズは魚眼レンズであることを特徴とする画
像表示装置。
6. The image display device according to claim 2, wherein the wide-angle lens is a fisheye lens.
【請求項7】 請求項2〜6のいずれかにおいて、 前記座標計算手段は、前記三次元オブジェクトを所定の
視点位置から見た場合の前記曲面スクリーン上の位置に
対応させて、前記フレームバッファの格納位置を計算す
ることを特徴とする画像表示装置。
7. The frame buffer according to claim 2, wherein the coordinate calculation unit corresponds to a position on the curved screen when the three-dimensional object is viewed from a predetermined viewpoint position. An image display device for calculating a storage position.
【請求項8】 請求項7において、 前記座標計算手段は、前記三次元オブジェクトの前記仮
想的な三次元空間内の位置情報と、前記視点位置あるい
は前記広角レンズの位置に対応する投影位置の少なくと
も一方に基づいて前記フレームバッファの格納位置を計
算することを特徴とする画像表示装置。
8. The coordinate calculation unit according to claim 7, wherein the coordinate calculation unit determines at least one of position information of the three-dimensional object in the virtual three-dimensional space and a projection position corresponding to the viewpoint position or the position of the wide-angle lens. An image display device, wherein a storage position of the frame buffer is calculated based on one of them.
【請求項9】 請求項8において、 前記視点位置と前記投影位置を異ならせることを特徴と
する画像表示装置。
9. The image display device according to claim 8, wherein the viewpoint position is different from the projection position.
【請求項10】 請求項9において、 前記投影位置が前記曲面スクリーンの中心位置からずら
して設定されている場合に、 前記画像情報格納手段は、前記投影位置と前記曲面スク
リーン上に投影すべき位置との距離を考慮して、前記フ
レームバッファに格納する前記画像情報について明るさ
補正を行うことを特徴とする画像表示装置。
10. The image information storage unit according to claim 9, wherein, when the projection position is set so as to be shifted from a center position of the curved screen, the image information storage unit determines the projection position and a position to be projected on the curved screen. An image display device that performs brightness correction on the image information stored in the frame buffer in consideration of a distance from the image buffer.
【請求項11】 請求項1〜10のいずれかにおいて、 前記画像情報格納手段は、前記ポリゴンに対応するテク
スチャデータに含まれる画像情報を特定して前記フレー
ムバッファに格納するテクスチャマッピング処理を行っ
ており、前記フレームバッファ上の格納位置に対応する
テクスチャ座標を求めるために、この格納位置に対応す
る前記仮想的な三次元空間における前記ポリゴン内の座
標を求め、この座標に対応する前記テクスチャ座標を決
定することを特徴とする画像表示装置。
11. The image information storage unit according to claim 1, wherein the image information storage unit performs a texture mapping process of specifying image information included in texture data corresponding to the polygon and storing the image information in the frame buffer. And determining coordinates in the polygon in the virtual three-dimensional space corresponding to the storage position to obtain texture coordinates corresponding to the storage position on the frame buffer, and calculating the texture coordinates corresponding to the coordinates. An image display device characterized by determining.
【請求項12】 請求項1〜11のいずれかにおいて、 所定の間隔毎に前記仮想的な三次元空間内における前記
ポリゴンの頂点の座標を計算するオブジェクト計算手段
をさらに備え、 前記フレームバッファに対する前記画像情報の格納処理
を前記間隔で繰り返すことを特徴とする画像表示装置。
12. The apparatus according to claim 1, further comprising: an object calculation unit configured to calculate coordinates of vertices of the polygon in the virtual three-dimensional space at predetermined intervals. An image display device, wherein storage processing of image information is repeated at the interval.
【請求項13】 三次元オブジェクトを構成するポリゴ
ンに含まれる各頂点の仮想的な三次元空間内の位置情報
を取得する第1のステップと、 前記第1のステップにおいて取得した前記位置情報に基
づいて、前記ポリゴンの輪郭線に対応するフレームバッ
ファ上のポリゴンの輪郭線の形状を曲線で近似する第2
のステップと、 前記第2のステップにおいて近似された前記輪郭線で囲
まれた前記フレームバッファの格納位置に、対応する前
記三次元オブジェクトの画像情報を格納する第3のステ
ップと、 前記フレームバッファに格納された前記画像情報を読み
出して、広角レンズを通して曲面スクリーン上に投影す
る第4のステップと、 を有することを特徴とする画像表示方法。
13. A first step of acquiring position information in a virtual three-dimensional space of each vertex included in a polygon constituting a three-dimensional object, and based on the position information acquired in the first step. The shape of the outline of the polygon on the frame buffer corresponding to the outline of the polygon is approximated by a curve.
And a third step of storing image information of the corresponding three-dimensional object at a storage position of the frame buffer surrounded by the outline approximated in the second step; Reading out the stored image information and projecting the image information onto a curved screen through a wide-angle lens.
【請求項14】 請求項13において、 前記ポリゴンに含まれていて隣接する2つの頂点を結ぶ
直線上あるいはその近傍に位置する前記仮想的な三次元
空間内の中間点の座標を算出する第5のステップと、 前記仮想的な三次元空間内における前記2つの頂点およ
び前記中間点のそれぞれに対応する前記フレームバッフ
ァの格納位置を計算する第6のステップと、 を前記第2のステップの前に挿入し、 前記第2のステップにおいて、前記2つの頂点および前
記中間点のそれぞれに対応する前記フレームバッファ上
の各点を通る曲線の形状を決定することを特徴とする画
像表示方法。
14. The method according to claim 13, further comprising calculating coordinates of an intermediate point in the virtual three-dimensional space located on or near a straight line connecting two adjacent vertices included in the polygon. And calculating a storage position of the frame buffer corresponding to each of the two vertices and the intermediate point in the virtual three-dimensional space, before the second step An image display method, comprising: inserting, in the second step, determining a shape of a curve passing through each point on the frame buffer corresponding to each of the two vertices and the intermediate point.
【請求項15】 請求項14において、 前記第2のステップにおける近似処理に用いられる前記
曲線は円弧であり、1個の前記中間点の座標を用いてこ
の近似処理が行われることを特徴とする画像表示方法。
15. The method according to claim 14, wherein the curve used for the approximation process in the second step is a circular arc, and the approximation process is performed using the coordinates of one intermediate point. Image display method.
【請求項16】 請求項14または15において、 前記第6のステップにおいて、前記三次元オブジェクト
を所定の視点位置から見た場合の前記曲面スクリーン上
の位置に対応させて、前記フレームバッファの格納位置
を計算することを特徴とする画像表示方法。
16. The storage position in the frame buffer according to claim 14 or 15, wherein in the sixth step, the three-dimensional object corresponds to a position on the curved screen when viewed from a predetermined viewpoint position. An image display method characterized by calculating
【請求項17】 請求項16において、 前記第6のステップにおいて、前記三次元オブジェクト
の前記仮想的な三次元空間内の位置情報と、前記視点位
置あるいは前記広角レンズの位置に対応する投影位置の
少なくとも一方に基づいて前記フレームバッファの格納
位置を計算することを特徴とする画像表示方法。
17. The method according to claim 16, wherein, in the sixth step, positional information of the three-dimensional object in the virtual three-dimensional space and a projection position corresponding to the viewpoint position or the position of the wide-angle lens. An image display method, wherein a storage position of the frame buffer is calculated based on at least one.
【請求項18】 請求項17において、 前記投影位置が前記曲面スクリーンの中心位置からずら
して設定されている場合に、前記投影位置と前記曲面ス
クリーン上に投影すべき位置との距離を考慮して、前記
フレームバッファに格納する前記画像情報について明る
さ補正を行う第7のステップを、前記第4のステップの
前に挿入することを特徴とする画像表示方法。
18. The method according to claim 17, wherein, when the projection position is set to be shifted from a center position of the curved screen, a distance between the projection position and a position to be projected on the curved screen is considered. An image display method, wherein a seventh step of performing brightness correction on the image information stored in the frame buffer is inserted before the fourth step.
【請求項19】 請求項13〜18のいずれかにおい
て、 前記第4のステップにおいて、前記ポリゴンに対応する
テクスチャデータに含まれる前記画像情報を特定して前
記フレームバッファに格納するテクスチャマッピング処
理を行っており、前記フレームバッファ上の格納位置に
対応するテクスチャ座標を求めるために、この格納位置
に対応する前記仮想的な三次元空間における前記ポリゴ
ン内の座標を求め、この座標に対応する前記テクスチャ
座標を決定することを特徴とする画像表示方法。
19. The texture mapping process according to claim 13, wherein in the fourth step, the image information included in the texture data corresponding to the polygon is specified and stored in the frame buffer. Determining coordinates in the polygon in the virtual three-dimensional space corresponding to the storage position to determine texture coordinates corresponding to the storage position on the frame buffer; and determining the texture coordinates corresponding to the coordinates. And an image display method.
【請求項20】 三次元オブジェクトを構成するポリゴ
ンに含まれる各頂点の仮想的な三次元空間内の位置情報
を取得する第1のステップと、 前記第1のステップにおいて取得した前記位置情報に基
づいて、前記ポリゴンの輪郭線に対応するフレームバッ
ファ上のポリゴンの輪郭線の形状を曲線で近似する第2
のステップと、 前記第2のステップにおいて近似された前記輪郭線で囲
まれた前記フレームバッファの格納位置に、対応する前
記三次元オブジェクトの画像情報を格納する第3のステ
ップと、 前記フレームバッファに格納された前記画像情報を読み
出して、広角レンズを通して曲面スクリーン上に投影す
る第4のステップと、 を実行するプログラムを含むことを特徴とする情報記憶
媒体。
20. A first step of obtaining position information in a virtual three-dimensional space of each vertex included in a polygon constituting a three-dimensional object, and based on the position information obtained in the first step. The shape of the outline of the polygon on the frame buffer corresponding to the outline of the polygon is approximated by a curve.
And a third step of storing image information of the corresponding three-dimensional object at a storage position of the frame buffer surrounded by the outline approximated in the second step; A fourth step of reading the stored image information and projecting the image information on a curved screen through a wide-angle lens.
【請求項21】 請求項20において、 前記ポリゴンに含まれていて隣接する2つの頂点を結ぶ
直線上あるいはその近傍に位置する前記仮想的な三次元
空間内の中間点の座標を算出する第5のステップと、 前記仮想的な三次元空間内における前記2つの頂点およ
び前記中間点のそれぞれに対応する前記フレームバッフ
ァの格納位置を計算する第6のステップと、 を前記第2のステップの前に挿入して実行するプログラ
ムを含んでおり、 前記第2のステップにおいて、前記2つの頂点および前
記中間点のそれぞれに対応する前記フレームバッファ上
の各点を通る前記曲線の形状を決定することを特徴とす
る情報記憶媒体。
21. The method according to claim 20, wherein a coordinate of an intermediate point in the virtual three-dimensional space located on or near a straight line connecting two adjacent vertices included in the polygon is calculated. And calculating a storage position of the frame buffer corresponding to each of the two vertices and the intermediate point in the virtual three-dimensional space, before the second step A program to be inserted and executed, wherein in the second step, the shape of the curve passing through each point on the frame buffer corresponding to each of the two vertices and the intermediate point is determined. Information storage medium.
【請求項22】 請求項21において、 前記第2のステップにおける近似処理に用いられる前記
曲線は円弧であり、1個の前記中間点の座標を用いてこ
の近似処理が行われることを特徴とする情報記憶媒体。
22. The method according to claim 21, wherein the curve used in the approximation process in the second step is a circular arc, and the approximation process is performed using the coordinates of one intermediate point. Information storage medium.
【請求項23】 請求項21または22において、 前記第6のステップにおいて、前記三次元オブジェクト
を所定の視点位置から見た場合の前記曲面スクリーン上
の位置に対応させて、前記フレームバッファの格納位置
を計算することを特徴とする情報記憶媒体。
23. The storage position of the frame buffer according to claim 21, wherein in the sixth step, the three-dimensional object is stored in the frame buffer in a manner corresponding to a position on the curved screen when viewed from a predetermined viewpoint position. An information storage medium characterized by calculating
【請求項24】 請求項23において、 前記第6のステップにおいて、前記三次元オブジェクト
の前記仮想的な三次元空間内の位置情報と、前記視点位
置あるいは前記広角レンズの位置に対応する投影位置の
少なくとも一方に基づいて前記フレームバッファの格納
位置を計算することを特徴とする情報記憶媒体。
24. The method according to claim 23, wherein, in the sixth step, position information of the three-dimensional object in the virtual three-dimensional space and a projection position corresponding to the viewpoint position or the position of the wide-angle lens. An information storage medium, wherein a storage position of the frame buffer is calculated based on at least one.
【請求項25】 請求項24において、 前記投影位置が前記曲面スクリーンの中心位置からずら
して設定されている場合に、前記投影位置と前記曲面ス
クリーン上に投影すべき位置との距離を考慮して、前記
フレームバッファに格納する前記画像情報について明る
さ補正を行う第7のステップを、前記第4のステップの
前に挿入して実行するプログラムを含むことを特徴とす
る情報記憶媒体。
25. The apparatus according to claim 24, wherein when the projection position is set to be shifted from a center position of the curved screen, a distance between the projection position and a position to be projected on the curved screen is considered. An information storage medium including a program for inserting and executing a seventh step of performing brightness correction on the image information stored in the frame buffer before the fourth step.
【請求項26】 請求項20〜25のいずれかにおい
て、 前記第4のステップにおいて、前記ポリゴンに対応する
テクスチャデータに含まれる画像情報を特定して前記フ
レームバッファに格納するテクスチャマッピング処理を
行っており、前記フレームバッファ上の格納位置に対応
するテクスチャ座標を求めるために、この格納位置に対
応する前記仮想的な三次元空間における前記ポリゴン内
の座標を求め、この座標に対応する前記テクスチャ座標
を決定することを特徴とする情報記憶媒体。
26. The method according to claim 20, wherein in the fourth step, a texture mapping process of specifying image information included in texture data corresponding to the polygon and storing the image information in the frame buffer is performed. And determining coordinates in the polygon in the virtual three-dimensional space corresponding to the storage position to obtain texture coordinates corresponding to the storage position on the frame buffer, and calculating the texture coordinates corresponding to the coordinates. An information storage medium characterized by being determined.
【請求項27】 仮想的な三次元空間に配置された三次
元オブジェクトの画像を広角レンズを通して曲面スクリ
ーンに投影するためにコンピュータに、 前記三次元オブジェクトを構成するポリゴンに含まれる
各頂点の前記仮想的な三次元空間内の位置情報を取得す
る第1のステップと、 前記第1のステップにおいて取得した前記位置情報に基
づいて、前記ポリゴンの輪郭線に対応するフレームバッ
ファ上のポリゴンの輪郭線の形状を曲線で近似する第2
のステップと、 前記第2のステップにおいて近似された前記輪郭線で囲
まれた前記フレームバッファの格納位置に、対応する前
記三次元オブジェクトの画像情報を格納する第3のステ
ップと、 前記フレームバッファに格納された前記画像情報を読み
出して、前記広角レンズを通して曲面スクリーン上に投
影する第4のステップと、 を実行させるための画像表示プログラム。
27. A computer for projecting an image of a three-dimensional object placed in a virtual three-dimensional space onto a curved screen through a wide-angle lens, the computer comprising: A first step of acquiring position information in a general three-dimensional space, and, based on the position information acquired in the first step, a contour of a polygon on a frame buffer corresponding to the contour of the polygon. The second approximating the shape with a curve
And a third step of storing image information of the corresponding three-dimensional object at a storage position of the frame buffer surrounded by the outline approximated in the second step; A fourth step of reading out the stored image information and projecting the image information on a curved screen through the wide-angle lens.
【請求項28】 請求項27において、 前記ポリゴンに含まれていて隣接する2つの頂点を結ぶ
直線上あるいはその近傍に位置する前記仮想的な三次元
空間内の中間点の座標を算出する第5のステップと、 前記仮想的な三次元空間内における前記2つの頂点およ
び前記中間点のそれぞれに対応する前記フレームバッフ
ァの格納位置を計算する第6のステップと、 を前記第2のステップの前に実行させるとともに、 前記第2のステップにおいて、前記2つの頂点および前
記中間点のそれぞれに対応する前記フレームバッファ上
の前記各点を通る曲線の形状を決定させるための画像表
示プログラム。
28. The method according to claim 27, further comprising calculating coordinates of an intermediate point in the virtual three-dimensional space located on or near a straight line connecting two adjacent vertices included in the polygon. And calculating a storage position of the frame buffer corresponding to each of the two vertices and the intermediate point in the virtual three-dimensional space, before the second step And an image display program for executing, in the second step, determining a shape of a curve passing through each point on the frame buffer corresponding to each of the two vertices and the intermediate point.
【請求項29】 請求項28において、 前記第2のステップにおける近似処理に用いられる前記
曲線は円弧であり、1個の前記中間点の座標を用いてこ
の近似処理を行わせるための画像表示プログラム。
29. The image display program according to claim 28, wherein the curve used for the approximation process in the second step is a circular arc, and the approximation process is performed using the coordinates of one intermediate point. .
【請求項30】 請求項28または29において、 前記第6のステップにおいて、前記三次元オブジェクト
を所定の視点位置から見た場合の前記曲面スクリーン上
の位置に対応させて、前記フレームバッファの格納位置
を計算させるための画像表示プログラム。
30. The storage position of the frame buffer according to claim 28 or 29, wherein in the sixth step, the three-dimensional object is stored on the curved screen in a manner corresponding to a position on the curved screen when viewed from a predetermined viewpoint position. Image display program for calculating
【請求項31】 請求項30において、 前記第6のステップにおいて、前記三次元オブジェクト
の前記仮想的な三次元空間内の位置情報と、前記視点位
置あるいは前記広角レンズの位置に対応する投影位置の
少なくとも一方に基づいて前記フレームバッファの格納
位置を計算させるための画像表示プログラム。
31. The method according to claim 30, wherein, in the sixth step, position information of the three-dimensional object in the virtual three-dimensional space and a projection position corresponding to the viewpoint position or the position of the wide-angle lens. An image display program for causing a storage position of the frame buffer to be calculated based on at least one.
【請求項32】 請求項31において、 前記投影位置が前記曲面スクリーンの中心位置からずら
して設定されている場合に、前記投影位置と前記曲面ス
クリーン上に投影すべき位置との距離を考慮して、前記
フレームバッファに格納する前記画像情報について明る
さ補正を行う第7のステップを、前記第4のステップの
前に実行させるための画像表示プログラム。
32. The method according to claim 31, wherein when the projection position is set so as to be shifted from a center position of the curved screen, a distance between the projection position and a position to be projected on the curved screen is considered. An image display program for causing a seventh step of performing brightness correction on the image information stored in the frame buffer to be executed before the fourth step.
【請求項33】 請求項27〜32のいずれかにおい
て、 前記第4のステップにおいて、前記ポリゴンに対応する
テクスチャデータに含まれる画像情報を特定して前記フ
レームバッファに格納するテクスチャマッピング処理を
行っており、前記フレームバッファ上の格納位置に対応
するテクスチャ座標を求めるために、この格納位置に対
応する前記仮想的な三次元空間における前記ポリゴン内
の座標を求め、この座標に対応する前記テクスチャ座標
を決定させるための画像表示プログラム。
33. A texture mapping process according to claim 27, wherein in the fourth step, image information included in texture data corresponding to the polygon is specified and stored in the frame buffer. And determining coordinates in the polygon in the virtual three-dimensional space corresponding to the storage position to obtain texture coordinates corresponding to the storage position on the frame buffer, and calculating the texture coordinates corresponding to the coordinates. An image display program for making a decision.
JP2001219501A 2000-12-07 2001-07-19 Image display device, image display method, information storage medium, and image display program Expired - Fee Related JP4726347B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001219501A JP4726347B2 (en) 2000-12-07 2001-07-19 Image display device, image display method, information storage medium, and image display program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2000-372722 2000-12-07
JP2000372722 2000-12-07
JP2000372722 2000-12-07
JP2001219501A JP4726347B2 (en) 2000-12-07 2001-07-19 Image display device, image display method, information storage medium, and image display program

Publications (2)

Publication Number Publication Date
JP2002236935A true JP2002236935A (en) 2002-08-23
JP4726347B2 JP4726347B2 (en) 2011-07-20

Family

ID=26605413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001219501A Expired - Fee Related JP4726347B2 (en) 2000-12-07 2001-07-19 Image display device, image display method, information storage medium, and image display program

Country Status (1)

Country Link
JP (1) JP4726347B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006030225A (en) * 2004-07-12 2006-02-02 Nishiyama Stainless Chem Kk Computer device having curved surface display section
CN103336678A (en) * 2013-07-17 2013-10-02 天脉聚源(北京)传媒科技有限公司 Resource displaying method and device as well as terminal

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0382493A (en) * 1989-08-28 1991-04-08 Sega Enterp Ltd Video game machine
JPH0611687A (en) * 1992-06-26 1994-01-21 Fujitsu General Ltd Screen brightness correction circuit for projection type display device
JPH06282659A (en) * 1993-03-25 1994-10-07 Daikin Ind Ltd Method and device for polygon projection on semisphere, polygon projection area calculation, and form factor calculation
JPH0759945A (en) * 1993-08-23 1995-03-07 Sega Enterp Ltd Electronic game device having dome screen
JPH07282294A (en) * 1994-02-18 1995-10-27 Matsushita Electric Ind Co Ltd Image composition device
JPH0981785A (en) * 1995-09-13 1997-03-28 Toshiba Corp Image projection device and equipment controller
JPH11149566A (en) * 1997-11-17 1999-06-02 Hitachi Ltd Three-dimensional cg plotting device for curved surface display
JP2000182075A (en) * 1998-12-16 2000-06-30 Konami Co Ltd Simple fluid picture display method, picture display device and recording medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5546139A (en) * 1993-06-28 1996-08-13 Bacs, Jr.; Aron Moving imagery projection system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0382493A (en) * 1989-08-28 1991-04-08 Sega Enterp Ltd Video game machine
JPH0611687A (en) * 1992-06-26 1994-01-21 Fujitsu General Ltd Screen brightness correction circuit for projection type display device
JPH06282659A (en) * 1993-03-25 1994-10-07 Daikin Ind Ltd Method and device for polygon projection on semisphere, polygon projection area calculation, and form factor calculation
JPH0759945A (en) * 1993-08-23 1995-03-07 Sega Enterp Ltd Electronic game device having dome screen
JPH07282294A (en) * 1994-02-18 1995-10-27 Matsushita Electric Ind Co Ltd Image composition device
JPH0981785A (en) * 1995-09-13 1997-03-28 Toshiba Corp Image projection device and equipment controller
JPH11149566A (en) * 1997-11-17 1999-06-02 Hitachi Ltd Three-dimensional cg plotting device for curved surface display
JP2000182075A (en) * 1998-12-16 2000-06-30 Konami Co Ltd Simple fluid picture display method, picture display device and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006030225A (en) * 2004-07-12 2006-02-02 Nishiyama Stainless Chem Kk Computer device having curved surface display section
CN103336678A (en) * 2013-07-17 2013-10-02 天脉聚源(北京)传媒科技有限公司 Resource displaying method and device as well as terminal
CN103336678B (en) * 2013-07-17 2015-11-25 天脉聚源(北京)传媒科技有限公司 A kind of resource exhibition method, device and terminal

Also Published As

Publication number Publication date
JP4726347B2 (en) 2011-07-20

Similar Documents

Publication Publication Date Title
JP2003085586A (en) Image display, image displaying method, information storage medium, and image displaying program
JP3037455B2 (en) Display device and display method
US20040247173A1 (en) Non-flat image processing apparatus, image processing method, recording medium, and computer program
JP3588351B2 (en) System and method for creating real-time shadows of transparent objects
US6515658B1 (en) 3D shape generation apparatus
JPH11149567A (en) Picture processor and method therefor
JPH0771936A (en) Device and method for processing image
JP2013211672A (en) Curved surface projection stereoscopic vision device
JP3661167B2 (en) Apparatus and method for performing refraction mapping
JP2003009039A (en) Image display device, image display method, information storage medium, and image display program
JP4282587B2 (en) Texture mapping device
JP4304946B2 (en) Image display device
JP2002133438A (en) Three-dimensional graphic plotting device, three- dimensional graphic plotting method, and recording medium capable of reading with three-dimensional polygon data recorded computer
US10074195B2 (en) Methods and apparatuses of lens flare rendering using linear paraxial approximation, and methods and apparatuses of lens flare rendering based on blending
KR100489572B1 (en) Image processing method
JP2002236935A (en) Image display device, image display method, information storage medium and image display program
JP2007272847A (en) Lighting simulation method and image composition method
JP4726336B2 (en) Image display device, image display method, information storage medium, and image display program
JP4303395B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4592917B2 (en) Image generating apparatus and game apparatus
JP2007512603A (en) Image drawing
KR20190065503A (en) Method and apparatus of playing VR contents on display devices
KR100848687B1 (en) 3-dimension graphic processing apparatus and operating method thereof
JP4006243B2 (en) Image generation information, game information, information storage medium, image generation device, and game device
JP2003030677A (en) Image display device, image display method, information storage medium and image display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110412

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110412

R150 Certificate of patent or registration of utility model

Ref document number: 4726347

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees