JP3269813B2 - Image generation system and information storage medium - Google Patents

Image generation system and information storage medium

Info

Publication number
JP3269813B2
JP3269813B2 JP34514199A JP34514199A JP3269813B2 JP 3269813 B2 JP3269813 B2 JP 3269813B2 JP 34514199 A JP34514199 A JP 34514199A JP 34514199 A JP34514199 A JP 34514199A JP 3269813 B2 JP3269813 B2 JP 3269813B2
Authority
JP
Japan
Prior art keywords
texture
course
environment
information
mapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP34514199A
Other languages
Japanese (ja)
Other versions
JP2001160151A (en
Inventor
健司 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP34514199A priority Critical patent/JP3269813B2/en
Publication of JP2001160151A publication Critical patent/JP2001160151A/en
Application granted granted Critical
Publication of JP3269813B2 publication Critical patent/JP3269813B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像生成システム
及び情報記憶媒体に関する。
[0001] The present invention relates to an image generation system and an information storage medium.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】従来よ
り、仮想的な3次元空間であるオブジェクト空間内の所
与の視点から見える画像を生成する画像生成システムが
知られており、いわゆる仮想現実を体験できるものとし
て人気が高い。レーシングゲームを楽しむことができる
画像生成システムを例にとれば、プレーヤは、レーシン
グカー(オブジェクト)を操作してオブジェクト空間内
で走行させ、他のプレーヤやコンピュータが操作するレ
ーシングカーと競争することで3次元ゲームを楽しむ。
2. Description of the Related Art Conventionally, there has been known an image generation system for generating an image which can be viewed from a given viewpoint in an object space which is a virtual three-dimensional space. It is popular as an experience. Taking an image generation system that can enjoy a racing game as an example, a player operates a racing car (object) to run in an object space and competes with a racing car operated by another player or a computer. Enjoy a 3D game.

【0003】このような画像生成システムでは、プレー
ヤの仮想現実感の向上のために、よりリアルな画像を生
成することが重要な技術的課題になっている。そして、
このような課題を解決する1つの手法として、環境マッ
ピングと呼ばれるものが知られている。
In such an image generation system, generating a more realistic image is an important technical problem in order to improve the virtual reality of the player. And
As one technique for solving such a problem, a technique called environment mapping is known.

【0004】このような環境マッピングを実現する手法
としては例えば以下の第1、第2の手法が考えられる。
For example, the following first and second methods are conceivable as methods for realizing such environment mapping.

【0005】第1の手法では、オブジェクトから見える
環境の画像を仮想球にリアルタイムに描画し、次に、反
射ベクトルの方向にある仮想球の画像をオブジェクトに
マッピングすることで環境マッピングを実現する。
[0005] In the first method, environment mapping is realized by drawing an image of an environment visible from an object on a virtual sphere in real time, and then mapping an image of the virtual sphere in the direction of the reflection vector to the object.

【0006】しかしながら、この第1の手法は、非常に
リアルな画像を生成できるという利点を有する反面、処
理負荷が非常に重くなるという不利点を有する。
However, the first method has an advantage that a very realistic image can be generated, but has a disadvantage that a processing load becomes very heavy.

【0007】また第2の手法では、オブジェクトから仮
想カメラの方を見た時の環境を擬似的に表す環境テクス
チャを予め用意しておき、この擬似的な環境テクスチャ
を仮想カメラの方向(仮想カメラからオブジェクトの方
へと向かう方向)から単にマッピングする。
In the second method, an environment texture that simulates the environment when the virtual camera is viewed from the object is prepared in advance, and the simulated environment texture is set in the direction of the virtual camera (virtual camera). From the direction toward the object).

【0008】しかしながら、この第2の手法は、第1の
手法よりも処理負荷が軽くなるとい利点を有する反面、
オブジェクトに映り込んだ環境が流れて行く様子の表現
を実現できず、得られる画像が単調になってしまうとい
う不利点を有する。
However, the second method has an advantage that the processing load is lighter than that of the first method,
There is a disadvantage in that it is not possible to realize a representation of a state in which the environment reflected in the object flows, and the obtained image becomes monotonous.

【0009】本発明は、以上のような課題に鑑みてなさ
れたものであり、その目的とするところは、少ない処理
負担でリアルな環境マッピングを実現できる画像生成シ
ステム及び情報記憶媒体を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to provide an image generation system and an information storage medium capable of realizing real environment mapping with a small processing load. It is in.

【0010】[0010]

【課題を解決するための手段】上記課題を解決するため
に、本発明は、画像を生成するための画像生成システム
であって、テクスチャパターンが定義されるテクスチャ
空間において環境マッピングの原像領域を移動又は回転
させながら、環境テクスチャをオブジェクトにマッピン
グする手段と、オブジェクト空間において仮想カメラか
ら見える画像を描画する手段とを含むことを特徴とす
る。また本発明に係る情報記憶媒体は、コンピュータに
より使用可能な情報記憶媒体であって、上記手段を実行
するためのプログラムを含むことを特徴とする。また本
発明に係るプログラムは、コンピュータにより使用可能
なプログラム(搬送波に具現化されるプログラムを含
む)であって、上記手段を実行するための処理ルーチン
を含むことを特徴とする。
In order to solve the above-mentioned problems, the present invention provides an image generating system for generating an image, wherein an original image area for environment mapping is defined in a texture space in which a texture pattern is defined. It is characterized by including means for mapping the environment texture to the object while moving or rotating, and means for drawing an image viewed from the virtual camera in the object space. Further, an information storage medium according to the present invention is an information storage medium that can be used by a computer, and includes a program for executing the above means. Further, the program according to the present invention is a program usable by a computer (including a program embodied in a carrier wave), and includes a processing routine for executing the above means.

【0011】本発明によれば、原像領域が移動又は回転
しながら環境テクスチャがオブジェクトにマッピングさ
れる。これにより、オブジェクトに映り込んだ環境が流
れて行く様子の表現(環境の流れ表現)を実現できる。
従って、仮想カメラの方向から環境テクスチャを単にマ
ッピングする手法では得ることができないリアルな環境
マッピングを、テクスチャ空間で原像領域を移動又は回
転させるだけという少ない処理負担で実現できるように
なる。
According to the present invention, the environment texture is mapped to the object while the original image area moves or rotates. As a result, it is possible to realize the expression of the environment reflected in the object flowing (environment flow expression).
Therefore, a real environment mapping that cannot be obtained by a method of simply mapping the environment texture from the direction of the virtual camera can be realized with a small processing load of moving or rotating the original image area in the texture space.

【0012】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、オブジェクトが移動するコ
ースに設定されたコース情報に基づいて、環境マッピン
グの原像領域を移動又は回転させることを特徴とする。
このようにすれば、他の用途に使用されるコース情報を
有効利用して、原像領域を移動又は回転させることがで
きるようになる。
Further, the image generation system, the information storage medium and the program according to the present invention are characterized in that an original image area of environment mapping is moved or rotated based on course information set for a course in which an object moves. .
In this way, the original image area can be moved or rotated by effectively using the course information used for other purposes.

【0013】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記コース情報がコースの
道のり距離情報を含み、前記道のり距離情報に基づい
て、環境マッピングの原像領域を第1の方向に沿って移
動させることを特徴とする。このようにすれば、例え
ば、コース上でオブジェクトが速く移動すれば、テクス
チャ空間において原像領域が速く移動するようになり、
オブジェクトへの映り込み画像も速く流れるようにな
る。従って、コース上で移動するオブジェクトに最適な
環境マッピングを実現できる。
In the image generation system, the information storage medium, and the program according to the present invention, the course information includes course distance information, and the original image area of the environment mapping is set in the first direction based on the course distance information. Characterized by moving along. In this way, for example, if the object moves fast on the course, the original image area moves fast in the texture space,
The image reflected on the object also flows quickly. Therefore, it is possible to realize an optimal environment mapping for an object moving on a course.

【0014】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記コース情報がコース幅
情報を含み、前記コース幅情報に基づいて、環境マッピ
ングの原像領域を前記第1の方向とは異なる第2の方向
に沿って移動させることを特徴とする。このようにすれ
ば、オブジェクトがコース上でコース幅方向に移動する
と、それに応じて、オブジェクトへの映り込み画像も変
化するようになる。従って、あたかも、コースに沿って
配置された表示物がオブジェクトに映り込み、その映り
込み画像が、コース幅方向でのオブジェクトの移動に伴
い変化しているかのように見せることができる。
Further, in the image generation system, the information storage medium and the program according to the present invention, the course information includes course width information, and the original image area of the environment mapping is set to the first direction based on the course width information. Is moved along a different second direction. In this way, when the object moves on the course in the course width direction, the image reflected on the object changes accordingly. Therefore, it is possible to make it appear as if a display object arranged along the course is reflected on the object, and the reflected image is changing as the object moves in the course width direction.

【0015】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、オブジェクトが移動するコ
ースに設定されたコース情報がコース方向情報を含み、
前記コース方向情報に基づいて、オブジェクトにマッピ
ングされる環境テクスチャ自体を回転させることを特徴
とする。このようにすれば、例えば、オブジェクトがコ
ースのコーナーを移動した場合に、そのコーナーのカー
ブに沿って環境テクスチャも回転するようになる。これ
により、リアルで矛盾の無い画像表現を実現できる。
In the image generation system, the information storage medium and the program according to the present invention, the course information set for the course in which the object moves includes course direction information,
The environment texture mapped to the object is rotated based on the course direction information. In this way, for example, when the object moves at a corner of the course, the environment texture also rotates along the curve at that corner. As a result, a real and consistent image expression can be realized.

【0016】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、ワールド座標系でのオブジ
ェクトの位置情報又は回転角度情報に基づいて、環境マ
ッピングの原像領域を移動又は回転させることを特徴と
する。このようにすれば、オブジェクトの位置情報や回
転角度(方向)情報に応じた適切な環境テクスチャをオ
ブジェクトにマッピングできるようになる。
Further, the image generation system, the information storage medium and the program according to the present invention move or rotate the original image area of the environment mapping based on the position information or the rotation angle information of the object in the world coordinate system. And In this way, it is possible to map an appropriate environment texture according to the position information and the rotation angle (direction) information of the object to the object.

【0017】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、テクスチャ空間の環境テク
スチャに変形処理が施され、変形処理後の環境テクスチ
ャがオブジェクトにマッピングされることを特徴とす
る。このようにすれば、種々の画像効果を有する環境テ
クスチャをオブジェクトにマッピングできるようにな
る。
Further, the image generation system, the information storage medium and the program according to the present invention are characterized in that an environment texture in a texture space is subjected to a deformation process, and the environment texture after the deformation process is mapped to an object. In this way, it is possible to map environmental textures having various image effects to objects.

【0018】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、テクスチャ空間の環境テク
スチャが極座標変換され、極座標変換後の環境テクスチ
ャがオブジェクトにマッピングされることを特徴とす
る。このようにすれば、環境テクスチャの流れる速度
や、流れる方向にパース効果を与えることができるよう
になる。
The image generation system, the information storage medium, and the program according to the present invention are characterized in that an environmental texture in a texture space is subjected to polar coordinate conversion, and the environmental texture after the polar coordinate conversion is mapped to an object. In this way, a perspective effect can be given to the flow speed and the flow direction of the environmental texture.

【0019】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、テクスチャ空間の環境テク
スチャを仮想オブジェクトにマッピングすることで得ら
れる画像が、変形処理後の環境テクスチャとしてテクス
チャ空間に描画され、テクスチャ空間に描画された変形
処理後の環境テクスチャがオブジェクトにマッピングさ
れることを特徴とする。本発明によれば、まず、テクス
チャ空間の環境テクスチャが2次元又は3次元の仮想オ
ブジェクトにマッピングされる。そして、このマッピン
グにより得られる画像が、テクスチャ空間に描画され、
変形処理後の環境テクスチャとして使用され、オブジェ
クトにマッピングされる。このようにすることで、環境
テクスチャの変形処理を少ない処理負担で実現でき、様
々な画像効果を奏する環境テクスチャをリアルタイムに
生成できるようになる。
The image generation system, the information storage medium, and the program according to the present invention are arranged such that an image obtained by mapping an environment texture in a texture space to a virtual object is drawn in a texture space as an environment texture after a deformation process. The environment texture after the transformation process drawn in the texture space is mapped to the object. According to the present invention, first, the environment texture in the texture space is mapped to a two-dimensional or three-dimensional virtual object. Then, the image obtained by this mapping is drawn in the texture space,
It is used as the environment texture after the deformation processing and is mapped to the object. By doing so, it is possible to realize the deformation processing of the environment texture with a small processing load, and it is possible to generate the environment texture having various image effects in real time.

【0020】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、環境マッピングの原像領域
が矩形であり、前記仮想オブジェクトが、複数のポリゴ
ンで構成されると共に該複数のポリゴンの頂点が集まっ
た極を有する場合に、前記矩形の隣り合う2つの頂点が
前記極に配置されるように、テクスチャ空間の環境テク
スチャが仮想オブジェクトにマッピングされることを特
徴とする。このようにすれば、極座標変換による環境テ
クスチャの変形処理を、簡易な処理で実現できるように
なる。
Further, in the image generation system, the information storage medium and the program according to the present invention, the original image area of the environment mapping is rectangular, the virtual object is composed of a plurality of polygons, and the vertices of the plurality of polygons are When having the gathered poles, the environment texture in the texture space is mapped to the virtual object such that two adjacent vertices of the rectangle are arranged at the poles. In this way, the environmental texture deformation processing by the polar coordinate conversion can be realized by simple processing.

【0021】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、テクスチャ空間において原
像領域が固定される環境テクスチャと、テクスチャ空間
において原像領域が移動又は回転する環境テクスチャと
が、オブジェクトにマッピングされることを特徴とす
る。このようにすれば、流れない環境テクスチャと流れ
る環境テクスチャとが合成された環境テクスチャを作り
出すことができるようになる。なお、原像領域が固定さ
れる環境テクスチャとしては遠景の環境テクスチャが望
ましく、原像領域が移動又は回転する環境テクスチャと
しては近景の環境テクスチャが望ましい。
Further, the image generation system, the information storage medium and the program according to the present invention are characterized in that the environment texture in which the original image area is fixed in the texture space and the environment texture in which the original image area moves or rotates in the texture space are the object texture. It is characterized by being mapped to. In this way, it is possible to create an environment texture in which an environment texture that does not flow and an environment texture that flows are synthesized. It should be noted that a distant view environment texture is desirable as the environment texture in which the original image area is fixed, and a near view environment texture is desirable as the environment texture in which the original image area moves or rotates.

【0022】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記環境テクスチャが、オ
ブジェクトから見て上方向に見えるべき環境を表すテク
スチャであり、該環境テクスチャが、仮想カメラの位置
又は回転角度に依らずにオブジェクトの上方向からオブ
ジェクトにマッピングされることを特徴とする。このよ
うにすれば、仮想カメラの位置や回転角度の変化の影響
が、環境マッピングに及ぶのを防止できる。このため、
仮想カメラの注視場所に常に光源が映り込むなどの不具
合の発生を防止でき、光源の映り込みについても正確に
表現できる環境マッピングを実現できる。
Further, in the image generation system, the information storage medium and the program according to the present invention, the environment texture is a texture representing an environment to be seen upward from an object, and the environment texture is a position of a virtual camera or It is characterized in that the object is mapped onto the object from above without depending on the rotation angle. In this way, it is possible to prevent the influence of the change in the position or rotation angle of the virtual camera from affecting the environment mapping. For this reason,
It is possible to prevent the occurrence of a problem such as a light source being always reflected at the gaze point of the virtual camera, and to realize an environment mapping that can accurately represent the reflected light source.

【0023】また本発明は、画像を生成するための画像
生成システムであって、第1のテクスチャを仮想オブジ
ェクトにマッピングし、第1のテクスチャを変形する手
段と、前記第1のテクスチャを仮想オブジェクトにマッ
ピングすることで得られる画像を、第2のテクスチャと
してテクスチャ空間に描画する手段と、テクスチャ空間
に描画された前記第2のテクスチャをオブジェクトにマ
ッピングする手段とを含むことを特徴とする。また本発
明に係る情報記憶媒体は、コンピュータにより使用可能
な情報記憶媒体であって、上記手段を実行するためのプ
ログラムを含むことを特徴とする。また本発明に係るプ
ログラムは、コンピュータにより使用可能なプログラム
(搬送波に具現化されるプログラムを含む)であって、
上記手段を実行するための処理ルーチンを含むことを特
徴とする。
Also, the present invention is an image generating system for generating an image, comprising: means for mapping a first texture to a virtual object and deforming the first texture; A means for drawing an image obtained by mapping to the texture space as a second texture, and a means for mapping the second texture drawn in the texture space to an object. Further, an information storage medium according to the present invention is an information storage medium that can be used by a computer, and includes a program for executing the above means. The program according to the present invention is a program usable by a computer (including a program embodied in a carrier wave),
It is characterized by including a processing routine for executing the above means.

【0024】本発明によれば、まず、テクスチャ空間の
テクスチャが2次元又は3次元の仮想オブジェクトにマ
ッピングされる。そして、このマッピングにより得られ
る画像が、テクスチャ空間に描画され、変形処理後のテ
クスチャとして使用され、オブジェクトにマッピングさ
れる。このようにすることで、テクスチャの変形処理を
少ない処理負担で実現でき、様々な画像効果を奏するテ
クスチャをリアルタイムに生成できるようになる。
According to the present invention, first, textures in the texture space are mapped to two-dimensional or three-dimensional virtual objects. Then, an image obtained by this mapping is drawn in a texture space, used as a texture after the deformation processing, and mapped to an object. By doing so, the texture deformation processing can be realized with a small processing load, and textures having various image effects can be generated in real time.

【0025】また本発明は、画像を生成するための画像
生成システムであって、環境テクスチャをオブジェクト
にマッピングする手段と、オブジェクトにマッピングさ
れる環境テクスチャを切り替える手段と、オブジェクト
にマッピングされる環境テクスチャが第1の環境テクス
チャから第2の環境テクスチャに切り替わる場合に、第
1の環境テクスチャのフェイドアウト処理を行うと共に
第2の環境テクスチャのフェイドイン処理を行う手段
と、オブジェクト空間において仮想カメラから見える画
像を描画する手段とを含むことを特徴とする。また本発
明に係る情報記憶媒体は、コンピュータにより使用可能
な情報記憶媒体であって、上記手段を実行するためのプ
ログラムを含むことを特徴とする。また本発明に係るプ
ログラムは、コンピュータにより使用可能なプログラム
(搬送波に具現化されるプログラムを含む)であって、
上記手段を実行するための処理ルーチンを含むことを特
徴とする。
Further, the present invention is an image generating system for generating an image, which includes means for mapping an environmental texture to an object, means for switching an environmental texture mapped to an object, and an environmental texture mapped to an object. Means for performing a fade-out process of the first environment texture and performing a fade-in process of the second environment texture when the image is switched from the first environment texture to the second environment texture, and an image viewed from the virtual camera in the object space. And a means for drawing. Further, an information storage medium according to the present invention is an information storage medium that can be used by a computer, and includes a program for executing the above means. The program according to the present invention is a program usable by a computer (including a program embodied in a carrier wave),
It is characterized by including a processing routine for executing the above means.

【0026】本発明によれば、環境テクスチャが切り替
わる場合に、第1の環境テクスチャのフェイドアウト処
理が行われ、第1の環境テクスチャによるオブジェクト
への画像の映り込みが、徐々に消えるようになる。ま
た、第2の環境テクスチャのフェイドイン処理が行わ
れ、第2の環境テクスチャによるオブジェクトへの画像
の映り込みが、徐々に表示されるようになる。これによ
り、環境テクスチャの切り替わりが目立たなくなり、よ
り自然でリアルな画像表現を実現できる。
According to the present invention, when the environmental texture is switched, the fade-out processing of the first environmental texture is performed, and the reflection of the image on the object by the first environmental texture gradually disappears. Further, the fade-in process of the second environment texture is performed, and the reflection of the image on the object by the second environment texture is gradually displayed. As a result, the switching of the environmental texture becomes inconspicuous, and a more natural and realistic image expression can be realized.

【0027】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、オブジェクト空間に設けら
れた閉鎖空間へのオブジェクトの進入イベントの際に、
第1の環境テクスチャのフェイドアウト処理を行うこと
を特徴とする。このような閉鎖空間へのオブジェクトの
進入イベントの際には、第1の環境テクスチャのフェイ
ドアウト処理が行われ周囲の環境がオブジェクトに映り
込まなくなっても、プレーヤは不自然さを感じない。従
って本発明によれば、環境テクスチャが切り替わる様子
を、更に目立たなくすることが可能になる。
Further, the image generation system, the information storage medium and the program according to the present invention provide an image generation system,
A fade-out process of the first environment texture is performed. In the event of an object entering such a closed space, even if the first environment texture is faded out and the surrounding environment is not reflected on the object, the player does not feel unnatural. Therefore, according to the present invention, it is possible to make the switching of the environmental texture less noticeable.

【0028】また本発明は、画像を生成するための画像
生成システムであって、環境テクスチャをオブジェクト
にマッピングする手段と、オブジェクトにマッピングさ
れる環境テクスチャを切り替える手段と、環境テクスチ
ャを第1の環境テクスチャから第2の環境テクスチャに
切り替えるための繋ぎエリアに、環境テクスチャの切り
替え用のマップオブジェクトを配置する手段と、オブジ
ェクト空間において仮想カメラから見える画像を描画す
る手段とを含むことを特徴とする。また本発明に係る情
報記憶媒体は、コンピュータにより使用可能な情報記憶
媒体であって、上記手段を実行するためのプログラムを
含むことを特徴とする。また本発明に係るプログラム
は、コンピュータにより使用可能なプログラム(搬送波
に具現化されるプログラムを含む)であって、上記手段
を実行するための処理ルーチンを含むことを特徴とす
る。
Further, the present invention is an image generating system for generating an image, wherein: means for mapping an environment texture to an object; means for switching an environment texture mapped to an object; It is characterized by including means for arranging a map object for switching the environment texture in a connection area for switching from the texture to the second environment texture, and means for drawing an image viewed from the virtual camera in the object space. Further, an information storage medium according to the present invention is an information storage medium that can be used by a computer, and includes a program for executing the above means. Further, the program according to the present invention is a program usable by a computer (including a program embodied in a carrier wave), and includes a processing routine for executing the above means.

【0029】本発明によれば、環境テクスチャを切り替
えるための繋ぎエリアに、環境テクスチャの切り替え用
のマップオブジェクト(望ましくは閉鎖空間を形成する
マップオブジェクト)が配置される。従って、この繋ぎ
エリアに配置された切り替え用マップオブジェクトを利
用して、環境テクスチャの切り替え処理、フェイドアウ
ト処理、フェイドイン処理などを行えるようになり、環
境テクスチャが切り替わる様子を目立たなくすることが
できる。
According to the present invention, a map object (preferably a map object forming a closed space) for switching environmental textures is arranged in a connection area for switching environmental textures. Therefore, using the switching map object arranged in the connection area, it is possible to perform the switching processing of the environmental texture, the fade-out processing, the fade-in processing, and the like, so that the switching of the environmental texture can be made inconspicuous.

【0030】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、オブジェクトが前記繋ぎエ
リアに位置する場合に、オブジェクトへの環境マッピン
グが省略されることを特徴とする。このようにオブジェ
クトが繋ぎエリアに位置する場合にオブジェクトへの環
境マッピングを省略して、意図的に暗い環境を創出する
ことで、環境テクスチャが切り替わる様子を更に目立た
なくすることができる。
Further, the image generation system, the information storage medium and the program according to the present invention are characterized in that when an object is located in the connection area, environment mapping to the object is omitted. In this way, when the object is located in the connection area, the environment mapping to the object is omitted, and by intentionally creating a dark environment, the manner in which the environment texture is switched can be made less noticeable.

【0031】また本発明は、画像を生成するための画像
生成システムであって、環境テクスチャをオブジェクト
にマッピングする手段と、オブジェクトが移動するコー
スに設定されるコース情報が含む環境テクスチャ特定情
報に基づいて、オブジェクトにマッピングされる環境テ
クスチャを切り替える手段と、オブジェクト空間におい
て仮想カメラから見える画像を描画する手段とを含むこ
とを特徴とする。また本発明に係る情報記憶媒体は、コ
ンピュータにより使用可能な情報記憶媒体であって、上
記手段を実行するためのプログラムを含むことを特徴と
する。また本発明に係るプログラムは、コンピュータに
より使用可能なプログラム(搬送波に具現化されるプロ
グラムを含む)であって、上記手段を実行するための処
理ルーチンを含むことを特徴とする。
According to the present invention, there is provided an image generating system for generating an image, comprising means for mapping an environment texture to an object, and environment texture specifying information included in course information set on a course in which the object moves. And means for switching an environmental texture mapped to the object, and means for drawing an image viewed from the virtual camera in the object space. Further, an information storage medium according to the present invention is an information storage medium that can be used by a computer, and includes a program for executing the above means. Further, the program according to the present invention is a program usable by a computer (including a program embodied in a carrier wave), and includes a processing routine for executing the above means.

【0032】本発明では、コース情報が含む環境テクス
チャ特定情報に基づいて、オブジェクトにマッピングさ
れる環境テクスチャが切り替わる。従って、順位決定な
どに使用されるコース情報を有効利用して、環境テクス
チャの切り替えを簡易な処理で実現できるようになる。
In the present invention, the environment texture to be mapped to the object is switched based on the environment texture specifying information included in the course information. Therefore, the switching of the environment texture can be realized by a simple process by effectively utilizing the course information used for determining the rank.

【0033】[0033]

【発明の実施の形態】以下、本発明の好適な実施形態に
ついて図面を用いて説明する。なお以下では、本発明
を、レーシングゲームに適用した場合を例にとり説明す
るが、本発明はこれに限定されず、種々のゲームに適用
できる。
Preferred embodiments of the present invention will be described below with reference to the drawings. In the following, the case where the present invention is applied to a racing game will be described as an example, but the present invention is not limited to this and can be applied to various games.

【0034】1.構成 図1に、本実施形態のブロック図の一例を示す。なお同
図において本実施形態は、少なくとも処理部100を含
めばよく(或いは処理部100と記憶部170、或いは
処理部100と記憶部170と情報記憶媒体180を含
めばよく)、それ以外のブロック(例えば操作部16
0、表示部190、音出力部192、携帯型情報記憶装
置194、通信部196)については、任意の構成要素
とすることができる。
1. Configuration FIG. 1 shows an example of a block diagram of the present embodiment. In the figure, the present embodiment only needs to include at least the processing unit 100 (or may include the processing unit 100 and the storage unit 170, or the processing unit 100 and the storage unit 170 and the information storage medium 180), and other blocks. (For example, the operation unit 16
0, the display unit 190, the sound output unit 192, the portable information storage device 194, and the communication unit 196) can be optional components.

【0035】ここで処理部100は、システム全体の制
御、システム内の各ブロックへの命令の指示、ゲーム処
理、画像処理、又は音処理などの各種の処理を行うもの
であり、その機能は、各種プロセッサ(CPU、DSP
等)、或いはASIC(ゲートアレイ等)などのハード
ウェアや、所与のプログラム(ゲームプログラム)によ
り実現できる。
The processing unit 100 performs various processes such as control of the entire system, instruction of each block in the system, game processing, image processing, and sound processing. Various processors (CPU, DSP
Or an ASIC (gate array or the like) or a given program (game program).

【0036】操作部160は、プレーヤが操作データを
入力するためのものであり、その機能は、レバー、ボタ
ン、筺体などのハードウェアにより実現できる。
The operation section 160 is for the player to input operation data, and its function can be realized by hardware such as a lever, a button, and a housing.

【0037】記憶部170は、処理部100や通信部1
96などのワーク領域となるもので、その機能はRAM
などのハードウェアにより実現できる。
The storage unit 170 stores the processing unit 100 and the communication unit 1
A work area such as 96
It can be realized by hardware such as.

【0038】情報記憶媒体(コンピュータにより使用可
能な記憶媒体)180は、プログラムやデータなどの情
報を格納するものであり、その機能は、光ディスク(C
D、DVD)、光磁気ディスク(MO)、磁気ディス
ク、ハードディスク、磁気テープ、或いはメモリ(RO
M)などのハードウェアにより実現できる。処理部10
0は、この情報記憶媒体180に格納される情報に基づ
いて本発明(本実施形態)の種々の処理を行う。即ち情
報記憶媒体180には、本発明(本実施形態)の手段
(特に処理部100に含まれるブロック)を実行するた
めの情報(プログラム或いはデータ)が格納される。
An information storage medium (storage medium usable by a computer) 180 stores information such as programs and data.
D, DVD), magneto-optical disk (MO), magnetic disk, hard disk, magnetic tape, or memory (RO
M) and the like. Processing unit 10
0 performs various processes of the present invention (the present embodiment) based on the information stored in the information storage medium 180. That is, the information storage medium 180 stores information (program or data) for executing the means (particularly, the blocks included in the processing unit 100) of the present invention (the present embodiment).

【0039】なお、情報記憶媒体180に格納される情
報の一部又は全部は、システムへの電源投入時等に記憶
部170に転送されることになる。また情報記憶媒体1
80に記憶される情報は、本発明の処理を行うためのプ
ログラムコード、画像データ、音データ、表示物の形状
データ、テーブルデータ、リストデータ、本発明の処理
を指示するための情報、その指示に従って処理を行うた
めの情報等の少なくとも1つを含むものである。
A part or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the power to the system is turned on. Information storage medium 1
The information stored in 80 is a program code for performing the processing of the present invention, image data, sound data, shape data of a display object, table data, list data, information for instructing the processing of the present invention, and instructions for the processing. The information includes at least one of information for performing processing according to.

【0040】表示部190は、本実施形態により生成さ
れた画像を出力するものであり、その機能は、CRT、
LCD、或いはHMD(ヘッドマウントディスプレイ)
などのハードウェアにより実現できる。
The display section 190 outputs an image generated according to the present embodiment.
LCD or HMD (Head Mount Display)
It can be realized by hardware such as.

【0041】音出力部192は、本実施形態により生成
された音を出力するものであり、その機能は、スピーカ
などのハードウェアにより実現できる。
The sound output section 192 outputs the sound generated according to the present embodiment, and its function can be realized by hardware such as a speaker.

【0042】携帯型情報記憶装置194は、プレーヤの
個人データやセーブデータなどが記憶されるものであ
り、この携帯型情報記憶装置194としては、メモリカ
ードや携帯型ゲーム装置などを考えることができる。
The portable information storage device 194 stores personal data and save data of a player. The portable information storage device 194 may be a memory card, a portable game device, or the like. .

【0043】通信部196は、外部(例えばホスト装置
や他の画像生成システム)との間で通信を行うための各
種の制御を行うものであり、その機能は、各種プロセッ
サ、或いは通信用ASICなどのハードウェアや、プロ
グラムなどにより実現できる。
The communication unit 196 performs various controls for communicating with the outside (for example, a host device or another image generation system), and has a function of various processors or a communication ASIC. Hardware and programs.

【0044】なお本発明(本実施形態)の手段を実行す
るためのプログラム或いはデータは、ホスト装置(サー
バー)が有する情報記憶媒体からネットワーク及び通信
部196を介して情報記憶媒体180に配信するように
してもよい。このようなホスト装置(サーバー)の情報
記憶媒体の使用も本発明の範囲内に含まれる。
A program or data for executing the means of the present invention (this embodiment) is distributed from the information storage medium of the host device (server) to the information storage medium 180 via the network and the communication unit 196. It may be. Use of the information storage medium of such a host device (server) is also included in the scope of the present invention.

【0045】処理部100は、ゲーム処理部110、画
像生成部130、音生成部150を含む。
The processing section 100 includes a game processing section 110, an image generation section 130, and a sound generation section 150.

【0046】ここでゲーム処理部110は、コイン(代
価)の受け付け処理、各種モードの設定処理、ゲームの
進行処理、選択画面の設定処理、オブジェクト(1又は
複数のプリミティブ面)の位置や回転角度(X、Y又は
Z軸回り回転角度)を求める処理、オブジェクトを動作
させる処理(モーション処理)、視点の位置(仮想カメ
ラの位置)や視線角度(仮想カメラの回転角度)を求め
る処理、マップオブジェクトなどのオブジェクトをオブ
ジェクト空間へ配置する処理、ヒットチェック処理、ゲ
ーム結果(成果、成績)を演算する処理、複数のプレー
ヤが共通のゲーム空間でプレイするための処理、或いは
ゲームオーバー処理などの種々のゲーム処理を、操作部
160からの操作データや、携帯型情報記憶装置194
からの個人データ、保存データや、ゲームプログラムな
どに基づいて行う。
Here, the game processing section 110 performs processing for accepting coins (price), processing for setting various modes, processing for proceeding with a game, processing for setting a selection screen, the position and rotation angle of an object (one or more primitive surfaces). Processing for calculating (the rotation angle around the X, Y or Z axis), processing for moving the object (motion processing), processing for obtaining the position of the viewpoint (the position of the virtual camera) and the line of sight (the rotation angle of the virtual camera), the map object Such as processing for arranging objects in the object space, hit check processing, processing for calculating game results (results, results), processing for playing by a plurality of players in a common game space, or game over processing. The game processing is performed by operating data from the operation unit 160 or the portable information storage device 194.
Based on personal data, stored data, and game programs.

【0047】画像生成部130は、ゲーム処理部110
からの指示等にしたがって各種の画像処理を行い、例え
ばオブジェクト空間内で仮想カメラ(視点)から見える
画像を生成して、表示部190に出力する。
The image generation unit 130 includes a game processing unit 110
Performs various image processing in accordance with an instruction from the camera, generates an image that can be viewed from a virtual camera (viewpoint) in the object space, and outputs the generated image to the display unit 190.

【0048】音生成部150は、ゲーム処理部110か
らの指示等にしたがって各種の音処理を行い、BGM、
効果音、又は音声などの音を生成し、音出力部192に
出力する。
The sound generator 150 performs various sound processes according to an instruction from the game processor 110, and performs BGM,
A sound such as a sound effect or a sound is generated and output to the sound output unit 192.

【0049】なお、ゲーム処理部110、画像生成部1
30、音生成部150の機能は、その全てをハードウェ
アにより実現してもよいし、その全てをプログラムによ
り実現してもよい。或いは、ハードウェアとプログラム
の両方により実現してもよい。
The game processing section 110 and the image generation section 1
30, all of the functions of the sound generation unit 150 may be realized by hardware, or all of them may be realized by a program. Alternatively, it may be realized by both hardware and a program.

【0050】ゲーム処理部110は移動・動作演算部1
12、マップオブジェクト配置部114を含む。
The game processing section 110 includes the movement / motion calculation section 1
12, a map object placement unit 114 is included.

【0051】ここで移動・動作演算部112は、車など
のオブジェクトの移動情報(位置データ、回転角度デー
タ)や動作情報(オブジェクトの各パーツの位置デー
タ、回転角度データ)を演算するものであり、例えば、
操作部160によりプレーヤが入力した操作データやゲ
ームプログラムなどに基づいて、オブジェクトを移動さ
せたり動作させたりする処理を行う。
Here, the movement / motion calculation unit 112 calculates movement information (position data, rotation angle data) and movement information (position data, rotation angle data of each part of the object) of an object such as a car. For example,
Based on operation data, a game program, and the like input by the player via the operation unit 160, a process of moving or moving an object is performed.

【0052】より具体的には、移動・動作演算部112
は、オブジェクトの位置や回転角度を例えば1フレーム
(1/60秒)毎に求める処理を行う。例えば(k−
1)フレームでのオブジェクトの位置をPMk-1、速度
をVMk-1、加速度をAMk-1、1フレームの時間を△t
とする。するとkフレームでのオブジェクトの位置PM
k、速度VMkは例えば下式(1)、(2)のように求め
られる。
More specifically, the movement / motion calculation unit 112
Performs a process of obtaining the position and rotation angle of the object, for example, for each frame (1/60 second). For example, (k-
1) The position of the object in the frame is PMk-1, the speed is VMk-1, the acceleration is AMk-1, and the time of one frame is Δt.
And Then, the position PM of the object at the k frame
k and the speed VMk are obtained, for example, as in the following equations (1) and (2).

【0053】 PMk=PMk-1+VMk-1×△t (1) VMk=VMk-1+AMk-1×△t (2) マップオブジェクト配置部114は、コース、コース脇
の建物や木、トンネルなどのマップオブジェクトをオブ
ジェクト空間に配置するための処理を行う。より具体的
には本実施形態では、オブジェクトにマッピングされる
環境テクスチャを切り替えるための繋ぎエリアが設けら
れる。そして、マップオブジェクト配置部114は、こ
の繋ぎエリアに、環境テクスチャの切り替え用のマップ
オブジェクトを配置する処理(マップオブジェクトのオ
ブジェクトデータを作成する処理)を行う。このように
することで、環境テクスチャの切り替えが自然に行われ
るようになり、環境テクスチャが切り替わったことがプ
レーヤに気づかれる事態を防止できる。なお、マップオ
ブジェクトの情報(形状情報、テクスチャ情報、色情報
等)は、記憶部170の中のマップオブジェクト情報記
憶部179に記憶される。
PMk = PMk−1 + VMk−1 × Δt (1) VMk = VMk−1 + AMk−1 × Δt (2) The map object placement unit 114 is a map object such as a course, a building, a tree or a tunnel beside the course. For arranging in the object space. More specifically, in the present embodiment, a connection area for switching an environment texture mapped to an object is provided. Then, the map object arranging unit 114 performs a process of arranging a map object for switching environmental textures in the connection area (a process of creating object data of the map object). In this way, the switching of the environmental texture is naturally performed, and it is possible to prevent the player from noticing that the environmental texture has been switched. The map object information (shape information, texture information, color information, etc.) is stored in the map object information storage unit 179 in the storage unit 170.

【0054】画像生成部130は、ジオメトリ処理部1
32(3次元演算部)、描画部140(レンダリング
部)を含む。
The image generation unit 130 includes the geometry processing unit 1
32 (three-dimensional operation unit) and a drawing unit 140 (rendering unit).

【0055】ここで、ジオメトリ処理部132は、座標
変換、クリッピング処理、透視変換、或いは光源計算な
どの種々のジオメトリ処理(3次元演算)を行う。そし
て、本実施形態では、ジオメトリ処理後(透視変換後)
のオブジェクトデータ(オブジェクトの頂点座標、頂点
テクスチャ座標、或いは輝度データ等)は、記憶部17
0のメインメモリ172に格納されて、保存される。
Here, the geometry processing unit 132 performs various kinds of geometry processing (three-dimensional operation) such as coordinate transformation, clipping processing, perspective transformation, and light source calculation. In this embodiment, after the geometry processing (after the perspective transformation)
Object data (vertex coordinates, vertex texture coordinates, or luminance data of the object) are stored in the storage unit 17.
0 is stored in the main memory 172.

【0056】ジオメトリ処理部132が含む法線ベクト
ル処理部134は、オブジェクトの各頂点の法線ベクト
ル(広義にはオブジェクトの面の法線ベクトル)を、ロ
ーカル座標系からワールド座標系への回転マトリクスで
回転させる処理を行う。そして、本実施形態では、この
回転後の法線ベクトルに基づいて、環境テクスチャのテ
クスチャ座標を求めている。
The normal vector processing unit 134 included in the geometry processing unit 132 converts the normal vector of each vertex of the object (in a broad sense, the normal vector of the surface of the object) into a rotation matrix from the local coordinate system to the world coordinate system. To rotate. In the present embodiment, the texture coordinates of the environment texture are obtained based on the rotated normal vector.

【0057】描画部140は、ジオメトリ処理後(透視
変換後)のオブジェクトデータと、テクスチャ記憶部1
76に記憶されるテクスチャとに基づいて、オブジェク
トをフレームバッファ174に描画する。これにより、
オブジェクトが移動するオブジェクト空間において、仮
想カメラ(視点)から見える画像が描画(生成)される
ようになる。
The drawing unit 140 stores the object data after the geometry processing (after the perspective transformation) and the texture storage unit 1
The object is drawn in the frame buffer 174 based on the texture stored in 76. This allows
In the object space where the object moves, an image viewed from the virtual camera (viewpoint) is drawn (generated).

【0058】描画部140は、テクスチャマッピング部
142を含む。
The drawing unit 140 includes a texture mapping unit 142.

【0059】ここで、テクスチャマッピング部142
は、テクスチャ記憶部176に記憶されるテクスチャを
オブジェクトにマッピングするための処理(オブジェク
トにマッピングするテクスチャを指定する処理、テクス
チャを転送する処理等)を行うものであり、原像領域移
動・回転部144、環境テクスチャ変形部146、環境
テクスチャ切り替え部148、フェイド処理部149を
含む。
Here, the texture mapping unit 142
Performs processing for mapping a texture stored in the texture storage unit 176 to an object (processing for specifying a texture to be mapped to an object, processing for transferring a texture, and the like). 144, an environment texture transformation unit 146, an environment texture switching unit 148, and a fade processing unit 149.

【0060】原像領域移動・回転部144は、テクスチ
ャ空間(テクスチャ記憶部)において環境マッピングの
原像領域を移動又は回転させる処理を行う。より具体的
には、例えば、オブジェクトにマッピングされるテクス
チャを指定するためのテクスチャ座標(U、V座標)
を、原像領域が移動又は回転するように変化させる。こ
の場合、原像領域移動・回転部144は、コース情報記
憶部178に記憶されるコース情報(広義には、ワール
ド座標系でのオブジェクトの位置情報又は回転角度情
報)に基づいて、環境マッピングの原像領域を移動又は
回転させる。このようにすることで、オブジェクトに映
り込んでいる環境が流れて見えるようになり、これまで
にないリアルな画像表現が可能になる。
The original image area moving / rotating section 144 performs processing for moving or rotating the original image area for environment mapping in the texture space (texture storage section). More specifically, for example, texture coordinates (U, V coordinates) for specifying a texture to be mapped to an object
Is changed so that the original image area moves or rotates. In this case, the original image area moving / rotating unit 144 performs environment mapping based on course information (in a broad sense, object position information or rotation angle information in the world coordinate system) stored in the course information storage unit 178. Move or rotate the original image area. By doing so, the environment reflected in the object can be seen flowing, and an unprecedented realistic image expression becomes possible.

【0061】なお本実施形態では、オブジェクトから見
て上方向に見えるべき環境テクスチャ(魚眼レンズを通
して見えるようなテクスチャ)が、オブジェクトの上方
向からオブジェクトに対してマッピングされる。このよ
うにすることで、仮想カメラの位置や回転角度(方向)
が変化した場合にも、光源の映り込みなどが正確に表現
された環境マッピングを実現できる。
In the present embodiment, an environmental texture (a texture that can be seen through a fisheye lens) to be viewed upward from the object is mapped to the object from above the object. By doing so, the position and rotation angle (direction) of the virtual camera
Even if is changed, it is possible to realize environment mapping in which the reflection of the light source and the like are accurately represented.

【0062】また本実施形態では、例えば、遠景を表す
環境テクスチャについては、その原像領域が固定され、
近景を表す環境テクスチャについては、その原像領域が
移動又は回転される。そして、これらの遠景、近景を表
すテクスチャが合成されて、オブジェクトにマッピング
される。このようにすることで、より多様な画像表現が
可能になる。
In the present embodiment, for example, for an environmental texture representing a distant view, its original image area is fixed.
For the environment texture representing the foreground, the original image area is moved or rotated. Then, textures representing these distant and near views are synthesized and mapped to objects. By doing so, more diverse image representations are possible.

【0063】環境テクスチャ変形部146は、テクスチ
ャ空間の環境テクスチャに変形処理を施すものである。
より具体的には、環境テクスチャ変形部146は、例え
ば、テクスチャ空間の環境テクスチャを仮想オブジェク
トにマッピングすることで環境テクスチャを変形し、こ
のマッピングにより得られる画像をテクスチャ空間に描
画する。そして、このテクスチャ空間に描画された変形
処理後の環境テクスチャが、オブジェクトにマッピング
されるようになる。このようにすることで、極座標変換
などの変形処理を環境テクスチャに施すことが可能にな
り、よりリアルな環境マッピングを実現できる。
The environment texture deformation section 146 performs a deformation process on the environment texture in the texture space.
More specifically, the environment texture transformation unit 146 transforms the environment texture by mapping the environment texture in the texture space to the virtual object, and draws an image obtained by this mapping in the texture space. Then, the transformed environment texture drawn in the texture space is mapped to the object. By doing so, it becomes possible to apply a deformation process such as polar coordinate conversion to the environment texture, and it is possible to realize more realistic environment mapping.

【0064】環境テクスチャ切り替え部148は、オブ
ジェクトにマッピングされる環境テクスチャを切り替え
るための処理を行う。より具体的には、コース情報が含
む環境テクスチャ特定情報などに基づいて、オブジェク
トにマッピングされる環境テクスチャを切り替える。こ
のようにすることで、ゲーム状況、コース状況などに応
じた最適な環境テクスチャをオブジェクトにマッピング
できるようになり、より多様でリアルな画像表現を実現
できる。
The environment texture switching section 148 performs processing for switching the environment texture mapped to the object. More specifically, an environment texture to be mapped to an object is switched based on environment texture specifying information included in the course information. By doing so, it becomes possible to map an optimal environment texture according to a game situation, a course situation, and the like to an object, thereby realizing more diverse and realistic image expression.

【0065】フェイド処理部149は、環境テクスチャ
を切り替える際に、オブジェクトにマッピングされる環
境テクスチャのフェイドアウト処理(徐々に消す処理)
やフェイドイン処理(徐々に表示する処理)を行う。よ
り具体的には、オブジェクトにマッピングされる環境テ
クスチャが例えば第1の環境テクスチャから第2の環境
テクスチャに切り替わる場合に、まず、第1の環境テク
スチャのフェイドアウト処理を行う。そして、次に、第
2の環境テクスチャのフェイドイン処理を行う。
When switching the environment texture, the fade processing unit 149 performs a fade-out process (a process of gradually erasing) the environment texture mapped to the object.
And fade-in processing (processing for gradually displaying). More specifically, when the environment texture mapped to the object is switched from, for example, the first environment texture to the second environment texture, first, the first environment texture is faded out. Then, the second environment texture is subjected to a fade-in process.

【0066】なお、本実施形態の画像生成システムは、
1人のプレーヤのみがプレイできるシングルプレーヤモ
ード専用のシステムにしてもよいし、このようなシング
ルプレーヤモードのみならず、複数のプレーヤがプレイ
できるマルチプレーヤモードも備えるシステムにしても
よい。
The image generation system according to the present embodiment
A system dedicated to the single player mode in which only one player can play, or a system including not only such a single player mode but also a multiplayer mode in which a plurality of players can play, may be used.

【0067】また複数のプレーヤがプレイする場合に、
これらの複数のプレーヤに提供するゲーム画像やゲーム
音を、1つの端末を用いて生成してもよいし、ネットワ
ーク(伝送ライン、通信回線)などで接続された複数の
端末を用いて生成してもよい。
When a plurality of players play,
The game image and the game sound to be provided to the plurality of players may be generated using one terminal, or may be generated using a plurality of terminals connected by a network (transmission line, communication line) or the like. Is also good.

【0068】2.本実施形態の特徴 (1)原像領域の移動、回転 さて、本実施形態では図2に示すように、環境テクスチ
ャなどのテクスチャパターンが定義されるテクスチャ空
間(U、V)において、環境マッピングの原像領域IM
(マッピングされる画像が定義される領域)を移動又は
回転(スクロール)しながら、車などのオブジェクト1
0に対して環境テクスチャ(原像領域にある画像)をマ
ッピングするようにしている。これにより、オブジェク
ト10(車)に映り込んだ環境が流れて行く様子の表現
(環境の流れ表現)が可能になる。即ち、オブジェクト
10とその周りの環境(木、建物)との相対的位置関係
の変化に起因して、オブジェクト10に映り込んだ環境
が流れているかのように見せることができ、リアルで多
様な環境マッピングを少ない処理負担で実現できる。
2. Features of this embodiment (1) Movement and rotation of original image area In this embodiment, as shown in FIG. 2, in a texture space (U, V) where a texture pattern such as an environment texture is defined, environment mapping is performed. Original image area IM
While moving or rotating (scrolling) the (area where the image to be mapped is defined), the object 1 such as a car
An environment texture (image in the original image area) is mapped to 0. Thus, it is possible to express the state in which the environment reflected on the object 10 (car) flows (an environment flow expression). That is, due to a change in the relative positional relationship between the object 10 and the surrounding environment (trees, buildings), the environment reflected in the object 10 can be seen as if it is flowing. Environment mapping can be realized with a small processing load.

【0069】例えば環境マッピングを実現する第1の手
法として、オブジェクトから見える環境の画像を仮想球
にリアルタイムに描画し、次に、反射ベクトルの方向に
ある仮想球の画像をオブジェクトにマッピングする手法
を考えることができる。
For example, as a first method for realizing environment mapping, a method of drawing an image of an environment visible from an object on a virtual sphere in real time, and then mapping an image of the virtual sphere in the direction of the reflection vector to the object. You can think.

【0070】しかしながら、この第1の手法では、環境
の流れ表現は可能になるが、オブジェクトから見える画
像を仮想球にリアルタイムに描画する処理が必要になる
ため、処理負荷が非常に重くなってしまう。
However, in the first method, although the flow of the environment can be expressed, the processing load becomes very heavy because a process of drawing an image viewed from an object on a virtual sphere in real time is required. .

【0071】また環境マッピングを実現する第2の手法
として、オブジェクトから仮想カメラの方を見た時の環
境を擬似的に表す環境テクスチャを予め用意しておき、
この擬似的な環境テクスチャを仮想カメラの方向から単
にマッピングする手法が考えられる。
As a second technique for realizing environment mapping, an environment texture that simulates the environment when the virtual camera is viewed from the object is prepared in advance,
A method of simply mapping this pseudo environment texture from the direction of the virtual camera can be considered.

【0072】しかしながら、この第2の手法では、仮想
カメラの注視点の位置が変化しない限り、オブジェクト
への映り込み画像は変化しないため、環境の流れ表現な
どのリアルな画像表現を実現できない。
However, in the second method, since the image reflected on the object does not change unless the position of the point of interest of the virtual camera changes, a realistic image expression such as a flow expression of an environment cannot be realized.

【0073】これに対して本実施形態によれば、第1の
手法に比べて非常に軽い処理負担で、第2の手法では実
現できないリアルな画像表現を実現できるようになる。
On the other hand, according to the present embodiment, it is possible to realize a realistic image expression which cannot be realized by the second method, with a very light processing load as compared with the first method.

【0074】なお本実施形態では、図2に示すように、
テクスチャ空間の環境テクスチャの境界BD1、BD2
が論理的に連続するようにアドレス制御されている。従
って、原像領域IMの境界BD3が境界BD1を越える
と、G1に示すように境界BD2に戻る(境界BD2か
らの画像が再び使用される)。このようにすることで、
図1のテクスチャ記憶部176の使用記憶容量を節約で
きる。
In this embodiment, as shown in FIG.
Environment texture boundaries BD1 and BD2 in texture space
Are controlled so as to be logically continuous. Therefore, when the boundary BD3 of the original image area IM exceeds the boundary BD1, the boundary returns to the boundary BD2 as shown by G1 (the image from the boundary BD2 is used again). By doing this,
The used storage capacity of the texture storage unit 176 of FIG. 1 can be saved.

【0075】さて、本実施形態では、車などのオブジェ
クトが走行するコースに設定されたコース情報に基づい
て、環境マッピングの原像領域を移動又は回転させてい
る。
In the present embodiment, the original image area of the environment mapping is moved or rotated based on the course information set for the course on which the object such as a car travels.

【0076】例えば図3に示すように、コース30上に
多数のコースポイントPCが設定され、このコースポイ
ントPCに対して、道のり距離LC、コース方向DC、
コース幅WCなどが設定される。そして、オブジェクト
(車)の位置等に基づいて1又は複数のコースポイント
PCが選択され、選択されたコースポイントPCに設定
された道のり距離LC、コース方向DC、コース幅WC
が図1のコース情報記憶部178から読み出される。そ
して、読み出された道のり距離LCに基づいてオブジェ
クトの順位などが決定される。また、読み出されたコー
ス方向DCに基づいて、オブジェクトの走行アシストな
どが行われる。更に、読み出されたコース幅WCに基づ
いて、コースの両サイドに設けられた壁等とオブジェク
トとのヒットチェックが行われる。
For example, as shown in FIG. 3, a number of course points PC are set on the course 30, and the distance LC, the course direction DC,
The course width WC and the like are set. Then, one or a plurality of course points PC are selected based on the position of the object (vehicle), and the distance LC, the course direction DC, and the course width WC set for the selected course point PC are selected.
Is read from the course information storage unit 178 in FIG. Then, the order of the objects is determined based on the read distances LC. Further, based on the read course direction DC, the traveling assist of the object is performed. Further, based on the read course width WC, a hit check is made between the object and a wall or the like provided on both sides of the course.

【0077】本実施形態では、このように順位決定、走
行アシスト、ヒットチェックなどに使用されるコース情
報を有効利用して、環境マッピングの原像領域を移動又
は回転させている。
In the present embodiment, the original image area of the environment mapping is moved or rotated by effectively utilizing the course information used for the ranking determination, the traveling assist, the hit check, and the like.

【0078】例えば図4(A)に示すように本実施形態
では、コース情報が含む道のり距離LCに基づいて、U
座標の方向(第1の方向)に沿って原像領域IMを移動
(スクロール)させている。
For example, as shown in FIG. 4A, in this embodiment, U is determined based on the distance LC included in the course information.
The original image area IM is moved (scrolled) along the direction of the coordinates (first direction).

【0079】より具体的には、まず、オブジェクト10
の位置に基づきコースポイントPCが選択され、そのコ
ースポイントPCに設定された道のり距離LCが読み出
される。そして、この読み出された道のり距離LCに基
づいて、U座標の方向での原像領域IMの移動量(IM
の代表点のU座標)が決定される。
More specifically, first, the object 10
The course point PC is selected based on the position, and the distance LC set for the course point PC is read. Then, based on the read distance LC, the movement amount (IM) of the original image area IM in the direction of the U-coordinate is determined.
(The U-coordinate of the representative point).

【0080】このようにすれば、オブジェクト10の移
動量に応じた移動量で原像領域IMも移動するようにな
る。例えばオブジェクト10が速く移動すれば、原像領
域IMも速く移動するようになり、オブジェクト10へ
の映り込み画像も高速に流れるようになる。また、オブ
ジェクト10が停止した場合には、オブジェクト10へ
の映り込み画像の流れも停止するようになる。従って、
あたかも、コースに沿って木や建物が設置され、その設
置された木や建物がオブジェクト10に映り込み、その
木や建物の映り込み画像が、オブジェクト10の移動に
伴い流れているかのように見せることができる。これに
より、よりリアルな画像表現を実現できる。
In this way, the original image area IM also moves by a moving amount corresponding to the moving amount of the object 10. For example, if the object 10 moves fast, the original image area IM also moves fast, and the image reflected on the object 10 also flows at high speed. When the object 10 stops, the flow of the reflected image on the object 10 also stops. Therefore,
It is as if trees and buildings are installed along the course, and the installed trees and buildings are reflected on the object 10, and the reflected image of the trees and buildings is made to appear as if the object 10 moves. be able to. Thereby, more realistic image expression can be realized.

【0081】また図4(B)に示すように本実施形態で
は、コース情報が含むコース幅WCに基づいて、例えば
V座標の方向(第2の方向)に沿って原像領域IMを移
動させている。
As shown in FIG. 4B, in the present embodiment, the original image area IM is moved, for example, along the V coordinate direction (second direction) based on the course width WC included in the course information. ing.

【0082】より具体的には、まず、オブジェクト10
の位置に基づきコースポイントPCが選択され、そのコ
ースポイントPCに設定されたコース幅WCが読み出さ
れる。そして、この読み出されたコース幅WCとオブジ
ェクト10の位置などに基づいて、V座標の方向での原
像領域IMの移動量(IMの代表点のV座標)が決定さ
れる。即ち、オブジェクト10がコース30の左側に寄
った場合には、原像領域IMはV座標の例えば正方向側
に移動し、オブジェクト10がコース30の右側に寄っ
た場合には、原像領域IMはV座標の例えば負方向側に
移動する。
More specifically, first, the object 10
The course point PC is selected based on the position, and the course width WC set for the course point PC is read. Then, based on the read course width WC and the position of the object 10, the movement amount of the original image area IM in the direction of the V coordinate (V coordinate of the representative point of the IM) is determined. That is, when the object 10 moves to the left side of the course 30, the original image area IM moves, for example, in the positive direction of the V coordinate, and when the object 10 moves to the right side of the course 30, the original image area IM Moves to, for example, the negative direction side of the V coordinate.

【0083】このようにすれば、オブジェクト10がコ
ース30上で左右方向に移動した場合に、それに応じ
て、オブジェクト10への映り込み画像も変化するよう
になる。例えば図4(B)のようにオブジェクト10が
コース30の左側に寄ると、環境テクスチャのH1に示
す部分がオブジェクト10に映り込まなくなる一方で、
H2に示す部分が張り出してきてオブジェクト10に映
り込むようになる。この結果、あたかも、コースに沿っ
て木や建物が設置され、その設置された木や建物がオブ
ジェクト10に映り込み、その木や建物の映り込み画像
が、オブジェクト10の左右方向の移動に伴い変化して
いるかのように見せることができる。
In this way, when the object 10 moves on the course 30 in the left-right direction, the image reflected on the object 10 changes accordingly. For example, when the object 10 is shifted to the left side of the course 30 as shown in FIG. 4B, the portion indicated by H1 of the environmental texture is not reflected on the object 10, while
The portion indicated by H2 protrudes and is reflected on the object 10. As a result, it is as if trees and buildings were installed along the course, and the installed trees and buildings were reflected on the object 10, and the reflected image of the trees and buildings was changed as the object 10 moved in the left and right direction. You can make it look as if you are doing it.

【0084】なお、図4(B)では、原像領域IMがV
座標の方向で移動した場合にも適正な環境テクスチャが
マッピングされるように、環境テクスチャをV座標の方
向に拡張して、H3、H4に示すようなマージン領域を
設けている。しかしながら、図5(A)に示すように、
このようなマージン領域を設けないようにしてもよい。
そして、この場合には、図5(B)のように原像領域I
MがV座標の方向で移動した場合に、はみ出したH5の
部分については境界H6でのテクスチャ(色)をマッピ
ングするようにすればよい。
In FIG. 4B, the original image area IM is V
The environment texture is extended in the direction of the V coordinate so that a margin area such as H3 and H4 is provided so that an appropriate environment texture is mapped even when the object is moved in the direction of the coordinates. However, as shown in FIG.
Such a margin area may not be provided.
Then, in this case, as shown in FIG.
When M moves in the direction of the V coordinate, the texture (color) at the boundary H6 may be mapped to the protruding portion of H5.

【0085】また本実施形態では図6に示すように、コ
ース情報が含むコース方向DCに基づいて、オブジェク
トにマッピングされる環境テクスチャ自体(或いは環境
テクスチャがマッピングされた仮想オブジェクト)を回
転させるようにしている。
In this embodiment, as shown in FIG. 6, the environment texture itself (or the virtual object on which the environment texture is mapped) is rotated based on the course direction DC included in the course information. ing.

【0086】より具体的には、まず、オブジェクトの位
置に基づきコースポイントPCが選択され、そのコース
ポイントPCに設定されたコース方向DCが読み出され
る。そして、この読み出されたコース方向DCに基づい
て、環境テクスチャ自体が回転されて、オブジェクトに
マッピングされる。例えば、コース方向DCが右方向に
回転した場合(右カーブの場合)には、環境テクスチャ
も右方向に回転し、コース方向DCが左方向に回転した
場合(左カーブの場合)には、環境テクスチャも左方向
に回転する。
More specifically, first, a course point PC is selected based on the position of the object, and the course direction DC set for the course point PC is read. Then, based on the read course direction DC, the environment texture itself is rotated and mapped to the object. For example, when the course direction DC rotates rightward (in the case of a right curve), the environment texture also rotates rightward, and when the course direction DC rotates leftward (in the case of a left curve), the environment texture changes. The texture also rotates to the left.

【0087】このようにすれば、オブジェクトがコーナ
ーを走行した場合に、そのコーナーのカーブに沿って環
境テクスチャも回転するようになる。従って、あたか
も、コーナーに沿って木や建物が設置され、その設置さ
れた木や建物がオブジェクトに映り込んでいるかのよう
に見せることができる。これにより、リアルで矛盾の無
い画像表現を実現できる。
In this way, when the object runs on a corner, the environment texture also rotates along the curve of the corner. Therefore, it is possible to make it appear as if a tree or a building is installed along the corner and the installed tree or building is reflected in the object. As a result, a real and consistent image expression can be realized.

【0088】なお、コースに沿ってオブジェクトが移動
するゲーム(車ゲーム、自転車ゲーム、バイクゲーム
等)の場合には、コース情報に基づいて環境マッピング
の原像領域を移動又は回転させることが望ましい。しか
しながら、このようなコース情報が無いゲームの場合に
は、ワールド座標系でのオブジェクトの位置情報や回転
角度(方向)情報などに基づいて、環境マッピングの原
像領域を移動又は回転させればよい。
In the case of a game in which an object moves along a course (a car game, a bicycle game, a motorcycle game, etc.), it is desirable to move or rotate the original image area of the environment mapping based on the course information. However, in the case of a game without such course information, the original image area of the environment mapping may be moved or rotated based on the position information or the rotation angle (direction) information of the object in the world coordinate system. .

【0089】(2)環境テクスチャの変形 さて、図7に、本実施形態で使用される環境テクスチャ
の例を示す。この環境テクスチャは、コースに沿って設
置される木や建物などの近景を擬似的に表す環境テクス
チャである。
(2) Deformation of Environmental Texture FIG. 7 shows an example of an environmental texture used in the present embodiment. This environment texture is an environment texture that simulates a near view of a tree, a building, or the like installed along the course.

【0090】本実施形態では、この近景の環境テクスチ
ャに変形処理を施し、変形処理後の環境テクスチャをオ
ブジェクトにマッピングするようにしている。
In the present embodiment, a deformation process is applied to the foreground environment texture, and the environment texture after the deformation process is mapped to an object.

【0091】より具体的には図8に示すように、テクス
チャ空間の近景の環境テクスチャを仮想オブジェクト4
0(半球オブジェクト)にマッピングする。そして、こ
のマッピングにより得られる画像が、変形処理後の近景
の環境テクスチャとしてテクスチャ空間(テクスチャ記
憶部)に描画される。そして、この描画された変形処理
後の近景の環境テクスチャと、図9に示すような遠景の
環境テクスチャとが合成され、合成後の環境テクスチャ
が車などのオブジェクトにマッピングされる。
More specifically, as shown in FIG.
Map to 0 (hemispherical object). Then, an image obtained by this mapping is drawn in the texture space (texture storage unit) as a foreground environmental texture after the deformation processing. Then, the drawn near-field environment texture after the transformation process and the far-field environment texture as shown in FIG. 9 are synthesized, and the synthesized environment texture is mapped to an object such as a car.

【0092】なお、図9の遠景の環境テクスチャには、
オブジェクトに映り込ませるべき太陽、空、雲などの周
囲の環境が、下から上方向に魚眼レンズを介して見たよ
うな絵柄で描かれている。
Note that the distant environment texture shown in FIG.
The surrounding environment, such as the sun, sky, and clouds, to be reflected in the object is drawn in a pattern as if viewed from below through a fisheye lens.

【0093】図10(A)〜図12(C)に、本実施形
態により近景と遠景とが合成された環境テクスチャの例
を示す。
FIGS. 10A to 12C show examples of environment textures in which a near view and a distant view are combined according to the present embodiment.

【0094】図10(A)、(B)、(C)は、図4
(A)で説明したように、近景の環境テクスチャの原像
領域IMをU座標の方向に沿って移動した場合の合成後
の環境テクスチャの例である。図10(A)、(B)、
(C)では、空、雲、太陽などを表す遠景の環境テクス
チャは固定されている一方で、木や建物などを表す近景
の環境テクスチャはI1に示す方向に流れている。従っ
て、オブジェクト(車)上においては、遠景の映り込み
画像はほぼ停止する一方で、近景の映り込み画像は速く
流れるようになる。従って、遠くの物の映り込みは停止
し近くの物の映り込みは速く流れるという現実世界の事
象に則したリアルな画像表現を、少ない処理負担で実現
できるようになる。
FIGS. 10A, 10B, and 10C are diagrams of FIG.
As described in (A), this is an example of an environment texture after composition when the original image area IM of the environment texture of the foreground is moved along the direction of the U coordinate. 10 (A), (B),
In (C), the environmental texture of a distant view representing the sky, clouds, the sun, and the like is fixed, while the environmental texture of a near view representing a tree, a building, or the like flows in the direction indicated by I1. Therefore, on the object (car), the reflected image of the distant view almost stops, while the reflected image of the near view flows faster. Therefore, it is possible to realize a realistic image representation in accordance with a real-world phenomenon in which the reflection of a distant object stops and the reflection of a nearby object flows quickly with a small processing load.

【0095】図11(A)、(B)、(C)は、図4
(B)で説明したように、近景の環境テクスチャの原像
領域IMをV座標の方向に沿って移動した場合の合成後
の環境テクスチャの例である。図11(A)、(B)、
(C)では、遠景の環境テクスチャは固定されている一
方で、近景の環境テクスチャはI2に示す方向に動いて
いる。これにより、オブジェクトがコースの左右方向に
移動することによる映り込み画像の変化の様子を、リア
ルに表現できるようになる。
FIGS. 11A, 11B, and 11C show FIGS.
As described in (B), this is an example of the combined environment texture when the original image area IM of the close-up environment texture is moved along the direction of the V coordinate. 11 (A), (B),
In (C), the environmental texture of the distant view is fixed, while the environmental texture of the near view moves in the direction indicated by I2. This makes it possible to realistically express the state of change of the reflected image due to the movement of the object in the horizontal direction of the course.

【0096】図12(A)、(B)、(C)は、図6で
説明したように、オブジェクトにマッピングされる環境
テクスチャ自体をコース方向に基づいて回転させた場合
の合成後の環境テクスチャの例である。図12(A)、
(B)、(C)では、遠景の環境テクスチャは固定され
ている一方で、近景の環境テクスチャはI3に示す方向
で回転している。これにより、オブジェクトがコーナー
を走行した場合に、そのコーナーのカーブに沿って環境
テクスチャも回転するようになり、よりリアルで矛盾の
無い画像表現を実現できる。
FIGS. 12A, 12B, and 12C show the combined environment texture when the environment texture mapped to the object is rotated based on the course direction, as described with reference to FIG. This is an example. FIG. 12 (A),
In (B) and (C), the environmental texture of the distant view is fixed, while the environmental texture of the near view is rotating in the direction indicated by I3. Thus, when the object runs on a corner, the environmental texture also rotates along the curve of the corner, and more realistic and consistent image expression can be realized.

【0097】さて、図8では、環境テクスチャを仮想オ
ブジェクト40にマッピングすることで、環境テクスチ
ャの変形処理を実現している。より具体的には、半球形
状の仮想オブジェクト40は複数のポリゴンで構成され
ると共に、複数のポリゴンの頂点が集まった極PL1、
PL2を有する。そして、矩形の原像領域IMの例えば
頂点VX1、VX2が極PL1に配置され、頂点VX
3、VX4が極PL2に配置されるように、環境テクス
チャを仮想オブジェクト40にマッピングする。このよ
うにすることで、極座標変換などの変形処理を環境テク
スチャに施すことが可能になる。
In FIG. 8, the environmental texture is transformed by mapping the environmental texture to the virtual object 40. More specifically, the hemispherical virtual object 40 is composed of a plurality of polygons, and the pole PL1 in which the vertices of the plurality of polygons are gathered.
PL2. Then, for example, the vertices VX1 and VX2 of the rectangular original image area IM are arranged at the pole PL1, and the vertices VX
3. The environment texture is mapped to the virtual object 40 so that VX4 is located at the pole PL2. In this way, it is possible to perform a deformation process such as a polar coordinate conversion on the environmental texture.

【0098】図8のように、2つの極を有する極座標系
に環境テクスチャを座標変換することで、例えば、図1
3において、J1に示す部分での映り込み画像の流れ速
度を速くし、J2、J3に示す部分での映り込み画像の
流れ速度を遅くできる。これにより、映り込み画像の流
れ速度にパース効果を与えることができるようになり、
現実世界の事象に近い環境の流れ表現を実現できる。
As shown in FIG. 8, by converting the environment texture into a polar coordinate system having two poles, for example, FIG.
In (3), the flow speed of the reflected image at the portion indicated by J1 can be increased, and the flow speed of the reflected image at the portions indicated by J2 and J3 can be reduced. This makes it possible to give a perspective effect to the flow speed of the reflected image,
An environment flow expression that is close to the real world event can be realized.

【0099】一方、図14では、4つの極PL1、PL
2、PL3、PL4を有する半球形状の仮想オブジェク
ト42を用意し、この仮想オブジェクト42に環境テク
スチャをマッピングすることで、環境テクスチャの変形
処理を実現している。より具体的には、矩形の原像領域
IMの例えば頂点VX1、VX2が極PL1に配置さ
れ、頂点VX3、VX4が極PL2に配置され、頂点V
X1、VX4が極PL3に配置され、頂点VX2、VX
3が極PL4に配置されるように(頂点VX1、VX
2、VX3、VX4が辺43、44、45、46に配置
されるように)、環境テクスチャを仮想オブジェクト4
2にマッピングしている。
On the other hand, in FIG. 14, four poles PL1, PL
A hemispherical virtual object 42 having 2, PL3, and PL4 is prepared, and an environmental texture is mapped on the virtual object 42, thereby realizing a deformation process of the environmental texture. More specifically, for example, the vertices VX1 and VX2 of the rectangular original image area IM are arranged at the pole PL1, the vertices VX3 and VX4 are arranged at the pole PL2, and the vertex VX
X1 and VX4 are arranged at pole PL3, and vertices VX2 and VX
3 is arranged at the pole PL4 (vertex VX1, VX
2, so that VX3 and VX4 are arranged on the sides 43, 44, 45 and 46)
2 is mapped.

【0100】図14のように、4つの極を有する極座標
系に環境テクスチャを座標変換することで、例えば、図
13において、J4に示すように回り込みながら映り込
み画像がオブジェクト10上で流れるようになる。これ
により、映り込み画像の流れる方向にパース効果を与え
ることができ、現実世界の事象に近い環境の流れ表現を
実現できる。
As shown in FIG. 14, the environment texture is coordinate-transformed into a polar coordinate system having four poles, so that, for example, in FIG. Become. As a result, a perspective effect can be given to the direction in which the reflected image flows, and a flow representation of an environment close to a real world event can be realized.

【0101】なお、環境テクスチャをマッピングする仮
想オブジェクト40、42は、3次元オブジェクトであ
る必要はなく、2次元オブジェクトであってもよい。即
ち、図8、図14において、仮想オブジェクト40、4
2の各頂点(仮想オブジェクトを構成するポリゴンの各
頂点)には、X、Y座標(2次元座標)を持たせれば十
分であり、Z座標(3次元座標)を持たせる必要はな
い。
The virtual objects 40 and 42 for mapping the environment texture need not be three-dimensional objects, but may be two-dimensional objects. That is, in FIG. 8 and FIG.
It is sufficient if each of the vertices 2 (the vertices of the polygons constituting the virtual object) has X and Y coordinates (two-dimensional coordinates), and does not need to have Z coordinates (three-dimensional coordinates).

【0102】(3)上方向からの環境テクスチャのマッ
ピング さて、前述した第2の手法(以下、比較例と呼ぶ)の環
境マッピングでは、図15に示すように、オブジェクト
から仮想カメラの方を見た時に見える環境テクスチャを
用意しておき、この環境テクスチャを仮想カメラの方向
からマッピングしている。
(3) Mapping of Environment Texture from Above In the environment mapping of the above-described second method (hereinafter referred to as a comparative example), as shown in FIG. An environment texture that can be seen at the moment is prepared, and this environment texture is mapped from the direction of the virtual camera.

【0103】このように仮想カメラの方向からマッピン
グする理由は、仮想カメラがオブジェクトのどの場所を
注視した場合にも、その場所に環境が映り込んでいるよ
うに見せるためである。即ち、仮想カメラの注視場所が
オブジェクトの裏側に回り込んだ時に環境が映り込まな
くなってしまうと、不自然な画像になるからである。
The reason for mapping from the direction of the virtual camera in this way is that even when the virtual camera gazes at any place of the object, the environment appears to be reflected in that place. That is, if the environment is not reflected when the gaze point of the virtual camera goes behind the object, an unnatural image is obtained.

【0104】しかしながら、この比較例の環境マッピン
グには、光源の映り込みを正確に表現できないという問
題がある。即ち、仮想カメラの注視場所に光源が常に映
り込むようになってしまうため、得られる画像に矛盾が
生じる。
However, the environment mapping of this comparative example has a problem that the reflection of the light source cannot be accurately represented. That is, since the light source is always reflected at the gaze point of the virtual camera, inconsistency occurs in the obtained image.

【0105】そこで本実施形態では図16のB1に示す
ように、まず、オブジェクト10(モデルオブジェク
ト)から見て上方向(真上方向)に見えるべき環境テク
スチャを用意する(図7、図9〜図12(C)参照)。
Therefore, in the present embodiment, as shown in B1 of FIG. 16, first, an environmental texture to be seen upward (directly above) as viewed from the object 10 (model object) is prepared (FIGS. 7, 9 to 10). FIG. 12 (C)).

【0106】そして本実施形態では図16のB2に示す
ように、仮想カメラ12の位置や回転角度(方向)に依
らずに、用意された環境テクスチャを上方向からオブジ
ェクト10に対してマッピングする。このようにすれ
ば、仮想カメラ12の位置や回転角度が変化した場合に
も、光源の映り込みなどを正確に表現できる環境マッピ
ングを実現できる。
In the present embodiment, as shown at B2 in FIG. 16, the prepared environment texture is mapped onto the object 10 from above without depending on the position or rotation angle (direction) of the virtual camera 12. In this way, even when the position or rotation angle of the virtual camera 12 changes, environment mapping that can accurately represent the reflection of the light source can be realized.

【0107】図17(A)、(B)に、図15で説明し
た比較例による環境マッピングにより得られる画像の例
を示す。
FIGS. 17A and 17B show examples of images obtained by environment mapping according to the comparative example described with reference to FIG.

【0108】図17(A)では、環境テクスチャにより
映り込ませようとしている光源(夕焼け)も仮想カメラ
も共に、オブジェクト10の前方にある。そして、この
場合には、C1に示すようにオブジェクト10の前方に
光源(夕焼け)が映り込んでおり、矛盾の無い画像にな
っている。
In FIG. 17A, both the light source (sunset) and the virtual camera that are to be reflected by the environmental texture are in front of the object 10. In this case, the light source (sunset) is reflected in front of the object 10 as shown in C1, and the image is consistent.

【0109】一方、図17(B)では、光源はオブジェ
クト10の前方にあるのに対して、仮想カメラはオブジ
ェクト10の右方にある。そして、この場合に比較例の
環境マッピングでは、C2の場所に映り込むべき光源が
C3に示すようにオブジェクト10の右方に映り込んで
しまっている。即ち、実際の光源の方向に対応しない場
所に光源の映り込みが生じてしまい、矛盾のある画像に
なってしまっている。
On the other hand, in FIG. 17B, the light source is in front of the object 10, while the virtual camera is to the right of the object 10. In this case, in the environment mapping of the comparative example, the light source to be reflected at the place of C2 is reflected to the right of the object 10 as shown at C3. That is, the light source is reflected in a place that does not correspond to the actual direction of the light source, resulting in an inconsistent image.

【0110】図18(A)、(B)に、本実施形態の環
境マッピングにより得られる画像の例を示す。なお同図
では、近景の映り込みについては省略している。
FIGS. 18A and 18B show examples of images obtained by the environment mapping of the present embodiment. Note that, in the figure, the reflection of the near view is omitted.

【0111】図18(A)では、前述の図17(A)と
同様に、光源も仮想カメラも共に、オブジェクト10の
前方にある。そして、D1に示すようにオブジェクト1
0の前方に正しく光源が映り込んでおり、矛盾の無い画
像になっている。
In FIG. 18A, both the light source and the virtual camera are in front of the object 10 as in FIG. 17A. Then, as shown in D1, object 1
The light source is correctly reflected in front of 0, and the image is consistent.

【0112】一方、図18(B)では、前述の図17
(B)と同様に、光源はオブジェクト10の前方にあ
り、仮想カメラは右方にある。そして、この場合に本実
施形態の環境マッピングでは、図17(B)とは異なり
D3の場所には光源は映り込まず、D2の場所に正しく
光源が映り込んでいる。即ち、実際の光源の方向に対応
する場所に正しく光源が映り込んでおり、矛盾の無い画
像になっている。このように本実施形態によれば、仮想
カメラの位置や方向に依らずに、実際の光源の方向に対
応する場所に正しく光源の映り込みが生じる。従って、
比較例の環境マッピングでは矛盾が生じるため断念せざ
るを得なかった光源の映り込みを、矛盾無く実現できる
ようになる。
On the other hand, in FIG. 18B, FIG.
As in (B), the light source is in front of the object 10 and the virtual camera is to the right. In this case, in the environment mapping of the present embodiment, unlike FIG. 17B, the light source is not reflected at the location of D3 but is correctly reflected at the location of D2. That is, the light source is correctly reflected in a location corresponding to the actual direction of the light source, and the image has no contradiction. As described above, according to the present embodiment, the reflection of the light source correctly occurs at a location corresponding to the actual direction of the light source, regardless of the position or the direction of the virtual camera. Therefore,
In the environment mapping of the comparative example, reflection of the light source, which had to be abandoned due to inconsistency, can be realized without inconsistency.

【0113】次に、図19を用いて、オブジェクト10
にマッピングする環境テクスチャのテクスチャ座標を求
める手法について説明する。
Next, referring to FIG.
A method for obtaining the texture coordinates of the environment texture to be mapped to the image will be described.

【0114】まず、オブジェクト10のワールド座標系
での各軸回りの回転角度に基づいて、例えばローカル座
標系(XL、YL、ZL)からワールド座標系(XW、
YW、ZW)への回転マトリクスを求める。ここで、オ
ブジェクト10のワールド座標系での各軸回りの回転角
度は、プレーヤからの操作データや(プレーヤの運転操
作)、ゲームプログラム(オブジェクト10の動きを制
御するプログラム)などに基づいて各フレーム毎にリア
ルタイムに求められ、このリアルタイムに求められる回
転角度に基づいて上記回転マトリクスが求められること
になる。
First, based on the rotation angle of each object 10 about each axis in the world coordinate system, for example, the local coordinate system (XL, YL, ZL) is used to change the world coordinate system (XW,
YW, ZW). Here, the rotation angle of the object 10 around each axis in the world coordinate system is determined based on operation data from the player (the driving operation of the player), a game program (a program for controlling the movement of the object 10), and the like. The rotation matrix is calculated every time in real time, and the rotation matrix is calculated based on the rotation angle calculated in real time.

【0115】次に、求められた回転マトリクスにより、
オブジェクト10の各面の法線ベクトルN(面の向きを
表すためのベクトル)を回転させる。なお、この法線ベ
クトルは、オブジェクト10の各面(ポリゴン)の各頂
点に与えられる法線ベクトルであることが望ましいが、
各面の代表点や各ドットの法線ベクトルであってもよ
い。
Next, according to the obtained rotation matrix,
The normal vector N (vector for representing the direction of the surface) of each surface of the object 10 is rotated. It is desirable that the normal vector be a normal vector given to each vertex of each surface (polygon) of the object 10.
It may be a representative point of each surface or a normal vector of each dot.

【0116】次に、回転後の法線ベクトルNに基づい
て、テクスチャマッピングのためのU、V座標を求め
る。そして、このU、V座標に基づいて、テクスチャ記
憶部から対応するテクスチャが読み出されることにな
る。
Next, U and V coordinates for texture mapping are obtained based on the rotated normal vector N. Then, based on the U and V coordinates, the corresponding texture is read from the texture storage unit.

【0117】以上のように、法線ベクトルを回転マトリ
クスで回転させ、回転後の法線ベクトルに基づいてテク
スチャマッピングのU、V座標を求めるようにすれば、
オブジェクトの位置や方向に応じた適切な環境マッピン
グを実現できるようになる。
As described above, if the normal vector is rotated by the rotation matrix, and the U and V coordinates of the texture mapping are obtained based on the rotated normal vector,
Appropriate environment mapping according to the position and direction of the object can be realized.

【0118】即ち図20のE1では、オブジェクト10
の側面の法線ベクトルNの方向と光源の方向(光源ベク
トルの方向)が反対向きで一致するため(角度差が18
0度となるため)、オブジェクト10の側面へ映り込む
光源の輝度が最も強くなる。一方、図20のE2ではオ
ブジェクト10の側面の法線ベクトルNの方向と光源の
方向が一致しないため(角度差が180度よりも小さく
なるため)、E1の場合に比べて側面へ映り込む光源の
輝度が弱くなる。従って、オブジェクト10の位置や方
向が変化した場合に、その変化に応じて光源の映り込み
具合が変化するようになり、これまでにないリアルな画
像を生成できるようになる。
That is, in E1 of FIG.
The direction of the normal vector N on the side surface of the light source and the direction of the light source (the direction of the light source vector) match in the opposite direction (the angle difference is 18
(Because it is 0 degrees), the brightness of the light source reflected on the side surface of the object 10 is the highest. On the other hand, in E2 of FIG. 20, since the direction of the normal vector N on the side surface of the object 10 does not match the direction of the light source (because the angle difference is smaller than 180 degrees), the light source reflected on the side surface as compared with the case of E1 Brightness becomes weaker. Therefore, when the position or the direction of the object 10 changes, the degree of reflection of the light source changes according to the change, so that a more realistic image than before can be generated.

【0119】本実施形態により生成されるゲーム画像の
例を図21(A)、(B)に示すなお、同図においても
近景の映り込みについては省略している。
FIGS. 21A and 21B show examples of game images generated according to the present embodiment. In FIG. 21 also, the reflection of the foreground is omitted.

【0120】図21(A)では、オブジェクト10の左
側(画面の右側)から光源の光があたっている。この場
合に、本実施形態の環境マッピングによればF1に示す
ように、オブジェクトの左側の面に光源の映り込みが生
じており、オブジェクト10に施されるシェーディング
処理との間に矛盾が生じない光源の映り込み表現に成功
している。また本実施形態によれば、道路に落とされる
オブジェクト10の影16の形や位置と、光源の映り込
みとの間にも矛盾が生じていない。
In FIG. 21A, the light of the light source shines from the left side of the object 10 (the right side of the screen). In this case, according to the environment mapping of the present embodiment, as shown in F1, the light source is reflected on the left surface of the object, and there is no inconsistency with the shading processing performed on the object 10. The reflection of the light source has been successful. Further, according to the present embodiment, there is no contradiction between the shape and position of the shadow 16 of the object 10 dropped on the road and the reflection of the light source.

【0121】一方、図21(B)では、オブジェクト1
0の左前方側(画面の右手前側)から光源の光があたっ
ている。この場合に、本実施形態の環境マッピングによ
ればF2に示すように、オブジェクトの左前方に光源の
映り込みが生じており、オブジェクト10に施されるシ
ェーディング処理との間に矛盾が生じない光源の映り込
み表現に成功している。また、道路に落とされる影16
の形や位置と、光源の映り込みとの間にも矛盾が生じて
いない。
On the other hand, in FIG.
Light from the light source shines from the left front side of 0 (the right front side of the screen). In this case, according to the environment mapping of the present embodiment, as shown in F2, the reflection of the light source occurs at the front left of the object, and the light source does not cause inconsistency with the shading processing performed on the object 10. Has been successfully reflected. In addition, the shadow 16 dropped on the road
There is no inconsistency between the shape and position of the light source and the reflection of the light source.

【0122】(4)環境テクスチャの切り替え さて、本実施形態では、複数の環境テクスチャを用意し
ておき、オブジェクトにマッピングする環境テクスチャ
を適宜切り替えるようにしている。
(4) Switching of Environmental Textures In the present embodiment, a plurality of environmental textures are prepared, and the environmental textures to be mapped to objects are switched as appropriate.

【0123】例えば、オブジェクト(車)の通常走行時
においては、図7、図9〜図12(C)に示すような環
境テクスチャを使用する。一方、オブジェクトがトンネ
ル(広義には閉鎖空間)に進入した場合には、使用する
環境テクスチャを切り替えて、図22に示すようなトン
ネル内の壁や照明が描かれた環境テクスチャを使用す
る。
For example, during normal running of an object (vehicle), an environment texture as shown in FIGS. 7, 9 to 12C is used. On the other hand, when the object enters the tunnel (closed space in a broad sense), the environment texture to be used is switched to use the environment texture in which the wall and lighting in the tunnel are drawn as shown in FIG.

【0124】このような環境テクスチャの切り替えを行
う場合には、環境テクスチャが切り替えられたことをプ
レーヤに気づかれないようにすることが望ましい。
When such environmental texture switching is performed, it is desirable that the player does not notice that the environmental texture has been switched.

【0125】そこで本実施形態では、第1の環境テクス
チャから第2の環境テクスチャへの切り替え時に、第1
の環境テクスチャのフェイドアウト処理を行うと共に第
2の環境テクスチャのフェイドイン処理を行うようにし
ている。
Therefore, in the present embodiment, when the first environmental texture is switched to the second environmental texture, the first environmental texture is switched to the first environmental texture.
The second environment texture is faded out while the second environment texture is faded out.

【0126】即ち図23において、オブジェクト10が
トンネル50(閉鎖空間)の外を走行している場合に
は、環境テクスチャA(図7、図9〜図12(C))が
オブジェクト10にマッピングされる。そして、オブジ
ェクト10がトンネル10に進入する直前に、環境テク
スチャAのフェイドアウト処理が行われ、環境テクスチ
ャAによる画像の映り込みを徐々に消す。そして、オブ
ジェクト10がトンネル10に進入すると、今度は、環
境テクスチャB(図22)のフェイドイン処理が行わ
れ、環境テクスチャBによる画像の映り込みが徐々に見
えてくるようにする。
That is, in FIG. 23, when the object 10 is traveling outside the tunnel 50 (closed space), the environmental texture A (FIGS. 7, 9 to 12C) is mapped to the object 10. You. Immediately before the object 10 enters the tunnel 10, the environment texture A is faded out, and the reflection of the image by the environment texture A is gradually eliminated. Then, when the object 10 enters the tunnel 10, a fade-in process of the environment texture B (FIG. 22) is performed, and the reflection of the image by the environment texture B is gradually made visible.

【0127】このようにすることで、環境テクスチャが
切り替わる様子を目立たなくすることができ、より自然
でリアルな画像を生成できる。
In this manner, the switching of the environmental texture can be made inconspicuous, and a more natural and realistic image can be generated.

【0128】なお、環境テクスチャAのフェイドアウト
処理と環境テクスチャBのフェイドイン処理を同時に行
ってもよい。或いは、環境テクスチャAのフェイドアウ
ト処理を行ってから少し期間を空けて、環境テクスチャ
Bのフェイドイン処理を行うようにしてもよい。
Note that the fade-out processing of the environmental texture A and the fade-in processing of the environmental texture B may be performed simultaneously. Alternatively, the fade-in process of the environment texture B may be performed a little after the fade-out process of the environment texture A is performed.

【0129】また、環境テクスチャのフェイドアウト処
理やフェイドイン処理は、環境テクスチャのα値(透明
度)を制御することによって実現してもよいし、環境テ
クスチャの色情報自体を書き換えることで実現してもよ
い。
The fade-out processing and the fade-in processing of the environmental texture may be realized by controlling the α value (transparency) of the environmental texture, or may be realized by rewriting the color information itself of the environmental texture. Good.

【0130】また、環境テクスチャAのフェイドアウト
処理は、オブジェクト空間に設けられたトンネルなどの
閉鎖空間へのオブジェクトの進入イベントの際に行うこ
とが望ましい。即ち、現実世界においても、トンネルへ
の進入時には周囲の環境が暗くなる。従って、トンネル
への進入時に環境テクスチャAのフェイドアウト処理を
行い、周囲の環境がオブジェクトに映り込まなくなって
も、プレーヤは、それほど不自然さを感じない。従っ
て、このようなトンネルへの進入時に環境テクスチャA
のフェイドアウト処理を行うことで、環境テクスチャが
切り替わる様子を、更に目立たなくすることが可能にな
り、プレーヤの仮想現実感を増すことができる。
It is desirable that the fade-out processing of the environment texture A be performed at the time of an event of an object entering a closed space such as a tunnel provided in the object space. That is, even in the real world, the surrounding environment becomes dark when entering the tunnel. Therefore, even when the environment texture A is faded out when entering the tunnel and the surrounding environment is not reflected on the object, the player does not feel much unnaturalness. Therefore, when entering such a tunnel, the environmental texture A
By performing the fade-out process, it is possible to make the switching of the environmental texture less noticeable, and to increase the virtual reality of the player.

【0131】また本実施形態では、環境テクスチャの切
り替え処理を、コースに設定されたコース情報に基づい
て行っている。より具体的には、例えば、コース情報の
中に、環境テクスチャの種類を特定するための環境テク
スチャ特定情報を含ませておく。そして、オブジェクト
の位置に基づいてコースポイントを選択し、選択された
コースポイントに設定された環境テクスチャ特定情報を
読み出す。そして、読み出された環境テクスチャ特定情
報に基づいて、環境テクスチャを切り替える。
In this embodiment, the switching process of the environment texture is performed based on the course information set for the course. More specifically, for example, environmental texture specifying information for specifying the type of the environmental texture is included in the course information. Then, a course point is selected based on the position of the object, and environment texture specifying information set for the selected course point is read. Then, the environment texture is switched based on the read environment texture identification information.

【0132】例えば図23において、区間STAのコー
ス情報には環境テクスチャAを特定するための情報が設
定され、区間STBのコース情報には環境テクスチャB
を特定するための情報が設定される。そして、これらの
環境テクスチャ特定情報に基づいて、切り替え地点52
において環境テクスチャAからBへの切り替え処理が行
われる。このようにすることで、順位決定などに使用さ
れるコース情報を有効利用して、環境テクスチャの切り
替え処理を簡易な処理で実現できるようになる。
For example, in FIG. 23, information for specifying the environment texture A is set in the course information of the section STA, and the environment texture B is set in the course information of the section STB.
Is set. Then, based on the environmental texture specifying information, the switching point 52
, A switching process from the environmental texture A to the environmental texture B is performed. By doing so, the course information used for determining the rank can be effectively used, and the environment texture switching process can be realized by a simple process.

【0133】なお、切り替え地点52に設定されるコー
ス情報の中に、環境テクスチャ特定情報として環境テク
スチャ切り替えフラグを含ませ、この環境テクスチャ切
り替えフラグをトリガーとして、環境テクスチャを切り
替えるようにしてもよい。
The course information set at the switching point 52 may include an environment texture switching flag as environment texture specifying information, and the environment texture switching flag may be used as a trigger to switch the environment texture.

【0134】さて本実施形態では、環境テクスチャを切
り替えるための繋ぎエリアに、環境テクスチャの切り替
え用のマップオブジェクトを配置するようにしている。
In the present embodiment, a map object for switching environmental textures is arranged in a connection area for switching environmental textures.

【0135】即ち図24に示すように、地点54と地点
56の間の繋ぎエリア58に、切り替え用マップオブジ
ェクト60を配置する。そして例えば、地点54付近に
おいて環境テクスチャAのフェイドアウト処理を行い、
オブジェクト10が繋ぎエリア58に位置する場合に
は、オブジェクトへの環境テクスチャのマッピングが行
われないようにする(環境マッピングを省略する)。そ
して、地点56付近において環境テクスチャBのフェイ
ドイン処理を行い、トンネル50の中では、図22に示
すようなトンネル内の照明などを表す環境テクスチャB
を、オブジェクト10にマッピングするようにする。
That is, as shown in FIG. 24, the switching map object 60 is arranged in the connection area 58 between the point 54 and the point 56. Then, for example, a fade-out process of the environmental texture A is performed near the point 54,
When the object 10 is located in the connection area 58, the environment texture is not mapped to the object (environment mapping is omitted). Then, a fade-in process of the environment texture B is performed near the point 56, and in the tunnel 50, the environment texture B representing the lighting in the tunnel as shown in FIG.
Is mapped to the object 10.

【0136】このように、繋ぎエリア58を設け、この
繋ぎエリア58に切り替え用マップオブジェクト60を
配置して、意図的に暗い環境を創出することで、環境テ
クスチャが切り替わる様子を更に目立たなくすることが
できる。
As described above, by providing the connection area 58 and arranging the switching map object 60 in the connection area 58 to intentionally create a dark environment, it is possible to make the switching of the environment texture less noticeable. Can be.

【0137】即ち、オブジェクト10が繋ぎエリア58
に進入した場合に、環境テクスチャAがフェイドアウト
されてオブジェクトへの環境の映り込みが無くなって
も、オブジェクト10の周囲は切り替え用マップオブジ
ェクト60に覆われており、暗い環境であると想定され
ているため、プレーヤは不自然さを感じない。そして、
トンネル50内の照明が見えてきた所で、環境テクスチ
ャBのフェイドイン処理を行い、トンネル内の照明等を
オブジェクト10に映り込ませるようにする。このよう
にすることで、オブジェクト10に映り込む環境が、よ
り自然に切り替わるようになり、プレーヤの仮想現実感
を高めることができる。
That is, the object 10 is connected to the connection area 58
When the environment texture A is faded out and the environment is not reflected on the object when the vehicle enters the environment, the surroundings of the object 10 are covered with the switching map object 60, and it is assumed that the environment is dark. Therefore, the player does not feel unnatural. And
When the lighting in the tunnel 50 becomes visible, a fade-in process of the environmental texture B is performed so that the lighting and the like in the tunnel are reflected on the object 10. By doing so, the environment reflected on the object 10 can be switched more naturally, and the virtual reality of the player can be enhanced.

【0138】3.本実施形態の処理 次に、本実施形態の処理の詳細例について、図25、図
26のフローチャートを用いて説明する。
[0138] 3. Next, a detailed example of the process of the present embodiment will be described with reference to the flowcharts of FIGS.

【0139】まず、オブジェクト(車)の元絵テクスチ
ャ(オブジェクトのデザインを表すテクスチャとして予
め用意されたテクスチャ)をVRAM上のテクスチャ記
憶部に転送する(ステップS1)。
First, the original picture texture of the object (car) (texture prepared in advance as a texture representing the design of the object) is transferred to the texture storage unit in the VRAM (step S1).

【0140】次に、遠景の環境テクスチャ(図9)と、
図27(A)に示すコース情報の中の環境テクスチャ特
定情報により特定される近景の環境テクスチャ(図7、
図22)とを、テクスチャ記憶部に転送する(ステップ
S2)。なお、オブジェクトがトンネル内に位置する場
合には、遠景の環境テクスチャは転送されない。
Next, the environmental texture of the distant view (FIG. 9)
The foreground environmental texture specified by the environmental texture specifying information in the course information shown in FIG.
22) is transferred to the texture storage unit (step S2). When the object is located in the tunnel, the environment texture of the distant view is not transferred.

【0141】次に、図4(A)で説明したように、近景
の環境テクスチャのU座標を、図27(A)に示すコー
ス情報の中の道のり距離LCに基づいて計算する(ステ
ップS3)。また、図4(B)で説明したように、近景
の環境テクスチャのV座標を、図27(A)のコース情
報の中のコース幅WCに基づいて計算する(ステップS
4)。そして、これらの計算結果に基づいて、半球形状
の仮想オブジェクトの各頂点のU、V座標を計算し、得
られたU、V座標に基づいて、図8で説明したように仮
想オブジェクトに近景の環境テクスチャをマッピングす
る(ステップS5)。仮想オブジェクトの各頂点のU、
V座標は、例えば下式のように計算される。
Next, as described with reference to FIG. 4A, the U coordinate of the foreground environment texture is calculated based on the distance LC in the course information shown in FIG. 27A (step S3). . As described with reference to FIG. 4B, the V coordinate of the foreground environment texture is calculated based on the course width WC in the course information of FIG. 27A (step S).
4). Then, based on these calculation results, the U and V coordinates of each vertex of the hemispherical virtual object are calculated, and based on the obtained U and V coordinates, as described with reference to FIG. The environment texture is mapped (step S5). U of each vertex of the virtual object,
The V coordinate is calculated, for example, as in the following equation.

【0142】 UF=U0+{MOD(LC|TL)}/TL (3) VF=V0+(WP/WC) (4) 上式において、U0、V0は、仮想オブジェクトの各頂
点に対して予め与えられている初期値のU、V座標であ
る。また、LCは、コース情報が含む道のり距離であ
り、TLは、環境テクスチャのU座標方向の長さであ
り、MOD(X|Y)は、XをYで除算した場合の余り
である。また、WPは、コース幅方向でのオブジェクト
の位置であり、WCは、コース情報が含むコース幅であ
る(図27(A)、(B)参照)。
UF = U0 + {MOD (LC | TL)} / TL (3) VF = V0 + (WP / WC) (4) In the above equation, U0 and V0 are given in advance for each vertex of the virtual object. U and V coordinates of the initial values. LC is the distance covered by the course information, TL is the length of the environment texture in the U coordinate direction, and MOD (X | Y) is the remainder when X is divided by Y. WP is the position of the object in the course width direction, and WC is the course width included in the course information (see FIGS. 27A and 27B).

【0143】なお、道のり距離LCをコース情報に含ま
せないで、コースポイントPCに基づいて道のり距離L
Cを計算するようにしてもよい。即ち、この場合には、
コースポイントPC自体が道のり距離情報に相当するこ
とになる。
It is to be noted that the distance LC is not included in the course information but the distance L based on the course point PC.
C may be calculated. That is, in this case,
The course point PC itself corresponds to the distance information.

【0144】次に、近景の環境テクスチャがマッピング
された仮想オブジェクトを、図6で説明したように、コ
ース情報の中のコース方向DC(図27(A)、(B)
参照)に基づいて回転させる(ステップS6)。そし
て、テクスチャ空間の遠景の環境テクスチャの上に、回
転後の仮想オブジェクトの画像を描画する(ステップS
7)。これにより、遠景の環境テクスチャと近景の環境
テクスチャとが、テクスチャ空間(テクスチャ記憶部)
上で合成される。
Next, as described with reference to FIG. 6, the virtual object to which the foreground environment texture is mapped is stored in the course direction DC (see FIGS. 27A and 27B) in the course information.
(See step S6). Then, the image of the rotated virtual object is drawn on the environmental texture of the distant view in the texture space (step S).
7). Thereby, the environment texture of the distant view and the environment texture of the foreground are stored in the texture space (texture storage unit).
Synthesized above.

【0145】次に、オブジェクトが環境テクスチャのフ
ェイドアウト範囲又はフェイドイン範囲(図27(B)
参照)に位置するか否かを判断し(ステップS8)、い
ずれかの範囲に位置する場合には、環境テクスチャの切
り替え地点とオブジェクトとの距離に応じて、環境テク
スチャのα値(半透明度、透明度、不透明度)を変化さ
せる(ステップS9)。このようにすることで、環境テ
クスチャのフェイドアウト処理やフェイドイン処理が実
現される。この場合のα値は、例えば下式のようにして
計算される。
Next, if the object is a fade-out range or a fade-in range of the environmental texture (FIG. 27B)
Is determined (step S8). If it is located in any range, the α value of the environmental texture (semi-transparency, (Transparency, opacity) (step S9). In this way, a fade-out process and a fade-in process of the environment texture are realized. The α value in this case is calculated, for example, as in the following equation.

【0146】α=|LC−LP|/RL (5) ここで、LCは、現在のオブジェクトの位置での道のり
距離であり、LPは、切り替え地点までの道のり距離で
あり、RLは、フェイド範囲の長さ(図27(B)参
照)である。また|Z|は、Zの絶対値である。
Α = | LC−LP | / RL (5) where LC is the distance at the current position of the object, LP is the distance to the switching point, and RL is the fade range. (See FIG. 27B). | Z | is the absolute value of Z.

【0147】次に、オブジェクトデータ(オブジェクト
の頂点座標、頂点テクスチャ座標、輝度データ等)に基
づいてオブジェクトのジオメトリ処理を行う(図26の
ステップS10)。より具体的には、例えば、オブジェ
クトをローカル座標系からワールド座標系へ座標変換
し、次に、ワールド座標系から視点座標系に座標変換
し、クリッピング処理を行った後、スクリーン座標系へ
の透視変換を行う。そして、透視変換後のオブジェクト
データをメインメモリに格納し、消さないで保存してお
く(ステップS11)。
Next, the object is subjected to geometry processing based on the object data (vertex coordinates of the object, vertex texture coordinates, luminance data, etc.) (step S10 in FIG. 26). More specifically, for example, the object is converted from the local coordinate system to the world coordinate system, then the coordinate is converted from the world coordinate system to the viewpoint coordinate system, clipping is performed, and then the perspective to the screen coordinate system is performed. Perform the conversion. Then, the object data after the perspective transformation is stored in the main memory and not erased (step S11).

【0148】次に、透視変換後のオブジェクトデータ
と、図25のステップS1で転送されたオブジェクトの
元絵テクスチャとに基づき、フレームバッファにオブジ
ェクトを描画する(ステップS12)。これにより、環
境マッピングが施されていない、元のデザインのオブジ
ェクトが描画されることになる。
Next, an object is drawn in the frame buffer based on the object data after the perspective transformation and the original picture texture of the object transferred in step S1 of FIG. 25 (step S12). As a result, an object of the original design to which the environment mapping has not been performed is drawn.

【0149】次に、図19で説明したように、オブジェ
クトの各頂点の法線ベクトルを、ローカル座標系からワ
ールド座標系への回転マトリクスで回転させる(ステッ
プS13)。そして、回転後の法線ベクトルの座標NX
W、NZWに基づき、環境テクスチャのU、V座標を求
める(ステップS14)。この場合のU、V座標を求め
る計算式は例えば以下のようになる。
Next, as described with reference to FIG. 19, the normal vector of each vertex of the object is rotated by a rotation matrix from the local coordinate system to the world coordinate system (step S13). Then, the coordinates NX of the rotated normal vector
Based on W and NZW, U and V coordinates of the environment texture are obtained (step S14). The formula for calculating the U and V coordinates in this case is as follows, for example.

【0150】U=(NXW+1.0)/2 (6) V=(NZW+1.0)/2 (7) 上式のような計算を行うのは、U、V座標の変域は0.
0〜1.0であり、NXW、NZWの変域は−1.0〜
1.0だからである。
U = (NXW + 1.0) / 2 (6) V = (NZW + 1.0) / 2 (7) The calculation as in the above equation is performed when the domain of the U and V coordinates is 0.
0 to 1.0, and the range of NXW and NZW is -1.0 to
Because it is 1.0.

【0151】次に、得られたU、V座標を、ステップS
11でメインメモリに保存したオブジェクトデータ(頂
点リスト)の各頂点のU、V座標に上書きする(ステッ
プS15)。即ち、オブジェクトのモデルデータにおい
て設定されていたU、V座標を、法線ベクトルに基づき
求められたU、V座標に置き換える。
Next, the obtained U and V coordinates are stored in step S
At step 11, the U and V coordinates of each vertex of the object data (vertex list) stored in the main memory are overwritten (step S15). That is, the U and V coordinates set in the model data of the object are replaced with the U and V coordinates obtained based on the normal vector.

【0152】次に、ステップS15でU、V座標が上書
きされたオブジェクトデータと、図25のステップS7
で合成された環境テクスチャ(遠景、近景)とに基づ
き、フレームバッファにオブジェクトを描画する(ステ
ップS16)。即ち、ステップS12で既に描画された
オブジェクト(元絵テクスチャがマッピングされたオブ
ジェクト)の上に、環境テクスチャがマッピングされた
オブジェクトを上書きで描画する。このように本実施形
態では、同一座標のオブジェクトを2度書きすることで
環境マッピングを実現している。
Next, the object data in which the U and V coordinates have been overwritten in step S15 and step S7 in FIG.
The object is drawn in the frame buffer based on the environment texture (distant view, near view) synthesized in (step S16). That is, the object to which the environmental texture is mapped is overwritten on the object (the object to which the original picture texture is mapped) already drawn in step S12. As described above, in the present embodiment, environment mapping is realized by writing an object having the same coordinates twice.

【0153】4.ハードウェア構成 次に、本実施形態を実現できるハードウェアの構成の一
例について図28を用いて説明する。
4. Hardware Configuration Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.

【0154】メインプロセッサ900は、CD982
(情報記憶媒体)に格納されたプログラム、通信インタ
ーフェース990を介して転送されたプログラム、或い
はROM950(情報記憶媒体の1つ)に格納されたプ
ログラムなどに基づき動作し、ゲーム処理、画像処理、
音処理などの種々の処理を実行する。
The main processor 900 is a CD982
(Information storage medium), a program transferred via the communication interface 990, or a program stored in the ROM 950 (one of the information storage media).
Various processes such as sound processing are executed.

【0155】コプロセッサ902は、メインプロセッサ
900の処理を補助するものであり、高速並列演算が可
能な積和算器や除算器を有し、マトリクス演算(ベクト
ル演算)を高速に実行する。例えば、オブジェクトを移
動させたり動作(モーション)させるための物理シミュ
レーションに、マトリクス演算などの処理が必要な場合
には、メインプロセッサ900上で動作するプログラム
が、その処理をコプロセッサ902に指示(依頼)す
る。
The coprocessor 902 assists the processing of the main processor 900, has a multiply-accumulate unit or a divider capable of high-speed parallel operation, and executes a matrix operation (vector operation) at high speed. For example, when a physical simulation for moving or moving an object requires processing such as matrix operation, a program operating on the main processor 900 instructs the coprocessor 902 to perform the processing (request ).

【0156】ジオメトリプロセッサ904は、座標変
換、透視変換、光源計算、曲面生成などのジオメトリ処
理を行うものであり、高速並列演算が可能な積和算器や
除算器を有し、マトリクス演算(ベクトル演算)を高速
に実行する。例えば、座標変換、透視変換、光源計算な
どの処理を行う場合には、メインプロセッサ900で動
作するプログラムが、その処理をジオメトリプロセッサ
904に指示する。
The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation. The geometry processor 904 includes a multiply-accumulate unit and a divider capable of high-speed parallel computation, and performs a matrix computation (vector Calculation) at high speed. For example, when performing processing such as coordinate transformation, perspective transformation, and light source calculation, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.

【0157】データ伸張プロセッサ906は、圧縮され
た画像データや音データを伸張するデコード処理を行っ
たり、メインプロセッサ900のデコード処理をアクセ
レートする処理を行う。これにより、オープニング画
面、インターミッション画面、エンディング画面、或い
はゲーム画面などにおいて、MPEG方式等で圧縮され
た動画像を表示できるようになる。なお、デコード処理
の対象となる画像データや音データは、ROM950、
CD982に格納されたり、或いは通信インターフェー
ス990を介して外部から転送される。
The data expansion processor 906 performs a decoding process for expanding the compressed image data and sound data, and performs a process for accelerating the decoding process of the main processor 900. As a result, a moving image compressed by the MPEG method or the like can be displayed on an opening screen, an intermission screen, an ending screen, a game screen, or the like. The image data and sound data to be decoded are stored in the ROM 950,
It is stored on a CD 982 or transferred from outside via a communication interface 990.

【0158】描画プロセッサ910は、ポリゴンや曲面
などのプリミティブ面で構成されるオブジェクトの描画
(レンダリング)処理を高速に実行するものである。オ
ブジェクトの描画の際には、メインプロセッサ900
は、DMAコントローラ970の機能を利用して、オブ
ジェクトデータを描画プロセッサ910に渡すと共に、
必要であればテクスチャ記憶部924にテクスチャを転
送する。すると、描画プロセッサ910は、これらのオ
ブジェクトデータやテクスチャに基づいて、Zバッファ
などを利用した陰面消去を行いながら、オブジェクトを
フレームバッファ922に高速に描画する。また、描画
プロセッサ910は、αブレンディング(半透明処
理)、デプスキューイング、ミップマッピング、フォグ
処理、トライリニア・フィルタリング、アンチエリアシ
ング、シェーディング処理なども行うことができる。そ
して、1フレーム分の画像がフレームバッファ922に
書き込まれると、その画像はディスプレイ912に表示
される。
The drawing processor 910 executes a high-speed drawing (rendering) process of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900
Uses the function of the DMA controller 970 to pass object data to the drawing processor 910,
If necessary, the texture is transferred to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and the texture. The drawing processor 910 can also perform α blending (translucent processing), depth queuing, mip mapping, fog processing, trilinear filtering, anti-aliasing, shading processing, and the like. Then, when an image for one frame is written to the frame buffer 922, the image is displayed on the display 912.

【0159】サウンドプロセッサ930は、多チャンネ
ルのADPCM音源などを内蔵し、BGM、効果音、音
声などの高品位のゲーム音を生成する。生成されたゲー
ム音は、スピーカ932から出力される。
The sound processor 930 incorporates a multi-channel ADPCM sound source and the like, and generates high-quality game sounds such as BGM, sound effects, and sounds. The generated game sound is output from the speaker 932.

【0160】ゲームコントローラ942からの操作デー
タや、メモリカード944からのセーブデータ、個人デ
ータは、シリアルインターフェース940を介してデー
タ転送される。
Operation data from the game controller 942, save data and personal data from the memory card 944 are transferred via the serial interface 940.

【0161】ROM950にはシステムプログラムなど
が格納される。なお、業務用ゲームシステムの場合に
は、ROM950が情報記憶媒体として機能し、ROM
950に各種プログラムが格納されることになる。な
お、ROM950の代わりにハードディスクを利用する
ようにしてもよい。
The ROM 950 stores a system program and the like. In the case of the arcade game system, the ROM 950 functions as an information storage medium,
Various programs are stored in 950. Note that a hard disk may be used instead of the ROM 950.

【0162】RAM960は、各種プロセッサの作業領
域として用いられる。
The RAM 960 is used as a work area for various processors.

【0163】DMAコントローラ970は、プロセッ
サ、メモリ(RAM、VRAM、ROM等)間でのDM
A転送を制御するものである。
The DMA controller 970 is provided between the processor and the memory (RAM, VRAM, ROM, etc.).
A transfer is controlled.

【0164】CDドライブ980は、プログラム、画像
データ、或いは音データなどが格納されるCD982
(情報記憶媒体)を駆動し、これらのプログラム、デー
タへのアクセスを可能にする。
The CD drive 980 stores a CD 982 in which programs, image data, sound data, and the like are stored.
(Information storage medium) to enable access to these programs and data.

【0165】通信インターフェース990は、ネットワ
ークを介して外部との間でデータ転送を行うためのイン
ターフェースである。この場合に、通信インターフェー
ス990に接続されるネットワークとしては、通信回線
(アナログ電話回線、ISDN)、高速シリアルバスな
どを考えることができる。そして、通信回線を利用する
ことでインターネットを介したデータ転送が可能にな
る。また、高速シリアルバスを利用することで、他の画
像生成システム、他のゲームシステムとの間でのデータ
転送が可能になる。
The communication interface 990 is an interface for transferring data to and from the outside via a network. In this case, a network connected to the communication interface 990 may be a communication line (analog telephone line, ISDN), a high-speed serial bus, or the like. Then, data can be transferred via the Internet by using a communication line. Further, by using the high-speed serial bus, data transfer between another image generation system and another game system becomes possible.

【0166】なお、本発明の各手段は、その全てを、ハ
ードウェアのみにより実行してもよいし、情報記憶媒体
に格納されるプログラムや通信インターフェースを介し
て配信されるプログラムのみにより実行してもよい。或
いは、ハードウェアとプログラムの両方により実行して
もよい。
It is to be noted that each means of the present invention may be entirely executed by hardware alone, or may be executed only by a program stored in an information storage medium or a program distributed via a communication interface. Is also good. Alternatively, it may be executed by both hardware and a program.

【0167】そして、本発明の各手段をハードウェアと
プログラムの両方により実行する場合には、情報記憶媒
体には、本発明の各手段をハードウェアを利用して実行
するためのプログラムが格納されることになる。より具
体的には、上記プログラムが、ハードウェアである各プ
ロセッサ902、904、906、910、930等に
処理を指示すると共に、必要であればデータを渡す。そ
して、各プロセッサ902、904、906、910、
930等は、その指示と渡されたデータとに基づいて、
本発明の各手段を実行することになる。
When each means of the present invention is executed by both hardware and a program, a program for executing each means of the present invention using hardware is stored in the information storage medium. Will be. More specifically, the program instructs the processors 902, 904, 906, 910, 930, etc., which are hardware, to perform processing, and passes data if necessary. Then, each processor 902, 904, 906, 910,
930, etc., based on the instruction and the passed data,
Each means of the present invention will be executed.

【0168】図29(A)に、本実施形態を業務用ゲー
ムシステムに適用した場合の例を示す。プレーヤは、デ
ィスプレイ1100上に映し出されたゲーム画像を見な
がら、レバー1102、ボタン1104等を操作してゲ
ームを楽しむ。内蔵されるシステムボード(サーキット
ボード)1106には、各種プロセッサ、各種メモリな
どが実装される。そして、本発明の各手段を実行するた
めの情報(プログラム或いはデータ)は、システムボー
ド1106上の情報記憶媒体であるメモリ1108に格
納される。以下、この情報を格納情報と呼ぶ。
FIG. 29A shows an example in which the present embodiment is applied to an arcade game system. The player enjoys the game by operating the lever 1102, the button 1104, etc., while watching the game image projected on the display 1100. Various processors, various memories, and the like are mounted on a built-in system board (circuit board) 1106. Information (program or data) for executing each unit of the present invention is stored in a memory 1108 which is an information storage medium on the system board 1106. Hereinafter, this information is referred to as storage information.

【0169】図29(B)に、本実施形態を家庭用のゲ
ームシステムに適用した場合の例を示す。プレーヤはデ
ィスプレイ1200に映し出されたゲーム画像を見なが
ら、ゲームコントローラ1202、1204を操作して
ゲームを楽しむ。この場合、上記格納情報は、本体シス
テムに着脱自在な情報記憶媒体であるCD1206、或
いはメモリカード1208、1209等に格納されてい
る。
FIG. 29B shows an example in which the present embodiment is applied to a home game system. The player enjoys the game by operating the game controllers 1202 and 1204 while watching the game image projected on the display 1200. In this case, the storage information is stored in a CD 1206 or a memory card 1208, 1209, which is an information storage medium detachable from the main system.

【0170】図29(C)に、ホスト装置1300と、
このホスト装置1300とネットワーク1302(LA
Nのような小規模ネットワークや、インターネットのよ
うな広域ネットワーク)を介して接続される端末130
4-1〜1304-nとを含むシステムに本実施形態を適用
した場合の例を示す。この場合、上記格納情報は、例え
ばホスト装置1300が制御可能な磁気ディスク装置、
磁気テープ装置、メモリ等の情報記憶媒体1306に格
納されている。端末1304-1〜1304-nが、スタン
ドアロンでゲーム画像、ゲーム音を生成できるものであ
る場合には、ホスト装置1300からは、ゲーム画像、
ゲーム音を生成するためのゲームプログラム等が端末1
304-1〜1304-nに配送される。一方、スタンドア
ロンで生成できない場合には、ホスト装置1300がゲ
ーム画像、ゲーム音を生成し、これを端末1304-1〜
1304-nに伝送し端末において出力することになる。
FIG. 29 (C) shows a host device 1300,
The host device 1300 and the network 1302 (LA
N or a wide area network such as the Internet).
An example in which the present embodiment is applied to a system including 4-1 to 1304-n will be described. In this case, the storage information is, for example, a magnetic disk device that can be controlled by the host device 1300,
It is stored in an information storage medium 1306 such as a magnetic tape device and a memory. If the terminals 1304-1 to 1304-n can generate a game image and a game sound in a stand-alone manner, the host device 1300 outputs the game image and the game sound.
A game program or the like for generating a game sound is transmitted to the terminal 1.
It is delivered to 304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound,
1304-n and output at the terminal.

【0171】なお、図29(C)の構成の場合に、本発
明の各手段を、ホスト装置(サーバー)と端末とで分散
して実行するようにしてもよい。また、本発明の各手段
を実行するための上記格納情報を、ホスト装置(サーバ
ー)の情報記憶媒体と端末の情報記憶媒体に分散して格
納するようにしてもよい。
In the case of the configuration shown in FIG. 29C, each means of the present invention may be executed by distributing between a host device (server) and a terminal. Further, the storage information for executing each means of the present invention may be stored separately in an information storage medium of a host device (server) and an information storage medium of a terminal.

【0172】またネットワークに接続する端末は、家庭
用ゲームシステムであってもよいし業務用ゲームシステ
ムであってもよい。そして、業務用ゲームシステムをネ
ットワークに接続する場合には、業務用ゲームシステム
との間で情報のやり取りが可能であると共に家庭用ゲー
ムシステムとの間でも情報のやり取りが可能な携帯型情
報記憶装置(メモリカード、携帯型ゲーム装置)を用い
ることが望ましい。
The terminal connected to the network may be a home game system or an arcade game system. When the arcade game system is connected to a network, the portable information storage device is capable of exchanging information with the arcade game system and exchanging information with the home game system. (Memory card, portable game device) is desirable.

【0173】なお本発明は、上記実施形態で説明したも
のに限らず、種々の変形実施が可能である。
The present invention is not limited to those described in the above embodiments, and various modifications can be made.

【0174】例えば、本発明のうち従属請求項に係る発
明においては、従属先の請求項の構成要件の一部を省略
する構成とすることもできる。また、本発明の1の独立
請求項に係る発明の要部を、他の独立請求項に従属させ
ることもできる。
For example, in the invention according to the dependent claims of the present invention, a configuration in which some of the constituent elements of the dependent claims are omitted may be adopted. In addition, a main part of the invention according to one independent claim of the present invention may be made dependent on another independent claim.

【0175】また、環境テクスチャの原像領域を移動又
は回転させる手法は、図4(A)〜図6で説明した手法
が特に望ましいが、これに限定されるものではない。例
えばコース情報以外の情報に基づいて、原像領域を移動
又は回転させるようにしてもよい。
The method for moving or rotating the original image area of the environment texture is preferably the method described with reference to FIGS. 4A to 6, but is not limited thereto. For example, the original image area may be moved or rotated based on information other than the course information.

【0176】また、コース情報の設定手法も、図3、図
27(A)、(B)で説明した手法に限定されるもので
はない。
The method of setting the course information is not limited to the method described with reference to FIGS. 3, 27A and 27B.

【0177】また、原像領域を移動又は回転させながら
環境テクスチャをマッピングする手法では、環境テクス
チャは図16のように上方向からマッピングすることが
特に望ましいが、本発明は、これに限定されない。
In the technique of mapping the environment texture while moving or rotating the original image area, it is particularly desirable to map the environment texture from above as shown in FIG. 16, but the present invention is not limited to this.

【0178】また、図8、図14で説明した、テクスチ
ャの変形手法は、環境テクスチャの変形に限定されず、
種々のテクスチャの変形に使用できる。
The texture deformation method described with reference to FIGS. 8 and 14 is not limited to environmental texture deformation.
It can be used for various texture deformations.

【0179】また、環境テクスチャを切り替える発明に
おいては、原像領域を移動又は回転させる手法や、環境
テクスチャを上方向からマッピングする手法を採用しな
くてもよい。
In the invention for switching the environment texture, a method of moving or rotating the original image area or a method of mapping the environment texture from above may not be adopted.

【0180】また、本発明でマッピングされる環境テク
スチャの形状やデザインは、本実施形態で説明したもの
に限定されない。
The shape and design of the environment texture mapped in the present invention are not limited to those described in the present embodiment.

【0181】また、画像生成システムが、1つのオブジ
ェクトに複数のテクスチャを重ねてマッピングするとい
うマルチテクスチャマッピング(狭義のマルチテクスチ
ャマッピング)の機能をハードウェアでサポートしてい
る場合には、オブジェクトに対して、元絵テクスチャ
(モデルデータのテクスチャ)と環境テクスチャを一度
に重ねてマルチテクスチャマッピングすることが望まし
い。そして、このように1つのオブジェクトに複数のテ
クスチャを重ねる場合には、オブジェクトデータの中
に、元絵テクスチャを指定するためのテクスチャ座標、
環境テクスチャを指定するためのテクスチャ座標という
ように、複数セットのテクスチャ座標を含ませればよ
い。
If the image generation system supports a hardware function of multi-texture mapping (multi-texture mapping in a narrow sense) in which a plurality of textures are superimposed and mapped on one object, the object Therefore, it is desirable that the original picture texture (texture of the model data) and the environmental texture be overlapped at once and subjected to multi-texture mapping. When a plurality of textures are superimposed on one object, texture coordinates for designating the original picture texture are included in the object data.
A plurality of sets of texture coordinates may be included, such as texture coordinates for designating an environment texture.

【0182】また、オブジェクトにマッピングされるテ
クスチャは、色情報のテクスチャに限定されず、輝度情
報、半透明情報(α値)、表面形状情報(バンプ値)、
反射率情報、屈折率情報、或いは深さ情報などについて
のテクスチャでもよい。
The texture to be mapped to the object is not limited to the texture of the color information, but may be luminance information, translucent information (α value), surface shape information (bump value),
Textures for reflectance information, refractive index information, depth information, and the like may be used.

【0183】また本発明はレーシングゲーム以外にも種
々のゲーム(格闘ゲーム、シューティングゲーム、ロボ
ット対戦ゲーム、スポーツゲーム、競争ゲーム、ロール
プレイングゲーム、音楽演奏ゲーム、ダンスゲーム等)
に適用できる。
The present invention also includes various games other than racing games (fighting games, shooting games, robot battle games, sports games, competition games, role playing games, music playing games, dance games, etc.).
Applicable to

【0184】また本発明は、業務用ゲームシステム、家
庭用ゲームシステム、多数のプレーヤが参加する大型ア
トラクションシステム、シミュレータ、マルチメディア
端末、ゲーム画像を生成するシステムボード等の種々の
画像生成システムに適用できる。
The present invention is also applicable to various image generation systems such as arcade game systems, home game systems, large attraction systems in which many players participate, simulators, multimedia terminals, and system boards for generating game images. it can.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態の画像生成システムのブロック図の
例である。
FIG. 1 is an example of a block diagram of an image generation system according to an embodiment.

【図2】原像領域を移動又は回転しながら環境テクスチ
ャをマッピングする手法について説明するための図であ
る。
FIG. 2 is a diagram for describing a method of mapping an environment texture while moving or rotating an original image area.

【図3】コース情報について説明するための図である。FIG. 3 is a diagram for explaining course information;

【図4】図4(A)、(B)は、コース情報の中の道の
り距離、コース幅に基づいて原像領域を移動させる手法
について説明するための図である。
FIGS. 4A and 4B are diagrams for explaining a method of moving an original image area based on a distance and a course width in course information.

【図5】図5(A)、(B)は、環境テクスチャに対し
てV座標方向のマージン領域を設けない場合の手法につ
いて説明するための図である。
FIGS. 5A and 5B are diagrams for explaining a method when a margin area in the V coordinate direction is not provided for an environmental texture.

【図6】コース情報の中のコース方向に基づいて環境テ
クスチャ自体を回転させる手法について説明するための
図である。
FIG. 6 is a diagram for describing a method of rotating an environment texture itself based on a course direction in course information.

【図7】近景の環境テクスチャの一例を示す図である。FIG. 7 is a diagram illustrating an example of an environment texture of a foreground.

【図8】近景の環境テクスチャを変形して、遠景の環境
テクスチャと合成する手法について説明するための図で
ある。
FIG. 8 is a diagram for describing a method of transforming a near-view environmental texture and synthesizing it with a distant-view environmental texture.

【図9】遠景の環境テクスチャの一例を示す図である。FIG. 9 is a diagram illustrating an example of an environmental texture of a distant view.

【図10】図10(A)、(B)、(C)は、近景と遠
景が合成された環境テクスチャの例である。
FIGS. 10A, 10B, and 10C are examples of environment textures in which a near view and a distant view are combined.

【図11】図11(A)、(B)、(C)も、近景と遠
景が合成された環境テクスチャの例である。
FIGS. 11A, 11B, and 11C are also examples of environment textures in which a near view and a distant view are combined.

【図12】図12(A)、(B)、(C)も、近景と遠
景が合成された環境テクスチャの例である。
FIGS. 12A, 12B, and 12C are also examples of environment textures in which a near view and a distant view are combined.

【図13】極を有する仮想オブジェクトに環境テクスチ
ャをマッピングして環境テクスチャを変形する手法の効
果について説明するための図である。
FIG. 13 is a diagram for describing an effect of a method of transforming an environmental texture by mapping the environmental texture to a virtual object having a pole.

【図14】4つの極を有する仮想オブジェクトに環境テ
クスチャをマッピングして環境テクスチャを変形する手
法について説明するための図である。
FIG. 14 is a diagram for describing a method of transforming an environment texture by mapping the environment texture to a virtual object having four poles.

【図15】比較例の環境マッピングについて説明するた
めの図である。
FIG. 15 is a diagram for describing environment mapping of a comparative example.

【図16】上方向から環境テクスチャをマッピングする
手法について説明するための図である。
FIG. 16 is a diagram for describing a method of mapping an environment texture from above.

【図17】図17(A)、(B)は、比較例の環境マッ
ピングにより生成される画像の例について示す図であ
る。
17A and 17B are diagrams illustrating an example of an image generated by environment mapping of a comparative example.

【図18】図18(A)、(B)は、本実施形態の環境
マッピングにより生成される画像の例について示す図で
ある。
FIGS. 18A and 18B are diagrams illustrating an example of an image generated by environment mapping according to the present embodiment.

【図19】法線ベクトルを回転マトリクスで回転させる
ことでテクスチャ座標を求める手法について説明するた
めの図である。
FIG. 19 is a diagram for describing a method of obtaining texture coordinates by rotating a normal vector using a rotation matrix.

【図20】オブジェクトの回転角度の変化に応じて、オ
ブジェクトへの光源の映り込み具合が変化する様子につ
いて説明するための図である。
FIG. 20 is a diagram for explaining how the degree of reflection of a light source on an object changes according to a change in the rotation angle of the object.

【図21】図21(A)、(B)は、本実施形態により
生成されるゲーム画像の例である。
FIGS. 21A and 21B are examples of game images generated according to the present embodiment.

【図22】トンネル内で使用される近景の環境テクスチ
ャの一例を示す図である。
FIG. 22 is a diagram showing an example of a near-view environment texture used in a tunnel.

【図23】環境テクスチャの切り替え時に環境テクスチ
ャのフェイドアウト処理、フェイドイン処理を行う手法
について説明するための図である。
FIG. 23 is a diagram for describing a method of performing a fade-out process and a fade-in process of the environment texture when the environment texture is switched.

【図24】繋ぎエリアに環境テクスチャの切り替え用の
マップオブジェクトを配置する手法について説明するた
めの図である。
FIG. 24 is a diagram for describing a method of arranging a map object for switching environmental textures in a connection area.

【図25】本実施形態の詳細な処理例について示すフロ
ーチャートである。
FIG. 25 is a flowchart illustrating a detailed processing example of the present embodiment.

【図26】本実施形態の詳細な処理例について示すフロ
ーチャートである。
FIG. 26 is a flowchart illustrating a detailed processing example of the present embodiment.

【図27】図27(A)、(B)は、コース情報につい
て説明するための図である。
FIGS. 27A and 27B are diagrams for explaining course information; FIG.

【図28】本実施形態を実現できるハードウェアの構成
の一例を示す図である。
FIG. 28 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.

【図29】図29(A)、(B)、(C)は、本実施形
態が適用される種々の形態のシステムの例を示す図であ
る。
FIGS. 29A, 29B, and 29C are diagrams showing examples of various types of systems to which the present embodiment is applied.

【符号の説明】[Explanation of symbols]

10 オブジェクト 12 仮想カメラ 14 光源 16 影 30 コース 40、42 仮想オブジェクト 43、44、45、46 辺 50 トンネル(閉鎖空間) 52 切り替え地点 54、56 地点 58 繋ぎエリア 60 切り替え用マップオブジェクト 100 処理部 110 ゲーム処理部 112 移動・動作演算部 114 マップオブジェクト配置部 130 画像生成部 132 ジオメトリ処理部 134 法線ベクトル処理部 140 描画部 142 テクスチャマッピング部 144 原像領域移動・回転部 146 環境テクスチャ変形部 148 環境テクスチャ切り替え部 149 フェイド処理部 150 音生成部 160 操作部 170 記憶部 172 メインメモリ 174 フレームバッファ 176 テクスチャ記憶部 178 コース情報記憶部 179 マップオブジェクト情報記憶部 180 情報記憶媒体 190 表示部 192 音出力部 194 携帯型情報記憶装置 196 通信部 Reference Signs List 10 object 12 virtual camera 14 light source 16 shadow 30 course 40, 42 virtual object 43, 44, 45, 46 side 50 tunnel (closed space) 52 switching point 54, 56 point 58 connection area 60 switching map object 100 processing unit 110 game Processing unit 112 Movement / motion calculation unit 114 Map object placement unit 130 Image generation unit 132 Geometry processing unit 134 Normal vector processing unit 140 Drawing unit 142 Texture mapping unit 144 Original image area movement / rotation unit 146 Environmental texture transformation unit 148 Environmental texture Switching unit 149 Fade processing unit 150 Sound generation unit 160 Operation unit 170 Storage unit 172 Main memory 174 Frame buffer 176 Texture storage unit 178 Course information storage unit 179 Object information storing unit 180 the information storage medium 190 display unit 192 audio output unit 194 portable information storage device 196 communication unit

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 15/00 100 A63F 13/00 G06T 17/40 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int. Cl. 7 , DB name) G06T 15/00 100 A63F 13/00 G06T 17/40

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 画像を生成するための画像生成システム
であって、 テクスチャパターンが定義されるテクスチャ空間におい
て環境マッピングの原像領域を移動又は回転させなが
ら、環境テクスチャをオブジェクトにマッピングする手
段と、 オブジェクト空間において仮想カメラから見える画像を
描画する手段とを含み、オブジェクトが移動するコースにコースポイントが設定
され、コースポイントに対してコース情報が設定され、
オブジェクトの位置に基づいて1又は複数のコースポイ
ントが選択され、選択されたコースポイントに設定され
たコース情報に基づいて、オブジェクトに施される環境
マッピングの原像領域を移動又は回転させる ことを特徴
とする画像生成システム。
1. An image generation system for generating an image, wherein a means for mapping an environment texture to an object while moving or rotating an original image area for environment mapping in a texture space in which a texture pattern is defined, Means for drawing an image viewed from the virtual camera in the object space, and a course point is set on a course along which the object moves.
Course information is set for the course points,
One or more course points based on the position of the object
Event is selected and set to the selected course point.
Environment applied to the object based on the course information
An image generation system for moving or rotating an original image area for mapping .
【請求項2】 請求項1において、 前記コース情報がコースの道のり距離情報を含み、前記
道のり距離情報に基づいて、環境マッピングの原像領域
を第1の方向に沿って移動させることを特徴とする画像
生成システム。
2. The method according to claim 1, wherein the course information includes distance information of a course, and the original image area of the environment mapping is moved in a first direction based on the distance information of the course. Image generation system.
【請求項3】 請求項2において、 前記コース情報がコース幅情報を含み、前記コース幅情
報に基づいて、環境マッピングの原像領域を前記第1の
方向とは異なる第2の方向に沿って移動させることを特
徴とする画像生成システム。
3. The method according to claim 2, wherein the course information includes course width information, and based on the course width information, the original image area of the environment mapping is arranged along a second direction different from the first direction. An image generation system characterized by moving.
【請求項4】 請求項1乃至3のいずれかにおいて、 オブジェクトが移動するコースに設定されたコース情報
がコース方向情報を含み、前記コース方向情報に基づい
て、オブジェクトにマッピングされる環境テクスチャ自
体を回転させることを特徴とする画像生成システム。
4. The method according to claim 1, wherein the course information set for the course on which the object moves includes course direction information, and the environment texture itself mapped to the object is determined based on the course direction information. An image generation system characterized by rotating.
【請求項5】 コンピュータが使用可能な情報記憶媒体
であって、 テクスチャパターンが定義されるテクスチャ空間におい
て環境マッピングの原像領域を移動又は回転させなが
ら、環境テクスチャをオブジェクトにマッピングする手
段と、 オブジェクト空間において仮想カメラから見える画像を
描画する手段と、 をコンピュータに実現させるためのプログラムを含み、オブジェクトが移動するコースにコースポイントが設定
され、コースポイントに対してコース情報が設定され、
オブジェクトの位置に基づいて1又は複数のコースポイ
ントが選択され、選択されたコースポイントに設定され
たコース情報に基づいて、オブジェクトに施される環境
マッピングの原像領域を移動又は回転させる ことを特徴
とする情報記憶媒体。
5. An information storage medium usable by a computer, comprising: means for mapping an environment texture to an object while moving or rotating an environment mapping original image area in a texture space in which a texture pattern is defined; Means for drawing an image that can be viewed from a virtual camera in space, and a program for causing a computer to realize, and a course point is set on a course where the object moves
Course information is set for the course points,
One or more course points based on the position of the object
Event is selected and set to the selected course point.
Environment applied to the object based on the course information
An information storage medium for moving or rotating an original image area for mapping .
【請求項6】 請求項5において、 前記コース情報がコースの道のり距離情報を含み、前記
道のり距離情報に基づいて、環境マッピングの原像領域
を第1の方向に沿って移動させることを特徴とする情報
記憶媒体。
6. The method according to claim 5, wherein the course information includes distance information of a course, and the original image area of the environment mapping is moved in a first direction based on the distance information of the course. Information storage medium.
【請求項7】 請求項6において、 前記コース情報がコース幅情報を含み、前記コース幅情
報に基づいて、環境マッピングの原像領域を前記第1の
方向とは異なる第2の方向に沿って移動させることを特
徴とする情報記憶媒体。
7. The method according to claim 6, wherein the course information includes course width information, and based on the course width information, an original image area of environment mapping is arranged along a second direction different from the first direction. An information storage medium characterized by being moved.
【請求項8】 請求項5乃至7のいずれかにおいて、 オブジェクトが移動するコースに設定されたコース情報
がコース方向情報を含み、前記コース方向情報に基づい
て、オブジェクトにマッピングされる環境テクスチャ自
体を回転させることを特徴とする情報記憶媒体。
8. The method according to claim 5, wherein the course information set for the course on which the object moves includes course direction information, and the environment texture itself mapped to the object is determined based on the course direction information. An information storage medium characterized by being rotated.
JP34514199A 1999-12-03 1999-12-03 Image generation system and information storage medium Expired - Fee Related JP3269813B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34514199A JP3269813B2 (en) 1999-12-03 1999-12-03 Image generation system and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34514199A JP3269813B2 (en) 1999-12-03 1999-12-03 Image generation system and information storage medium

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2001323984A Division JP4450535B2 (en) 2001-10-22 2001-10-22 Image generation system and information storage medium
JP2001323983A Division JP4443084B2 (en) 2001-10-22 2001-10-22 Image generation system and information storage medium

Publications (2)

Publication Number Publication Date
JP2001160151A JP2001160151A (en) 2001-06-12
JP3269813B2 true JP3269813B2 (en) 2002-04-02

Family

ID=18374566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34514199A Expired - Fee Related JP3269813B2 (en) 1999-12-03 1999-12-03 Image generation system and information storage medium

Country Status (1)

Country Link
JP (1) JP3269813B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003091736A (en) 2001-07-13 2003-03-28 Sony Computer Entertainment Inc Plotting processor, recording medium with plotting processing program recorded thereon, plotting processing program and plotting processng method
JP4856335B2 (en) * 2001-09-17 2012-01-18 株式会社バンダイナムコゲームス Program, information storage medium, and game apparatus
JP4902847B2 (en) * 2006-03-29 2012-03-21 株式会社バンダイナムコゲームス PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP6622686B2 (en) * 2016-12-01 2019-12-18 株式会社ミクシィ Information processing apparatus, information processing apparatus control method, and control program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
「開校!3Dビデオ大学 Part3 3D表現を極める−その手法とキーワード解説」,DOS/Vマガジン

Also Published As

Publication number Publication date
JP2001160151A (en) 2001-06-12

Similar Documents

Publication Publication Date Title
JP4527853B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP3249955B2 (en) Image generation system and information storage medium
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP3280355B2 (en) Image generation system and information storage medium
JP4721476B2 (en) Image generation system and information storage medium
JP3269813B2 (en) Image generation system and information storage medium
JP3297410B2 (en) Image generation system and information storage medium
JP4651204B2 (en) Image generation system, program, and information storage medium
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2001079261A (en) Image forming system and information recording medium
JP4187192B2 (en) Image generation system, program, and information storage medium
JP2005209217A (en) Game system and information storage medium
JP4245356B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2001229403A (en) Game system and information storage medium
JP3254195B2 (en) Image generation system and information storage medium
JP2001229395A (en) Game system and information storage medium
JP4574058B2 (en) Image generation system, program, and information storage medium
JP4450535B2 (en) Image generation system and information storage medium
JP3292713B2 (en) Image generation system and information storage medium
JP4698701B2 (en) Image generation system, program, and information storage medium
JP3431562B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4592087B2 (en) Image generation system, program, and information storage medium
JP4394211B2 (en) Image generation system and information storage medium
JP4443084B2 (en) Image generation system and information storage medium
JP2007164736A (en) Image generation system, program and information storage medium

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20011225

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080118

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080118

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090118

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100118

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100118

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100118

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees