JP2007141079A - Program, information storage medium, and image generation system - Google Patents

Program, information storage medium, and image generation system Download PDF

Info

Publication number
JP2007141079A
JP2007141079A JP2005336047A JP2005336047A JP2007141079A JP 2007141079 A JP2007141079 A JP 2007141079A JP 2005336047 A JP2005336047 A JP 2005336047A JP 2005336047 A JP2005336047 A JP 2005336047A JP 2007141079 A JP2007141079 A JP 2007141079A
Authority
JP
Japan
Prior art keywords
texture
triangular
tetrahedral
environment
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005336047A
Other languages
Japanese (ja)
Inventor
Takashi Imakire
隆 今給黎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2005336047A priority Critical patent/JP2007141079A/en
Publication of JP2007141079A publication Critical patent/JP2007141079A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program, an information storage medium and an image generation system capable of attaining real environmental mapping with a reduced resource. <P>SOLUTION: This image generation system includes a tetrahedral environmental texture generating part, a texture storage part secured with a texture area formed by triangular areas TR1, TR2, TR3, TR4, and a texture mapping part. The tetrahedral environmental texture generating part sets sight line directions of a virtual camera along directions D1, D2, D3, D4 to execute lettering processing, and draws images IM1, IM2, IM3, IM4 on the triangular areas TR1, TR2, TR3, TR4 in the texture area to generate a tetrahedral environmental texture in the texture area formed by the areas TR1, TR2, TR3, TR4. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、プログラム、情報記憶媒体及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

従来より、車、キャラクタなどのオブジェクトが配置設定されるオブジェクト空間内(仮想的な3次元空間)において仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。このような画像生成システムでは、仮想現実感の向上のために、よりリアルな画像を生成することが課題となっており、このような課題を解決する1つの手法として、環境マッピングと呼ばれる手法が知られている。   Conventionally, an image generation system (game system) that generates an image that can be viewed from a virtual camera (a given viewpoint) in an object space (virtual three-dimensional space) in which objects such as cars and characters are arranged and set is known. It is very popular for experiencing so-called virtual reality. In such an image generation system, there is a problem of generating a more realistic image in order to improve virtual reality. One method for solving such a problem is a method called environment mapping. Are known.

この環境マッピングのうち動的環境マッピングでは、オブジェクトの周囲の環境を表す環境テクスチャを動的(リアルタイム)に生成し、生成された環境テクスチャをオブジェクトにマッピングすることで、オブジェクトへの環境の映り込みを表現する。   Among these environment mappings, dynamic environment mapping dynamically (real-time) generates an environment texture that represents the environment around the object, and maps the generated environment texture to the object, thereby reflecting the environment on the object. Express.

また環境マッピングとしては、四面体環境マッピングやキューブ環境マッピングなどが知られている。そしてキューブ環境マッピングはハードウェアによりサポートされている場合が多いが、四面体環境マッピングはハードウェアによりサポートされていない場合が多い。従って、限られたメモリー等のリソースで、如何にしてリアルな環境マッピングを実現するかが技術的課題になる。
特開2001−70633号公報
As environment mapping, tetrahedral environment mapping, cube environment mapping, and the like are known. Cube environment mapping is often supported by hardware, but tetrahedral environment mapping is often not supported by hardware. Therefore, how to realize realistic environment mapping with limited resources such as memory becomes a technical issue.
JP 2001-70633 A

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、少ないリソースでリアルな環境マッピングを実現できるプログラム、情報記憶媒体及び画像生成システムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a program, an information storage medium, and an image generation system capable of realizing a real environment mapping with few resources. .

本発明は、画像を生成する画像生成システムであって、四面体環境テクスチャを生成する四面体環境テクスチャ生成部と、第1の三角形領域と、前記第1の三角形領域と辺を共有する第2の三角形領域と、前記第2の三角形領域と辺を共有する第3の三角形領域と、前記第3の三角形領域と辺を共有する第4の三角形領域とにより形成されるテクスチャ領域が確保されるテクスチャ記憶部と、オブジェクトに対してテクスチャマッピング処理を行うテクスチャマッピング部とを含み、前記四面体環境テクスチャ生成部は、仮想カメラの視線方向を第1、第2、第3、第4の方向に設定して第1、第2、第3、第4のレンダリング処理を行い、前記第1、第2、第3、第4のレンダリング処理により、第1、第2、第3、第4の画像を前記テクスチャ領域の前記第1、第2、第3、第4の三角形領域に描画することで、前記第1、第2、第3、第4の三角形領域により形成される前記テクスチャ領域に四面体環境テクスチャを生成する画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。   The present invention is an image generation system that generates an image, and includes a tetrahedral environment texture generation unit that generates a tetrahedral environment texture, a first triangular area, and a second that shares an edge with the first triangular area. A texture region formed by the triangular region, the third triangular region sharing the side with the second triangular region, and the fourth triangular region sharing the side with the third triangular region is secured. A texture storage unit, and a texture mapping unit that performs a texture mapping process on the object, wherein the tetrahedral environment texture generation unit changes the line-of-sight direction of the virtual camera in the first, second, third, and fourth directions. The first, second, third, and fourth rendering processes are set and the first, second, third, and fourth rendering processes are used to perform the first, second, third, and fourth rendering processes. The tech A tetrahedral environment is formed in the texture region formed by the first, second, third, and fourth triangular regions by drawing in the first, second, third, and fourth triangular regions of the tea region. The present invention relates to an image generation system for generating a texture. The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

本発明では、仮想カメラの視線方向が第1、第2、第3、第4の方向に設定されて生成された第1、第2、第3、第4の画像が、テクスチャ領域の第1、第2、第3、第4の三角形領域に描画される。そして、第1、第2、第3、第4の三角形領域により形成されるテクスチャ領域に、四面体環境テクスチャが生成され、環境テクスチャマッピングが行われる。このようにテクスチャ領域に四面体環境テクスチャを生成すれば、テクスチャ記憶部の使用記憶容量を節約できるため、少ないリソースでリアルな環境マッピングを実現できる。   In the present invention, the first, second, third, and fourth images generated by setting the viewing direction of the virtual camera to the first, second, third, and fourth directions are the first of the texture regions. , Drawn in the second, third and fourth triangular regions. Then, a tetrahedral environment texture is generated in the texture region formed by the first, second, third, and fourth triangular regions, and environment texture mapping is performed. If the tetrahedral environment texture is generated in the texture area in this way, the used storage capacity of the texture storage unit can be saved, so that realistic environment mapping can be realized with a small amount of resources.

また本発明では、前記第1、第2、第3、第4の三角形領域は直角三角形領域であり、前記テクスチャ記憶部には、前記第1、第2、第3、第4の三角形領域により形成される矩形のテクスチャ領域が確保されていてもよい。   In the present invention, the first, second, third, and fourth triangular regions are right-angled triangular regions, and the texture storage unit includes the first, second, third, and fourth triangular regions. A rectangular texture region to be formed may be secured.

このように、確保されるテクスチャ領域を矩形の形状にすれば、テクスチャ記憶領域を更に効率的に使用できるようになる。   As described above, if the secured texture area is rectangular, the texture storage area can be used more efficiently.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記四面体環境テクスチャ生成部は、前記第1、第2、第3、第4の画像の三角形領域の形状が前記第1、第2、第3、第4の三角形領域の形状に変形されるように、前記第1、第2、第3、第4のレンダリング処理を行って、前記四面体環境テクスチャを生成するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the tetrahedral environment texture generation unit has a triangular area shape of the first, second, third, and fourth images. The tetrahedral environment texture may be generated by performing the first, second, third, and fourth rendering processes so as to be transformed into the shapes of the second, third, and fourth triangular regions. Good.

この場合の変形処理は、変形を実現するマトリクスを、レンダリング処理に使用するマトリクスに含ませることで実現できる。   The deformation process in this case can be realized by including a matrix for realizing the deformation in a matrix used for the rendering process.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記四面体環境テクスチャ生成部は、前記第1、第2の三角形領域の境界、前記第2、第3の三角形領域の境界、前記第3、第4の三角形領域の境界において画像が連続するように、前記第1、第2、第3、第4のレンダリング処理を行って、前記四面体環境テクスチャを生成するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the tetrahedral environment texture generation unit includes a boundary between the first and second triangular regions, a boundary between the second and third triangular regions, The tetrahedral environment texture may be generated by performing the first, second, third, and fourth rendering processes so that the images are continuous at the boundary between the third and fourth triangular regions. .

このようにすれば、四面体環境テクスチャにおいて三角形領域間の境界の画像が連続するようになる。従って四面体環境テクスチャに対して所与の処理を行った場合に、正しい処理結果を得ることができ、画像の品質の向上等を図れる。   In this way, the image of the boundary between the triangular regions becomes continuous in the tetrahedral environment texture. Accordingly, when a given process is performed on the tetrahedral environment texture, a correct processing result can be obtained, and the quality of the image can be improved.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記矩形テクスチャ領域に生成された前記四面体環境テクスチャに対してエフェクト処理を施すエフェクト処理部を含むようにしてもよい。   The image generation system, the program, and the information storage medium according to the present invention may include an effect processing unit that performs an effect process on the tetrahedral environment texture generated in the rectangular texture region.

このようなエフェクト処理を行うことで、高品質でリアルな環境マッピングを実現できる。また本発明では、四面体環境テクスチャにおいて三角形領域間の境界の画像が連続するようになる。従って、このようなエフェクト処理を行った場合にも、正しい処理結果を得ることができ、画像の品質の向上等を図れる。   By performing such effect processing, high-quality and realistic environment mapping can be realized. In the present invention, the image of the boundary between the triangular regions is continuous in the tetrahedral environment texture. Therefore, even when such effect processing is performed, a correct processing result can be obtained, and the quality of the image can be improved.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、生成された四面体環境テクスチャに基づいて、キューブ環境テクスチャを生成するキューブ環境テクスチャ生成部を含み(キューブ環境テクスチャ生成部としてコンピュータを機能させ)、前記テクスチャマッピング部は、生成されたキューブ環境テクスチャに基づいてテクスチャマッピング処理を行うようにしてもよい。   The image generation system, program, and information storage medium according to the present invention include a cube environment texture generation unit that generates a cube environment texture based on the generated tetrahedral environment texture (the computer functions as the cube environment texture generation unit). The texture mapping unit may perform a texture mapping process based on the generated cube environment texture.

このようにすれば、例えばキューブ環境マッピングがサポートされているような画像生成システムにおいて、少ない処理負荷でリアルな環境マッピングを実現できる。   In this way, for example, in an image generation system that supports cube environment mapping, real environment mapping can be realized with a small processing load.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記キューブ環境テクスチャ生成部は、前記第1、第2、第3、第4の三角形領域に描画された第1、第2、第3、第4の三角形画像が、その第1、第2、第3、第4のプリミティブ面にマッピングされる四面体オブジェクトを用いて、前記キューブ環境テクスチャを生成するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the cube environment texture generation unit includes the first, second, and second drawn in the first, second, third, and fourth triangular regions. The cube environment texture may be generated using a tetrahedral object in which the third and fourth triangular images are mapped to the first, second, third and fourth primitive surfaces.

このようにすれば、四面体オブジェクトを用意するだけで、四面体環境テクスチャを用いたキューブ環境マッピングを実現できるようになる。   In this way, it is possible to realize cube environment mapping using a tetrahedral environment texture only by preparing a tetrahedral object.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記キューブ環境テクスチャ生成部は、前記四面体オブジェクト内に設定された仮想カメラの視線方向を、第5、第6、第7、第8、第9、第10の方向に設定して第5、第6、第7、第8、第9、第10のレンダリング処理を行うことで、前記キューブ環境テクスチャを生成するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the cube environment texture generation unit sets the line-of-sight direction of the virtual camera set in the tetrahedral object to the fifth, sixth, seventh, The cube environment texture may be generated by performing the fifth, sixth, seventh, eighth, ninth, and tenth rendering processes by setting the eighth, ninth, and tenth directions. .

こうすれば簡素な処理でキューブ環境テクスチャを生成できる。   In this way, the cube environment texture can be generated with a simple process.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記テクスチャマッピング部は、前記第1、第2、第3、第4の三角形領域に描画された第1、第2、第3、第4の三角形画像が、その第1、第2、第3、第4のプリミティブ面にマッピングされる四面体オブジェクトを用いて、オブジェクトに対する環境マッピングを行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the texture mapping unit includes the first, second, third, and third drawn in the first, second, third, and fourth triangular regions. The fourth triangular image may be subjected to environment mapping with respect to the object using a tetrahedral object mapped to the first, second, third, and fourth primitive planes.

このようにすれば、例えばスフィア環境マッピングなどの種々の環境マッピングを実現できるようになる。   In this way, various environment mappings such as sphere environment mapping can be realized.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game system) of the present embodiment. Note that the image generation system of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。   The operation unit 160 is for a player to input operation data, and the function can be realized by a lever, a button, a steering, a microphone, a touch panel display, a housing, or the like. The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、ハードディスク、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), hard disk, or memory (ROM). It can be realized by. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

携帯型情報記憶装置194は、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。通信部196は外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device. The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or communication ASICs, programs, and the like. It can be realized by.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   A program (data) for causing a computer to function as each unit of the present embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (or storage unit 170) via the network and communication unit 196. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は記憶部170(主記憶部172)をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, as the game process, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result are calculated. There is a process or a process of ending a game when a game end condition is satisfied. The processing unit 100 performs various processes using the storage unit 170 (main storage unit 172) as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部114、描画部120、音生成部130を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 114, a drawing unit 120, and a sound generation unit 130. Note that some of these may be omitted.

オブジェクト空間設定部110は、車、電車、キャラクタ、建物、球場、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のモデルデータ記憶部176には、移動体オブジェクト(車)、固定物オブジェクト(ビル)、背景オブジェクト(マップ、天球)のモデルデータが記憶されている。そしてオブジェクト空間設定部110は、このモデルデータを用いてオブジェクト空間へのオブジェクトの設定(配置)処理を行う。   The object space setting unit 110 includes various objects (primitive surfaces such as polygons, free-form surfaces, and subdivision surfaces) representing display objects such as cars, trains, characters, buildings, stadiums, trees, pillars, walls, and maps (terrain). The object is placed and set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, the model data storage unit 176 of the storage unit 170 stores model data of a moving object (car), a fixed object (building), and a background object (map, celestial sphere). Then, the object space setting unit 110 performs an object setting (arrangement) process in the object space using the model data.

移動・動作処理部112は、オブジェクト(車、キャラクタ、電車又は飛行機等)の移動・動作演算(移動・動作シミュレーション)を行う。即ち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、オブジェクト(モデルオブジェクト)をオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させる処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of an object (car, character, train, airplane, etc.). That is, an object (model object) is moved in the object space or an object is moved based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), or the like. Perform processing (motion, animation). Specifically, a simulation process for sequentially obtaining object movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) every frame (1/60 second). Do. A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   The virtual camera control unit 114 performs a virtual camera (viewpoint) control process for generating an image viewed from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.

例えば仮想カメラによりオブジェクト(例えばキャラクタ、ボール、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   For example, when an object (eg, character, ball, car) is photographed from behind using a virtual camera, the position or rotation angle of the virtual camera (the direction of the virtual camera is set so that the virtual camera follows changes in the position or rotation of the object. ) To control. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まずモデル(オブジェクト)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むモデルデータが入力され、入力されたモデルデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. When generating a so-called three-dimensional game image, model data including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the model (object) is first input. Based on the vertex data included in the input model data, vertex processing (shading by a vertex shader) is performed. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、あるいは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。   In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate conversion (world coordinate conversion, camera coordinate conversion), clipping processing, perspective processing, and other geometric processing are performed. On the basis of the processing result, the vertex data given to the vertex group constituting the object is changed (updated or adjusted). Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed.

ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたモデルの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。即ち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed model is output (drawn) to the drawing buffer 174 (a buffer capable of storing image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. As a result, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   The vertex processing and pixel processing are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.

そして描画部120は、オブジェクトを描画する際に、ジオメトリ処理、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs geometry processing, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。そして、ジオメトリ処理後(透視投影変換後)のモデルデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、記憶部170に保存される。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, model data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the storage unit 170. .

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照する。そして参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing can be performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which Z values (depth information) of drawing pixels are stored. . That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer is referred to. Then, the Z value of the referenced Z buffer is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is a Z value (for example, a small Z value) on the near side when viewed from the virtual camera. In some cases, the drawing process of the drawing pixel is performed and the Z value of the Z buffer is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value).

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

描画部120は、四面体環境テクスチャ生成部122、エフェクト処理部124、キューブ環境テクスチャ生成部126、テクスチャマッピング部128を含む。なおこれらの一部を省略した構成にしてもよい。   The drawing unit 120 includes a tetrahedral environment texture generation unit 122, an effect processing unit 124, a cube environment texture generation unit 126, and a texture mapping unit 128. Note that some of these may be omitted.

四面体環境テクスチャ生成部122は、四面体環境テクスチャ(Tetrahedron environment texture)の生成処理を行う。具体的にはテクスチャ記憶部178には、例えば矩形のテクスチャ領域が確保される。そしてこの矩形テクスチャ領域(広義にはテクスチャ領域)は、第1の直角三角形領域(広義には第1の三角形領域)と、第1の直角三角形領域と長辺(広義には辺)を共有(一致)する第2の直角三角形領域(広義には第2の三角形領域)と、第2の直角三角形領域と短辺(広義には辺)を共有する第3の直角三角形領域(広義には第3の三角形領域)と、第3の直角三角形領域と長辺(辺)を共有する第4の直角三角形領域(広義には第4の三角形領域)とにより形成される。そして四面体環境テクスチャ生成部122は、仮想カメラの視線方向を第1、第2、第3、第4の方向に設定して第1、第2、第3、第4のレンダリング処理を行って、仮想カメラの視線方向が第1、第2、第3、第4の方向に向いた場合に見える画像を生成する。具体的には例えば、第1、第2、第3、第4の画像の三角形領域(正三角形領域)の形状が、第1、第2、第3、第4の直角三角形領域(第1、第2、第3、第4の三角形領域)の形状に変形されるように、第1、第2、第3、第4のレンダリング処理を行う。この形状の変形は、レンダリング処理の際に使用されるマトリクスにより実現できる。また四面体環境テクスチャ生成部122は、第1、第2の直角三角形領域の境界(長辺)、第2、第3の直角三角形領域の境界(短辺)、第3、第4の直角三角形領域の境界(長辺)において画像(ピクセル画像)が連続するように、第1、第2、第3、第4のレンダリング処理を行う。なお第1、第2、第3、第4のレンダリング処理の順序は任意である。   The tetrahedral environment texture generation unit 122 performs a tetrahedral environment texture generation process. Specifically, for example, a rectangular texture area is secured in the texture storage unit 178. This rectangular texture area (texture area in a broad sense) shares a long side (side in a broad sense) with the first right triangle area (first triangle area in a broad sense) and the first right triangle area (in a broad sense). The second right triangle region (second triangle region in a broad sense) and the third right triangle region (second in a broad sense) that share a short side (side in a broad sense) with the second right triangle region. 3 triangle regions) and a fourth right triangle region (fourth triangle region in a broad sense) sharing a long side (side) with the third right triangle region. Then, the tetrahedral environment texture generation unit 122 performs the first, second, third, and fourth rendering processes by setting the viewing direction of the virtual camera to the first, second, third, and fourth directions. Then, an image that is visible when the viewing direction of the virtual camera is in the first, second, third, and fourth directions is generated. Specifically, for example, the shape of the triangular area (regular triangular area) of the first, second, third, and fourth images is the first, second, third, and fourth right triangle areas (first, second, The first, second, third, and fourth rendering processes are performed so as to be transformed into the shape of the second, third, and fourth triangular regions. This deformation of the shape can be realized by a matrix used in the rendering process. The tetrahedral environment texture generation unit 122 also includes the boundaries (long sides) of the first and second right triangle regions, the boundaries (short sides) of the second and third right triangle regions, and the third and fourth right triangles. The first, second, third, and fourth rendering processes are performed so that the images (pixel images) are continuous at the boundary (long side) of the region. The order of the first, second, third, and fourth rendering processes is arbitrary.

そしてこれらの第1、第2、第3、第4のレンダリング処理により、第1、第2、第3、第4の画像(三角形画像、正三角形画像)が、テクスチャ記憶部178のテクスチャ領域の第1、第2、第3、第4の直角三角形領域に描画される。これにより、第1、第2、第3、第4の直角三角形領域により構成される矩形のテクスチャ領域(テクスチャ記憶部178)に四面体環境マッピング用の環境テクスチャが生成(描画)される。   Then, through these first, second, third, and fourth rendering processes, the first, second, third, and fourth images (triangle images and equilateral triangle images) are converted into texture regions of the texture storage unit 178. It is drawn in the first, second, third and fourth right triangle regions. As a result, an environment texture for tetrahedral environment mapping is generated (drawn) in a rectangular texture region (texture storage unit 178) constituted by the first, second, third, and fourth right triangle regions.

エフェクト(ぼかし)処理部124は、テクスチャ記憶部178の矩形テクスチャ領域に生成された四面体環境テクスチャに対してエフェクト処理を施す。この場合のエフェクト処理としては、ぼかし処理、エッジ抽出処理などの各種のフィルタ処理がある。またぼかし処理としては、ピクセル値の平均化処理、ピクセルの入れ替え処理などがある。   The effect (blurring) processing unit 124 performs effect processing on the tetrahedral environment texture generated in the rectangular texture region of the texture storage unit 178. The effect processing in this case includes various filter processing such as blur processing and edge extraction processing. The blurring processing includes pixel value averaging processing, pixel replacement processing, and the like.

キューブ環境テクスチャ生成部126(テクスチャ変換部)は、四面体環境テクスチャ生成部122により生成された四面体環境テクスチャ(Cube environment texture)に基づいて、キューブ環境テクスチャの生成処理を行う。具体的には、第1、第2、第3、第4の直角三角形領域に描画された第1、第2、第3、第4の直角三角形画像(広義には第1、第2、第3、第4の三角形画像)が、その第1、第2、第3、第4のプリミティブ面(ポリゴン)にマッピングされる四面体オブジェクトを用意する。即ち第1、第2、第3、第4の直角三角形画像が第1、第2、第3、第4の面にマッピングされるようにテクスチャ座標が設定された四面体オブジェクトを用意する。この四面体オブジェクトのデータはモデルデータ記憶部176に記憶しておくことができる。そしてキューブ環境テクスチャ生成部126は、この四面体オブジェクトを用いたレンダリング処理を行うことで、キューブ環境テクスチャを生成する。具体的には、四面体オブジェクト内に配置された仮想カメラの視線方向を、第5、第6、第7、第8、第9、第10の方向(前、右、後、左、下、上方向)に設定して第5、第6、第7、第8、第9、第10のレンダリング処理を行うことで、キューブ環境テクスチャを生成する。   The cube environment texture generation unit 126 (texture conversion unit) performs a cube environment texture generation process based on the tetrahedral environment texture generated by the tetrahedral environment texture generation unit 122. Specifically, the first, second, third, and fourth right triangle images (first, second, and second in a broad sense) drawn in the first, second, third, and fourth right triangle regions. 3 and 4 triangular images) are prepared as tetrahedral objects to be mapped to the first, second, third and fourth primitive surfaces (polygons). That is, a tetrahedral object in which texture coordinates are set so that the first, second, third, and fourth right triangle images are mapped to the first, second, third, and fourth surfaces is prepared. The data of this tetrahedral object can be stored in the model data storage unit 176. The cube environment texture generation unit 126 generates a cube environment texture by performing a rendering process using the tetrahedral object. Specifically, the line-of-sight direction of the virtual camera arranged in the tetrahedral object is set to the fifth, sixth, seventh, eighth, ninth, and tenth directions (front, right, rear, left, down, The cube environment texture is generated by performing the fifth, sixth, seventh, eighth, ninth, and tenth rendering processing with the upward setting.

テクスチャマッピング部128は、オブジェクト(モデル)に対してテクスチャマッピング処理を行う。ここでテクスチャマッピング処理は、記憶部170のテクスチャ記憶部178に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いてテクスチャ記憶部178からテクスチャ(色、α値などの表面プロパティ)のデータを読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行うことができる。   The texture mapping unit 128 performs texture mapping processing on the object (model). Here, the texture mapping process is a process for mapping the texture (texel value) stored in the texture storage unit 178 of the storage unit 170 to the object. Specifically, texture (surface property such as color and α value) data is read from the texture storage unit 178 using texture coordinates or the like set (given) to the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, it is possible to perform processing for associating pixels with texels, bilinear interpolation or the like as texel interpolation.

そして本実施形態ではテクスチャマッピング部128が、四面体環境テクスチャ生成部122、キューブ環境テクスチャ生成部124などにより生成された環境テクスチャをオブジェクトにマッピングする処理を行う。この場合に、必要であれば、オブジェクトに設定された法線ベクトルの座標をテクスチャ座標に変換するなどのテクスチャ座標の演算処理を行う。   In this embodiment, the texture mapping unit 128 performs processing for mapping the environment texture generated by the tetrahedral environment texture generation unit 122, the cube environment texture generation unit 124, and the like to the object. In this case, if necessary, texture coordinate calculation processing such as converting the coordinates of the normal vector set in the object into texture coordinates is performed.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
2.1 四面体環境テクスチャの生成
本実施形態では図2に示すように、仮想的な四面体(正四面体)オブジェクトOBT内に設定された仮想カメラVCから見える環境の画像を、四面体環境テクスチャとしてリアルタイムに動的に生成している。
2. 2. Method of this Embodiment 2.1 Generation of Tetrahedral Environment Texture In this embodiment, as shown in FIG. Are dynamically generated as a tetrahedral environment texture in real time.

具体的には図3(A)に示すように、仮想的な立方体オブジェクトOBCの中心点CPCに設定された仮想カメラVCの視線方向をD1方向に設定する。このD1方向は、立方体オブジェクトOBCの中心点CPCから頂点VC1に向かう方向である。これは図2において、四面体オブジェクトOBTの中心点CPCに設定された仮想カメラVCの視線方向を、OBTを構成する正三角形の面SF1の中心点(重心)に向けることに相当する。この場合、仮想カメラVCの視線方向であるD1方向のベクトルと面SF1は直交するようになる。   Specifically, as shown in FIG. 3A, the line-of-sight direction of the virtual camera VC set at the center point CPC of the virtual cube object OBC is set to the D1 direction. The direction D1 is a direction from the center point CPC of the cubic object OBC toward the vertex VC1. In FIG. 2, this corresponds to directing the line-of-sight direction of the virtual camera VC set at the center point CPC of the tetrahedral object OBT to the center point (center of gravity) of the regular triangle surface SF1 constituting the OBT. In this case, the vector in the direction D1, which is the line-of-sight direction of the virtual camera VC, and the surface SF1 are orthogonal to each other.

そして、このような視線方向がD1方向に設定された仮想カメラVCから見える周囲の環境の画像のレンダリング処理(第1のレンダリング処理)により、図4(A)の第1の画像IM1が生成される。例えば仮想カメラVCは移動体オブジェクトの代表点(例えば中心点)の位置に設定される。そしてこの仮想カメラVCの視線方向がD1方向に設定されて、移動体オブジェクト(車、電車)の周囲の環境の画像(空、ビル等の背景)が第1の画像IM1として生成される。   Then, the first image IM1 of FIG. 4A is generated by the rendering process (first rendering process) of the image of the surrounding environment seen from the virtual camera VC in which the line-of-sight direction is set to the D1 direction. The For example, the virtual camera VC is set at the position of the representative point (for example, the center point) of the moving object. The line-of-sight direction of the virtual camera VC is set to the D1 direction, and an image of the environment (background of sky, building, etc.) around the moving object (car, train) is generated as the first image IM1.

そして本実施形態ではこの第1の画像IM1は、図4(A)に示すように第1の直角三角形領域TR1に描画される。即ち仮想カメラVCのビューポートがTR1、TR2の領域に設定され、TR1、TR2のうちTR1だけが描画領域に設定されて画像IM1が描画される。   In the present embodiment, the first image IM1 is drawn in the first right triangle region TR1 as shown in FIG. That is, the view port of the virtual camera VC is set in the areas TR1 and TR2, and only the TR1 out of TR1 and TR2 is set as the drawing area and the image IM1 is drawn.

ここでテクスチャ記憶部178には、動的環境テクスチャの生成領域として、矩形(長方形、正方形)のテクスチャ領域RERが確保されている。この矩形テクスチャ領域RERは、第1の直角三角形領域TR1と、TR1とその長辺LS1を共有する第2の直角三角形領域TR2と、TR2とその短辺SS1を共有する第3の直角三角形領域TR3と、TR3とその長辺LS2を共有する第4の直角三角形領域TR4とにより形成される。なお領域TR1、TR2、TR3、TR4の形状は二等辺直角三角形であってもよいし、二等辺ではない直角三角形であってもよいし、直角三角形以外の三角形であってもよい。   Here, the texture storage unit 178 has a rectangular (rectangular, square) texture region RER as a dynamic environment texture generation region. The rectangular texture region RER includes a first right triangle region TR1, a second right triangle region TR2 sharing TR1 and its long side LS1, and a third right triangle region TR3 sharing TR2 and its short side SS1. And TR4 and a fourth right triangle region TR4 sharing its long side LS2. The shapes of the regions TR1, TR2, TR3, and TR4 may be isosceles right triangles, right triangles that are not isosceles, or triangles other than right triangles.

そして画像IM1の直角三角形領域TR1へのレンダリング処理は図5(A)に示す手法で実現される。即ち画像IM1の三角形領域(図2の面SF1)の形状が、直角三角形領域TR1の形状に変形されるように、レンダリング処理が行われる。具体的には、三角形領域(正三角形領域)の頂点VA、VB、VCが直角三角形領域TR1の頂点VTA、VTB、VTCに一致するように変形処理が行われる。こうすることで、画像IM1の三角形領域の画像が変形されて、直角三角形領域TR1に描画されるようになる。   The rendering process of the image IM1 into the right triangle region TR1 is realized by the method shown in FIG. That is, the rendering process is performed so that the shape of the triangular area (surface SF1 in FIG. 2) of the image IM1 is transformed into the shape of the right-angled triangular area TR1. Specifically, the transformation process is performed so that the vertices VA, VB, and VC of the triangle area (regular triangle area) coincide with the vertices VTA, VTB, and VTC of the right triangle area TR1. By doing so, the image of the triangular area of the image IM1 is deformed and drawn in the right triangle area TR1.

次に図3(B)に示すように、仮想カメラVCの視線方向が、立方体オブジェクトOBCの中心点CPCから頂点VC8に向かう方向である第2の方向D2に設定される。これは図2において仮想カメラVCの視線方向を、四面体オブジェクトOBTを構成する正三角形の面SF2の中心点(重心)に向けることに相当する。この場合、仮想カメラVCのD2方向のベクトルと面SF2は直交するようになる。また第1の方向D1と第2の方向D2のなす角度θ1は、θ1=arctan(−1/3)になる。   Next, as shown in FIG. 3B, the line-of-sight direction of the virtual camera VC is set to a second direction D2 that is a direction from the center point CPC of the cube object OBC to the vertex VC8. This corresponds to directing the visual line direction of the virtual camera VC in FIG. 2 to the center point (center of gravity) of the regular triangular surface SF2 constituting the tetrahedral object OBT. In this case, the vector in the D2 direction of the virtual camera VC and the surface SF2 are orthogonal to each other. The angle θ1 formed by the first direction D1 and the second direction D2 is θ1 = arctan (−1/3).

このような視線方向がD2方向に設定された仮想カメラVCから見える周囲の環境の画像のレンダリング処理(第2のレンダリング処理)により、図4(B)に示すように第2の画像IM2が第2の直角三角形領域TR2に描画される。即ち領域TR1、TR2のうちTR2だけが描画領域に設定されて画像IM2が描画される。この場合に画像IM2の直角三角形領域TR2へのレンダリング処理は図5(A)と同様の手法で実現される。   With the rendering process (second rendering process) of the image of the surrounding environment seen from the virtual camera VC in which the line-of-sight direction is set to the D2 direction, the second image IM2 is the second image IM2 as illustrated in FIG. Two right triangle regions TR2 are drawn. That is, only the TR2 of the regions TR1 and TR2 is set as the drawing region, and the image IM2 is drawn. In this case, the rendering process of the image IM2 to the right triangle region TR2 is realized by the same method as in FIG.

次に図3(C)に示すように、仮想カメラVCの視線方向が、立方体オブジェクトOBCの中心点CPCから頂点VC6に向かう方向である第3の方向D3に設定される。これは図2において仮想カメラVCの視線方向を、四面体オブジェクトOBTを構成する正三角形の面SF3の中心点(重心)に向けることに相当する。この場合、仮想カメラVCのD3方向のベクトルと面SF3は直交するようになる。また第2の方向D2と第3の方向D3のなす角度θ2は、θ2=arctan(−1/3)になる。   Next, as shown in FIG. 3C, the line-of-sight direction of the virtual camera VC is set to a third direction D3 that is a direction from the center point CPC of the cube object OBC toward the vertex VC6. This corresponds to directing the viewing direction of the virtual camera VC in FIG. 2 to the center point (center of gravity) of the regular triangular surface SF3 constituting the tetrahedral object OBT. In this case, the vector in the D3 direction of the virtual camera VC and the surface SF3 are orthogonal to each other. The angle θ2 formed by the second direction D2 and the third direction D3 is θ2 = arctan (−1/3).

このような視線方向がD3方向に設定された仮想カメラVCから見える周囲の環境の画像のレンダリング処理(第3のレンダリング処理)により、図4(C)に示すように第3の画像IM3が第3の直角三角形領域TR3に描画される。即ち仮想カメラVCのビューポートがTR1、TR2の領域からTR3、TR4の領域に切り替えられ、TR3、TR4のうちTR3だけが描画領域に設定されて画像IM3が描画される。この場合に画像IM3の直角三角形領域TR3へのレンダリング処理は図5(A)と同様の手法で実現される。   With the rendering process (third rendering process) of the image of the surrounding environment seen from the virtual camera VC in which the line-of-sight direction is set to the D3 direction, as shown in FIG. 3 is drawn in a right triangle region TR3. That is, the view port of the virtual camera VC is switched from the TR1 and TR2 areas to the TR3 and TR4 areas, and only TR3 of TR3 and TR4 is set as the drawing area and the image IM3 is drawn. In this case, the rendering process of the image IM3 to the right triangle region TR3 is realized by the same method as in FIG.

次に図3(D)に示すように、仮想カメラVCの視線方向が、立方体オブジェクトOBCの中心点CPCから頂点VC3に向かう方向である第4の方向D4に設定される。これは図2において仮想カメラVCの視線方向を、四面体オブジェクトOBTを構成する正三角形の面SF4の中心点(重心)に向けることに相当する。この場合、仮想カメラVCのD4方向のベクトルと面SF4は直交するようになる。また第3の方向D3と第4の方向D4のなす角度θ3は、θ3=arctan(−1/3)になる。   Next, as shown in FIG. 3D, the line-of-sight direction of the virtual camera VC is set to a fourth direction D4 that is a direction from the center point CPC of the cube object OBC to the vertex VC3. This is equivalent to directing the direction of the line of sight of the virtual camera VC in FIG. 2 to the center point (center of gravity) of the regular triangular surface SF4 constituting the tetrahedral object OBT. In this case, the vector in the D4 direction of the virtual camera VC and the surface SF4 are orthogonal to each other. The angle θ3 formed by the third direction D3 and the fourth direction D4 is θ3 = arctan (−1/3).

このような視線方向がD4方向に設定された仮想カメラVCから見える周囲の環境の画像のレンダリング処理(第4のレンダリング処理)により、図4(D)に示すように第4の画像IM4が第4の直角三角形領域TR4に描画される。この場合に、画像IM4の直角三角形領域TR4へのレンダリング処理は図5(A)と同様の手法で実現される。   With the rendering process (fourth rendering process) of the image of the surrounding environment seen from the virtual camera VC in which the line-of-sight direction is set to the D4 direction, as shown in FIG. It is drawn in four right triangle regions TR4. In this case, the rendering process of the image IM4 to the right triangle region TR4 is realized by the same method as in FIG.

図6に、本実施形態により生成された四面体環境テクスチャの例を示す。図6に示すように本実施形態では、四面体環境テクスチャが、矩形のテクスチャ領域にコンパクトにまとめられて記憶される。従ってテクスチャ記憶部の使用記憶容量を節約でき、少ないリソースでリアルな環境マッピングを実現できる。   FIG. 6 shows an example of a tetrahedral environment texture generated by this embodiment. As shown in FIG. 6, in this embodiment, tetrahedral environment textures are stored in a rectangular texture area in a compact manner. Therefore, the storage capacity of the texture storage unit can be saved, and realistic environment mapping can be realized with few resources.

またキューブ環境テクスチャを動的にリアルタイムに生成しようとすると、処理負荷が重い環境画像のレンダリング処理が6回必要になる。これに対して本実施形態によれば、環境画像のレンダリング処理は4回で済むため、処理負荷を軽減できる。   In addition, if an attempt is made to dynamically generate a cube environment texture in real time, rendering processing of an environment image with a heavy processing load is required six times. On the other hand, according to the present embodiment, the environment image rendering process only needs to be performed four times, so that the processing load can be reduced.

また例えば図5(B)に示す比較例の手法では、図5(A)に示すような直角三角形の形状への変形処理が行われない。このため、四面体環境テクスチャが書き込まれるテクスチャ領域が大きくなってしまい、図4(A)〜(D)の本実施形態の手法に比べて、テクスチャ記憶部の使用記憶容量が圧迫されてしまう。   Further, for example, in the method of the comparative example shown in FIG. 5B, the deformation process to the right triangle shape as shown in FIG. 5A is not performed. For this reason, the texture area in which the tetrahedral environment texture is written becomes large, and the used storage capacity of the texture storage unit is compressed as compared with the method of the present embodiment shown in FIGS.

また図5(B)の比較例の手法では、三角形領域の境界BL2とBL3、BL4とBL5、BL6とBL7が一致しない。従って、四面体環境テクスチャに対してぼかし処理などのエフェクト処理を施すことが難しいという問題がある。例えば図5(C)では、周囲のピクセルPXA、PXB、PXC、PXDの色情報(広義にはピクセル情報)に基づいて、ピクセルPXの色情報を決定するぼかし処理が行われている。具体的にはPXA、PXB、PXC、PXDの色情報の平均値により、ピクセルPXの色情報が求められるぼかし処理が行われている。   Further, in the method of the comparative example in FIG. 5B, the boundary BL2 and BL3 of the triangular region, BL4 and BL5, and BL6 and BL7 do not match. Therefore, there is a problem that it is difficult to perform effect processing such as blurring processing on the tetrahedral environment texture. For example, in FIG. 5C, a blurring process is performed in which the color information of the pixel PX is determined based on the color information (pixel information in a broad sense) of surrounding pixels PXA, PXB, PXC, and PXD. Specifically, a blurring process is performed in which the color information of the pixel PX is obtained based on the average value of the color information of PXA, PXB, PXC, and PXD.

図5(B)の比較例では三角形領域の境界が一致しないため、このようなぼかし処理を行った場合に、ピクセルPXB、PXCが隣の三角形領域のピクセルにはならないため、ぼかし処理の結果が正しい結果にならない。   In the comparative example of FIG. 5B, since the boundary of the triangular region does not match, when such blurring processing is performed, the pixels PXB and PXC are not pixels of the adjacent triangular region, and therefore the result of the blurring processing is The result is not correct.

これに対して本実施形態では図7のA1に示すように、直角三角形領域TR1、TR2の境界BL12、直角三角形領域TR2、TR3の境界BL23、直角三角形領域TR3、TR4の境界BL34において画像が連続するようにレンダリング処理が行われて、四面体環境テクスチャが生成される。従って図7のA2に示すように、四面体環境テクスチャに対してぼかし処理を施した場合に、境界BL12、BL23、BL34の付近のピクセルにおいて、ぼかし処理の結果が正しい結果になり、正しいぼかし処理を実現できる。また例えばミップマップや低い指数のスペキュラ反射に使用できるぼかし画像の生成が容易なる。そしてこのようなぼかし処理を行うことで、高品質でリアルな環境マッピングを実現できる。   On the other hand, in this embodiment, as indicated by A1 in FIG. 7, images are continuous at the boundary BL12 of the right triangle regions TR1 and TR2, the boundary BL23 of the right triangle regions TR2 and TR3, and the boundary BL34 of the right triangle regions TR3 and TR4. A rendering process is performed to generate a tetrahedral environment texture. Accordingly, as shown in A2 of FIG. 7, when the blurring process is performed on the tetrahedral environment texture, the blurring process results are correct in the pixels near the boundaries BL12, BL23, and BL34, and the correct blurring process is performed. Can be realized. Also, for example, it is easy to generate a blurred image that can be used for mipmaps and low-index specular reflection. By performing such blurring processing, high-quality and realistic environment mapping can be realized.

なお本実施形態で生成された四面体環境テクスチャに施されるエフェクト処理は、図5(C)に示すようなぼかし処理に限定されず、種々の処理が考えられる。例えばピクセルの色情報(ピクセル情報)の平均化処理のみならず、重み付けをした平均化処理、所定の関数を用いた処理、ピクセルの入れ替え処理などであってもよい。またぼかし処理以外のエッジ検出(強調)処理などのエフェクト処理であってもよい。即ち本実施形態のエフェクト処理は、直角三角形領域間の境界の画像が連続していることで正しい結果が得られるようなエフェクト処理であればよい。   Note that the effect processing applied to the tetrahedral environment texture generated in the present embodiment is not limited to the blurring processing as shown in FIG. 5C, and various processing can be considered. For example, not only pixel color information (pixel information) averaging processing, but also weighted averaging processing, processing using a predetermined function, pixel replacement processing, and the like may be used. Further, effect processing such as edge detection (emphasis) processing other than blur processing may be used. In other words, the effect processing according to the present embodiment may be effect processing so that a correct result can be obtained when images at the boundary between right-angled triangular regions are continuous.

2.2 キューブ環境テクスチャへの変換
キューブ環境マッピングは、画像生成システムにおいてハードウェア的にサポートされている場合がある。一方、四面体環境マッピングは、ハードウェア的にサポートされていない場合が多い。そこで本実施形態では、四面体環境テクスチャを変換してキューブ環境テクスチャを生成する手法を採用している。
2.2 Conversion to Cube Environment Texture Cube environment mapping may be supported in hardware in the image generation system. On the other hand, tetrahedral environment mapping is often not supported by hardware. Therefore, in the present embodiment, a method of generating a cube environment texture by converting a tetrahedral environment texture is adopted.

具体的には図8(A)に示すような四面体オブジェクトOBSを用意する。この四面体オブジェクトOBSには、動的にリアルタイムに生成された四面体環境テクスチャがマッピングされる。本実施形態では、このように四面体環境テクスチャがマッピングされた四面体オブジェクトOBSを用いて、キューブ環境テクスチャを生成している。   Specifically, a tetrahedral object OBS as shown in FIG. A tetrahedral environment texture dynamically generated in real time is mapped to the tetrahedral object OBS. In this embodiment, the cube environment texture is generated using the tetrahedral object OBS to which the tetrahedral environment texture is mapped in this way.

具体的には図8(A)に示すように四面体オブジェクトOBSは、第1〜第4のプリミティブ面SS1、SS2、SS3、SS4(ポリゴン)により構成される。そして図8(B)のC1の四面体オブジェクトOBSの展開図に示されるように、これらのプリミティブ面SS1、SS2、SS3、SS4には、図4(A)〜(D)の手法で直角三角形領域TR1、TR2、TR3、TR4に描画された直角三角形画像IMT1、IMT2、IMT3、IMT4がマッピングされる。   Specifically, as shown in FIG. 8A, the tetrahedral object OBS is configured by first to fourth primitive surfaces SS1, SS2, SS3, and SS4 (polygons). Then, as shown in the development view of the tetrahedral object OBS of C1 in FIG. 8B, these primitive surfaces SS1, SS2, SS3, and SS4 have a right triangle by the method of FIGS. 4A to 4D. The right triangle images IMT1, IMT2, IMT3, and IMT4 drawn in the regions TR1, TR2, TR3, and TR4 are mapped.

即ちこれらの直角三角形画像IMT1、IMT2、IMT3、IMT4がプリミティブ面SS1、SS2、SS3、SS4にマッピングされるように、四面体オブジェクトOBSの頂点VSA、VSB、VSCに対してテクスチャ座標が設定される。そしてこのテクスチャ座標に基づいてテクスチャ記憶部178から、図8(B)のC2に示す四面体環境テクスチャが読み出されて、四面体オブジェクトOBSにマッピングされる。このようなテクスチャマッピングを行うことで、図5(A)で直角三角形画像に変形された画像が、元の正三角形画像に戻る。   That is, texture coordinates are set for the vertices VSA, VSB, and VSC of the tetrahedral object OBS so that these right triangle images IMT1, IMT2, IMT3, and IMT4 are mapped to the primitive surfaces SS1, SS2, SS3, and SS4. . Based on the texture coordinates, the tetrahedral environment texture indicated by C2 in FIG. 8B is read from the texture storage unit 178 and mapped to the tetrahedral object OBS. By performing such texture mapping, the image transformed into the right triangle image in FIG. 5A returns to the original equilateral triangle image.

そしてこの四面体オブジェクトOBS内(中心点)に仮想カメラVCを配置し、図9(A)に示すように仮想カメラVCの視線方向を、第5、第6、第7、第8、第9、第10の方向D5、D6、D7、D8、D9、D10に設定する。そして第5、第6、第7、第8、第9、第10のレンダリング処理を行う。こうすることで図9(B)に示すようなキューブ環境テクスチャが生成される。   Then, the virtual camera VC is arranged in the tetrahedral object OBS (center point), and the line-of-sight directions of the virtual camera VC are set to the fifth, sixth, seventh, eighth, ninth as shown in FIG. , 10th directions D5, D6, D7, D8, D9, D10. Then, fifth, sixth, seventh, eighth, ninth, and tenth rendering processes are performed. By doing so, a cube environment texture as shown in FIG. 9B is generated.

具体的には例えば、四面体オブジェクトOBS内に配置された仮想カメラVCの視線方向をD5方向に設定して第5のレンダリング処理を行い、生成された画像を正方形(矩形)の領域CR5に描画する。同様に、OBS内に配置された仮想カメラVCの視線方向をD6、D7、D8、D9、D10方向に設定して第6、第7、第8、第9、第10のレンダリング処理を行い、生成された画像を正方形(矩形)の領域CR6、CR7、CR8、CR9、CR10に描画する。こうすることで、図10に示すようなキューブ環境テクスチャを生成できる。   Specifically, for example, the visual line direction of the virtual camera VC arranged in the tetrahedral object OBS is set to the D5 direction and the fifth rendering process is performed, and the generated image is drawn in the square (rectangular) region CR5. To do. Similarly, the line-of-sight direction of the virtual camera VC arranged in the OBS is set to the D6, D7, D8, D9, and D10 directions, and the sixth, seventh, eighth, ninth, and tenth rendering processes are performed. The generated image is drawn in square (rectangular) regions CR6, CR7, CR8, CR9, and CR10. By doing so, a cube environment texture as shown in FIG. 10 can be generated.

そして生成されたキューブ環境テクスチャを用いてオブジェクトへのキューブ環境マッピング処理を行う。例えばキューブ環境マッピングをサポートしてる画像生成システムを利用してキューブ環境マッピングを行う。例えば車、電車等の移動体オブジェクトに対してキューブ環境テクスチャを用いたキューブ環境マッピングを行うことで、周囲の環境が移動体オブジェクトに映り込んだリアルな画像を生成できる。   Then, a cube environment mapping process to an object is performed using the generated cube environment texture. For example, cube environment mapping is performed using an image generation system that supports cube environment mapping. For example, by performing cube environment mapping using a cube environment texture on a moving object such as a car or train, a realistic image in which the surrounding environment is reflected on the moving object can be generated.

例えばキューブ環境テクスチャを動的にリアルタイムに生成しようとすると、環境画像のレンダリング処理が6回必要になる。この点、本実施形態では図3(A)〜図4(D)に示すように、四面体環境テクスチャの生成は4回のレンダリング処理で済む。従って、処理負荷が重い動的な環境テクスチャ生成についてのレンダリング処理の回数を減らすことができる。また図8(A)〜図9(B)で説明したキューブ環境テクスチャの生成処理は、移動体オブジェクトの周囲の背景オブジェクトの描画が必要な環境画像のレンダリング処理に比べて負荷が軽い。従って本実施形態によれば全体としての処理負荷を軽減できる。   For example, if the cube environment texture is dynamically generated in real time, the environment image rendering process is required six times. In this regard, in the present embodiment, as shown in FIGS. 3A to 4D, the tetrahedral environment texture is generated by four rendering processes. Therefore, it is possible to reduce the number of rendering processes for generating dynamic environmental textures with a heavy processing load. Also, the cube environment texture generation process described with reference to FIGS. 8A to 9B has a lighter load than the environment image rendering process that requires the drawing of the background object around the moving object. Therefore, according to the present embodiment, the overall processing load can be reduced.

なお本実施形態におけるオブジェクト(移動体オブジェクト)への環境マッピングはキューブ環境マッピングには限定されない。例えばスフィア環境マッピング、パラボロイド環境マッピング、シリンダ環境マッピングなどであってもよい。   Note that the environment mapping to the object (moving object) in the present embodiment is not limited to the cube environment mapping. For example, sphere environment mapping, paraboloid environment mapping, cylinder environment mapping, or the like may be used.

例えば図11にスフィア環境マッピングの例を示す。図11では、四面体オブジェクトOBS内に、環境マッピングの対象となるオブジェクトOB(移動体オブジェクト)が配置される。そして仮想カメラの視線ベクトルSLとオブジェクトの法線ベクトルNとに基づいて反射ベクトルRLが求められる。そしてこの反射ベクトルRLの方向の直線と四面体オブジェクトOBSとの交点IPの画像情報が、オブジェクトOBの反射点RPの画像情報に設定される。このようにすることで、四面体オブジェクトOBSにマッピングされた四面体環境テクスチャの画像が、オブジェクトOBにマッピングされるようになり、スフィア環境マッピングを実現できる。このように図11では、図8(B)の直角三角形領域TR1、TR2、TR3、TR4に描画された直角三角形画像IMT1、IMT2、IMT3、IMT4が、そのプリミティブ面SS1、SS2、SS3、SS4にマッピングされる四面体オブジェクトOBSを用いて、オブジェクトOBに対する環境マッピングが行われている。   For example, FIG. 11 shows an example of sphere environment mapping. In FIG. 11, an object OB (moving object) that is a target of environment mapping is arranged in a tetrahedral object OBS. A reflection vector RL is obtained based on the line-of-sight vector SL of the virtual camera and the normal vector N of the object. Then, the image information of the intersection IP of the straight line in the direction of the reflection vector RL and the tetrahedral object OBS is set as the image information of the reflection point RP of the object OB. By doing so, an image of the tetrahedral environment texture mapped to the tetrahedral object OBS is mapped to the object OB, and sphere environment mapping can be realized. Thus, in FIG. 11, the right triangle images IMT1, IMT2, IMT3, and IMT4 drawn in the right triangle regions TR1, TR2, TR3, and TR4 in FIG. Environment mapping for the object OB is performed using the tetrahedral object OBS to be mapped.

なおパラボロイド環境マッピングを行う場合には、例えば生成された四面体環境テクスチャをメッシュ状のオブジェクトにマッピングすることで、魚眼レンズから見たように見える2枚のパラボロイド環境テクスチャを生成して、パラボロイド環境マッピングを実現すればよい。   When performing paraboloid environment mapping, for example, by mapping the generated tetrahedral environment texture to a mesh-like object, two paraboloid environment textures that appear as seen from the fisheye lens are generated, and paraboloid environment mapping is performed. Should be realized.

2.3 詳細な処理例
次に本実施形態の詳細な処理例を図12、図13のフローチャートを用いて説明する。
2.3 Detailed Processing Example Next, a detailed processing example of the present embodiment will be described with reference to the flowcharts of FIGS.

まず車、電車等の移動体オブジェクトの位置、方向を演算する(ステップS1)。具体的には、操作部160からの操作データやプログラムなどに基づいて、1フレームごとの移動体オブジェクトの位置の変化や、方向の変化が、リアルタイムに演算される。   First, the position and direction of a moving object such as a car or train are calculated (step S1). Specifically, based on operation data from the operation unit 160, a program, and the like, changes in the position and direction of the moving object for each frame are calculated in real time.

次に仮想カメラの位置を決定する(ステップS2)。具体的には移動体オブジェクトの位置等に基づいて仮想カメラの位置が決定される。例えば移動体オブジェクトの代表点の位置に仮想カメラが配置される。   Next, the position of the virtual camera is determined (step S2). Specifically, the position of the virtual camera is determined based on the position of the moving object. For example, the virtual camera is arranged at the position of the representative point of the moving object.

次に図3(A)に示すように仮想カメラの視線方向をD1方向に設定してマトリクスM1を決定する(ステップS3)。図14にこのマトリクスM1の例を示す。またテクスチャ領域の直角三角形領域TR1を描画領域に設定する(ステップS4)。即ちビューポートを領域TR1及びTR2に設定し、TR1だけを描画領域に設定する。そして図4(A)に示すように、マトリクスM1に基づきD1方向でのレンダリング処理を行い、直角三角形領域TR1に描画する(ステップS5)。   Next, as shown in FIG. 3A, the line-of-sight direction of the virtual camera is set to the D1 direction to determine the matrix M1 (step S3). FIG. 14 shows an example of this matrix M1. In addition, the right triangle area TR1 of the texture area is set as a drawing area (step S4). That is, the viewport is set in the areas TR1 and TR2, and only TR1 is set in the drawing area. Then, as shown in FIG. 4A, a rendering process in the direction D1 is performed based on the matrix M1, and drawing is performed in the right triangle region TR1 (step S5).

次に図3(B)に示すように仮想カメラの視線方向をD2方向に設定してマトリクスM2を決定する(ステップS6)。また直角三角形領域TR2を描画領域に設定する(ステップS7)。そして図4(B)に示すようにマトリクスM2に基づきD2方向でのレンダリング処理を行い、直角三角形領域TR2に描画する(ステップS8)。   Next, as shown in FIG. 3B, the line-of-sight direction of the virtual camera is set to the D2 direction to determine the matrix M2 (step S6). Further, the right triangle region TR2 is set as a drawing region (step S7). Then, as shown in FIG. 4B, rendering processing in the direction D2 is performed based on the matrix M2, and drawing is performed in the right triangle region TR2 (step S8).

次に図3(C)に示すように仮想カメラの視線方向をD3方向に設定してマトリクスM3を決定する(ステップS9)。また直角三角形領域TR3を描画領域に設定する(ステップS10)。そして図4(C)に示すようにマトリクスM3に基づきD3方向でのレンダリング処理を行い、直角三角形領域TR3に描画する(ステップS11)。   Next, as shown in FIG. 3C, the line-of-sight direction of the virtual camera is set to the D3 direction to determine the matrix M3 (step S9). Further, the right triangle region TR3 is set as a drawing region (step S10). Then, as shown in FIG. 4C, a rendering process in the D3 direction is performed based on the matrix M3, and drawing is performed in the right triangle region TR3 (step S11).

次に図3(D)に示すように仮想カメラの視線方向をD4方向に設定してマトリクスM4を決定する(ステップS12)。また直角三角形領域TR4を描画領域に設定する(ステップS13)。そして図4(D)に示すようにマトリクスM4に基づきD4方向でのレンダリング処理を行い、直角三角形領域TR4に描画する(ステップS14)。   Next, as shown in FIG. 3D, the line-of-sight direction of the virtual camera is set to the D4 direction to determine the matrix M4 (step S12). Further, the right triangle region TR4 is set as a drawing region (step S13). Then, as shown in FIG. 4D, rendering processing in the D4 direction is performed based on the matrix M4, and drawing is performed in the right triangle region TR4 (step S14).

以上のようにすることで図6に示すような四面体環境テクスチャが生成される。   By doing so, a tetrahedral environment texture as shown in FIG. 6 is generated.

次に図14のマトリクスM1、M2、M3、M4について説明する。例えばマトリクスM1は、ビューマトリクスV1と、射影マトリクスPと、マトリクスm1、m2、m3、m4を乗算したマトリクスになる。   Next, the matrices M1, M2, M3, and M4 in FIG. 14 will be described. For example, the matrix M1 is a matrix obtained by multiplying the view matrix V1, the projection matrix P, and the matrices m1, m2, m3, and m4.

ここでV1は、原点から、(+1、+1、+1)方向を仮想カメラの上向き方向にして(−1、−1、+1)方向を見た時のビューマトリクスである。このビューマトリクスV1により、仮想カメラの視線方向をD1方向に設定できる。また正三角形の頂点が例えば図4(A)のような位置関係になるように仮想カメラの上向き方向(傾き)が設定される。   Here, V1 is a view matrix when viewing the (-1, -1, +1) direction from the origin with the (+1, +1, +1) direction as the upward direction of the virtual camera. With this view matrix V1, the viewing direction of the virtual camera can be set to the D1 direction. Further, the upward direction (tilt) of the virtual camera is set so that the vertices of the equilateral triangle have a positional relationship as shown in FIG.

また図15に示すように、マトリクスm1により、二等辺の三角形TRがY方向に沿って+1/3だけ移動する。これにより、四角形QD内に三角形TRが入るようになる。なお射影マトリクスPにより四面体オブジェクトの正三角形は二等辺三角形に変形されている。   Further, as shown in FIG. 15, the isosceles triangle TR is moved by +1/3 along the Y direction by the matrix m1. As a result, the triangle TR enters the quadrangle QD. Note that the equilateral triangle of the tetrahedral object is transformed into an isosceles triangle by the projection matrix P.

次にマトリクスm2により、三角形TRがY方向に沿って−1だけ移動する。これにより、原点が三角形TRの底辺に位置するようになる。次にマトリクスm3により、三角形TRが直角三角形に変形される。そしてマトリクスm4により、三角形TRがY方向に沿って+1だけ移動する。これにより、四角形QD内に直角三角形TRが入るようになる。   Next, the triangle TR is moved by −1 along the Y direction by the matrix m2. As a result, the origin is located at the bottom of the triangle TR. Next, the triangle TR is transformed into a right triangle by the matrix m3. The triangle TR is moved by +1 along the Y direction by the matrix m4. As a result, the right triangle TR enters the quadrangle QD.

次に、キューブ環境テクスチャ生成及びテクスチャマッピング処理について図13のフローチャートを用いて説明する。まず四面体環境テクスチャがマッピングされる図8(A)の四面体オブジェクトのデータを読み込む(ステップS21)。   Next, cube environment texture generation and texture mapping processing will be described using the flowchart of FIG. First, data of the tetrahedral object of FIG. 8A to which the tetrahedral environment texture is mapped is read (step S21).

次に図9(A)に示すように、仮想カメラの視線方向をD5方向に設定してマトリクスM5を決定する(ステップS22)。またマトリクスM5に基づきレンダリング処理を行い、テクスチャ領域である図9(B)の領域CR5に描画する(ステップS23)。   Next, as shown in FIG. 9A, the line-of-sight direction of the virtual camera is set to the D5 direction to determine the matrix M5 (step S22). Further, rendering processing is performed based on the matrix M5, and drawing is performed in the region CR5 of FIG. 9B, which is a texture region (step S23).

同様にして、仮想カメラの視線方向をD6、D7、D8、D9、D10方向に設定してマトリクスM6、M7、M8、M9、M10を決定する(ステップS24、S26、S28、S30、S32)。またマトリクスM6、M7、M8、M9、M10に基づきレンダリング処理を行い、テクスチャ領域である図9(B)の領域CR6、CR7、CR8、CR9、CR10に描画する(ステップS25、S27、S29、S31、S33)。そして生成されたキューブ環境テクスチャを移動体オブジェクトにマッピングする(ステップS34)。以上により、移動体オブジェクトに対して周りの環境が映り込んだリアルな画像が生成されるようになる。   Similarly, the line-of-sight direction of the virtual camera is set to the directions D6, D7, D8, D9, and D10 to determine the matrices M6, M7, M8, M9, and M10 (steps S24, S26, S28, S30, and S32). In addition, rendering processing is performed based on the matrices M6, M7, M8, M9, and M10, and rendering is performed in the regions CR6, CR7, CR8, CR9, and CR10 in FIG. 9B that are texture regions (steps S25, S27, S29, and S31) , S33). The generated cube environment texture is mapped to the moving object (step S34). As described above, a realistic image in which the surrounding environment is reflected on the moving object is generated.

3.ハードウェア構成
図16に本実施形態を実現できるハードウェア構成の例を示す。メインプロセッサ900は、DVD982(情報記憶媒体。CDでもよい。)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
3. Hardware Configuration FIG. 16 shows an example of a hardware configuration that can realize this embodiment. The main processor 900 operates based on a program stored in a DVD 982 (information storage medium, which may be a CD), a program downloaded via the communication interface 990, a program stored in the ROM 950, or the like. Perform processing, sound processing, etc. The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is required for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.

ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。   The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and executes matrix calculation at high speed. The data decompression processor 906 performs decoding processing of compressed image data and sound data, and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエイリアシング、シェーディング処理なども行う。頂点シェーダやピクセルシェーダなどのプログラマブルシェーダが実装されている場合には、シェーダプログラムに従って、頂点データの作成・変更(更新)やピクセル(あるいはフラグメント)の描画色の決定を行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。   The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture. The drawing processor 910 also performs α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When a programmable shader such as a vertex shader or a pixel shader is installed, the vertex data is created / changed (updated) and the drawing color of a pixel (or fragment) is determined according to the shader program. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.

ROM950にはシステムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。DVDドライブ980(CDドライブでもよい。)は、プログラム、画像データ、或いは音データなどが格納されるDVD982(CDでもよい。)にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950. The RAM 960 is a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The DVD drive 980 (may be a CD drive) accesses a DVD 982 (may be a CD) in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).

なお本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   The processing of each unit (each unit) in this embodiment may be realized entirely by hardware, or may be realized by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be realized by both hardware and a program.

そして本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。   When the processing of each part of this embodiment is realized by both hardware and a program, a program for causing the hardware (computer) to function as each part of this embodiment is stored in the information storage medium. More specifically, the program instructs the processors 902, 904, 906, 910, and 930, which are hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930 realizes the processing of each unit of the present invention based on the instruction and the passed data.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(第1、第2、第3、第4の三角形領域、第1、第2、第3、第4の三角形画像、テクスチャ領域等)と共に記載された用語(第1、第2、第3、第4の直角三角形領域、第1、第2、第3、第4の直角三角形画像、矩形テクスチャ領域等)は、明細書または図面のいかなる箇所においても、その異なる用語に置き換えることができる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are included in the scope of the present invention. For example, in the specification or the drawings, different terms (first, second, third, fourth triangle regions, first, second, third, fourth triangle images, textures) that are broader or synonymous at least once. The terms (first, second, third, fourth right triangle regions, first, second, third, fourth right triangle images, rectangular texture regions, etc.) Alternatively, the different terms can be used anywhere in the drawings.

また四面体環境テクスチャの生成手法や環境テクスチャのマッピング手法も本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。例えば仮想カメラの視線方向やレンダリング処理の順序も図3(A)〜図4(D)に限定されず、種々の変形実施が可能である。またレンダリング処理の手法も図3(A)〜図4(D)の手法に限定されない。また環境テクスチャのマッピング手法も、図8(A)〜図10で説明したようなキューブ環境マッピング手法には限定されず、種々の環境マッピング手法を採用できる。   Further, the tetrahedral environment texture generation method and the environment texture mapping method are not limited to those described in the present embodiment, and methods equivalent to these methods are also included in the scope of the present invention. For example, the line-of-sight direction of the virtual camera and the order of rendering processing are not limited to those shown in FIGS. 3A to 4D, and various modifications can be made. Also, the rendering processing method is not limited to the method of FIGS. 3 (A) to 4 (D). Also, the environment texture mapping method is not limited to the cube environment mapping method described with reference to FIGS. 8A to 10, and various environment mapping methods can be employed.

また本実施形態では領域TR1、TR2、TR3、TR4が直角三角形領域である場合について説明したが、これらの領域TR1、TR2、TR3、TR4は、直角三角形ではない三角形の領域であってもよい。   In the present embodiment, the case where the regions TR1, TR2, TR3, and TR4 are right triangle regions has been described. However, these regions TR1, TR2, TR3, and TR4 may be triangular regions that are not right triangles.

また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレイヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating game images, and a mobile phone. it can.

本実施形態の画像生成システムの機能ブロック図の例。The example of a functional block diagram of the image generation system of this embodiment. 四面体環境マッピングの説明図。Explanatory drawing of tetrahedral environment mapping. 図3(A)〜(D)は四面体環境テクスチャの生成手法の説明図。3A to 3D are explanatory diagrams of a tetrahedral environment texture generation method. 図4(A)〜(D)は四面体環境テクスチャの生成手法の説明図。4A to 4D are explanatory diagrams of a tetrahedral environment texture generation method. 図5(A)は四面体環境テクスチャの生成手法の説明図であり、図5(B)(C)は比較例の手法及びその問題点の説明図。5A is an explanatory diagram of a tetrahedral environment texture generation method, and FIGS. 5B and 5C are explanatory diagrams of a comparative example method and its problems. 本実施形態により生成された四面体環境テクスチャの例。The example of the tetrahedral environment texture produced | generated by this embodiment. 四面体環境テクスチャに対するエフェクト処理手法の説明図。Explanatory drawing of the effect processing method with respect to a tetrahedral environment texture. 図8(A)(B)はキューブ環境テクスチャの生成手法の説明図。8A and 8B are explanatory views of a cube environment texture generation method. 図9(A)(B)はキューブ環境テクスチャの生成手法の説明図。9A and 9B are explanatory diagrams of a cube environment texture generation method. 本実施形態により生成されたキューブ環境テクスチャの例。The example of the cube environment texture produced | generated by this embodiment. スフィア環境マッピングを用いた場合の説明図。Explanatory drawing at the time of using sphere environment mapping. 本実施形態の処理の詳細例。The detailed example of the process of this embodiment. 本実施形態の処理の詳細例。The detailed example of the process of this embodiment. 本実施形態で用いられるマトリクスの説明図。Explanatory drawing of the matrix used by this embodiment. 本実施形態で用いられるマトリクスの説明図。Explanatory drawing of the matrix used by this embodiment. ハードウェア構成例。Hardware configuration example.

符号の説明Explanation of symbols

100 処理部、110 オブジェクト空間設定部、112 移動・動作処理部、
114 仮想カメラ制御部、120 描画部、122 四面体環境テクスチャ生成部、
124 エフェクト処理部、126 キューブ環境テクスチャ生成部、
128 テクスチャマッピング部、130 音生成部、160 操作部、
170 記憶部、172 主記憶部、174 描画バッファ、
176 モデルデータ記憶部、178 テクスチャ記憶部、
180 情報記憶媒体、190 表示部、192 音出力部、
194 携帯型情報記憶装置、196 通信部
100 processing unit, 110 object space setting unit, 112 movement / motion processing unit,
114 virtual camera control unit, 120 drawing unit, 122 tetrahedral environment texture generation unit,
124 effect processing unit, 126 cube environment texture generation unit,
128 texture mapping unit, 130 sound generation unit, 160 operation unit,
170 storage unit, 172 main storage unit, 174 drawing buffer,
176 model data storage unit, 178 texture storage unit,
180 information storage medium, 190 display unit, 192 sound output unit,
194 Portable information storage device, 196 communication unit

Claims (11)

画像を生成するためのプログラムであって、
四面体環境テクスチャを生成する四面体環境テクスチャ生成部と、
第1の三角形領域と、前記第1の三角形領域と辺を共有する第2の三角形領域と、前記第2の三角形領域と辺を共有する第3の三角形領域と、前記第3の三角形領域と辺を共有する第4の三角形領域とにより形成されるテクスチャ領域が確保されるテクスチャ記憶部と、
オブジェクトに対してテクスチャマッピング処理を行うテクスチャマッピング部として、
コンピュータを機能させ、
前記四面体環境テクスチャ生成部は、
仮想カメラの視線方向を第1、第2、第3、第4の方向に設定して第1、第2、第3、第4のレンダリング処理を行い、前記第1、第2、第3、第4のレンダリング処理により、第1、第2、第3、第4の画像を前記テクスチャ領域の前記第1、第2、第3、第4の三角形領域に描画することで、前記第1、第2、第3、第4の三角形領域により形成される前記テクスチャ領域に四面体環境テクスチャを生成することを特徴とするプログラム。
A program for generating an image,
A tetrahedral environment texture generation unit for generating a tetrahedral environment texture;
A first triangular region, a second triangular region sharing a side with the first triangular region, a third triangular region sharing a side with the second triangular region, and the third triangular region A texture storage unit in which a texture region formed by the fourth triangular region sharing the side is secured;
As a texture mapping unit that performs texture mapping processing on objects,
Make the computer work,
The tetrahedral environment texture generation unit
The visual line direction of the virtual camera is set to the first, second, third, and fourth directions to perform the first, second, third, and fourth rendering processes, and the first, second, third, By drawing the first, second, third, and fourth images in the first, second, third, and fourth triangular regions of the texture region by the fourth rendering process, the first, A program for generating a tetrahedral environment texture in the texture region formed by the second, third, and fourth triangular regions.
請求項1において、
前記第1、第2、第3、第4の三角形領域は直角三角形領域であり、
前記テクスチャ記憶部には、前記第1、第2、第3、第4の三角形領域により形成される矩形のテクスチャ領域が確保されることを特徴とするプログラム。
In claim 1,
The first, second, third and fourth triangular regions are right triangle regions;
A program characterized in that a rectangular texture area formed by the first, second, third, and fourth triangular areas is secured in the texture storage unit.
請求項1又は2において、
前記四面体環境テクスチャ生成部は、
前記第1、第2、第3、第4の画像の三角形領域の形状が前記第1、第2、第3、第4の三角形領域の形状に変形されるように、前記第1、第2、第3、第4のレンダリング処理を行って、前記四面体環境テクスチャを生成することを特徴とするプログラム。
In claim 1 or 2,
The tetrahedral environment texture generation unit
The first, second, and second shapes of the first, second, third, and fourth images are transformed into the shape of the first, second, third, and fourth triangular regions. A program for generating the tetrahedral environment texture by performing third and fourth rendering processes.
請求項1乃至3のいずれかにおいて、
前記四面体環境テクスチャ生成部は、
前記第1、第2の三角形領域の境界、前記第2、第3の三角形領域の境界、前記第3、第4の三角形領域の境界において画像が連続するように、前記第1、第2、第3、第4のレンダリング処理を行って、前記四面体環境テクスチャを生成することを特徴とするプログラム。
In any one of Claims 1 thru | or 3,
The tetrahedral environment texture generation unit
The first, second, and second images are continuous at the boundary between the first and second triangular regions, the boundary between the second and third triangular regions, and the boundary between the third and fourth triangular regions. A program characterized in that the tetrahedral environment texture is generated by performing third and fourth rendering processes.
請求項1乃至4のいずれかにおいて、
前記矩形テクスチャ領域に生成された前記四面体環境テクスチャに対してエフェクト処理を施すエフェクト処理部を含むことを特徴とするプログラム。
In any one of Claims 1 thru | or 4,
The program characterized by including the effect process part which performs an effect process with respect to the said tetrahedral environment texture produced | generated in the said rectangular texture area | region.
請求項1乃至5のいずれかにおいて、
生成された四面体環境テクスチャに基づいて、キューブ環境テクスチャを生成するキューブ環境テクスチャ生成部としてコンピュータを機能させ、
前記テクスチャマッピング部は、
生成されたキューブ環境テクスチャに基づいてテクスチャマッピング処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 5,
Based on the generated tetrahedral environment texture, the computer functions as a cube environment texture generation unit that generates a cube environment texture.
The texture mapping unit
A program for performing texture mapping processing based on a generated cube environment texture.
請求項6において、
前記キューブ環境テクスチャ生成部は、
前記第1、第2、第3、第4の三角形領域に描画された第1、第2、第3、第4の三角形画像が、その第1、第2、第3、第4のプリミティブ面にマッピングされる四面体オブジェクトを用いて、前記キューブ環境テクスチャを生成することを特徴とするプログラム。
In claim 6,
The cube environment texture generation unit
The first, second, third, and fourth triangular images drawn in the first, second, third, and fourth triangular regions are the first, second, third, and fourth primitive planes. The cube environment texture is generated by using a tetrahedron object mapped to the program.
請求項7において、
前記キューブ環境テクスチャ生成部は、
前記四面体オブジェクト内に設定された仮想カメラの視線方向を、第5、第6、第7、第8、第9、第10の方向に設定して第5、第6、第7、第8、第9、第10のレンダリング処理を行うことで、前記キューブ環境テクスチャを生成することを特徴とするプログラム。
In claim 7,
The cube environment texture generation unit
The line-of-sight direction of the virtual camera set in the tetrahedral object is set to the fifth, sixth, seventh, eighth, ninth, and tenth directions to set the fifth, sixth, seventh, and eighth directions. A program for generating the cube environment texture by performing the ninth and tenth rendering processes.
請求項1乃至5のいずれかにおいて、
前記テクスチャマッピング部は、
前記第1、第2、第3、第4の三角形領域に描画された第1、第2、第3、第4の三角形画像が、その第1、第2、第3、第4のプリミティブ面にマッピングされる四面体オブジェクトを用いて、オブジェクトに対する環境マッピングを行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 5,
The texture mapping unit
The first, second, third, and fourth triangular images drawn in the first, second, third, and fourth triangular regions are the first, second, third, and fourth primitive planes. A program characterized by performing environment mapping on an object using a tetrahedral object mapped to the object.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至9のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 9 is stored. 画像を生成する画像生成システムであって、
四面体環境テクスチャを生成する四面体環境テクスチャ生成部と、
第1の三角形領域と、前記第1の三角形領域と辺を共有する第2の三角形領域と、前記第2の三角形領域と辺を共有する第3の三角形領域と、前記第3の三角形領域と辺を共有する第4の三角形領域とにより形成されるテクスチャ領域が確保されるテクスチャ記憶部と、
オブジェクトに対してテクスチャマッピング処理を行うテクスチャマッピング部とを含み、
前記四面体環境テクスチャ生成部は、
仮想カメラの視線方向を第1、第2、第3、第4の方向に設定して第1、第2、第3、第4のレンダリング処理を行い、前記第1、第2、第3、第4のレンダリング処理により、第1、第2、第3、第4の画像を前記テクスチャ領域の前記第1、第2、第3、第4の三角形領域に描画することで、前記第1、第2、第3、第4の三角形領域により形成される前記テクスチャ領域に四面体環境テクスチャを生成することを特徴とする画像生成システム。
An image generation system for generating an image,
A tetrahedral environment texture generation unit for generating a tetrahedral environment texture;
A first triangular region, a second triangular region sharing a side with the first triangular region, a third triangular region sharing a side with the second triangular region, and the third triangular region A texture storage unit in which a texture region formed by the fourth triangular region sharing the side is secured;
A texture mapping unit that performs texture mapping processing on the object,
The tetrahedral environment texture generation unit
The visual line direction of the virtual camera is set to the first, second, third, and fourth directions to perform the first, second, third, and fourth rendering processes, and the first, second, third, By drawing the first, second, third, and fourth images in the first, second, third, and fourth triangular regions of the texture region by the fourth rendering process, the first, A tetrahedral environment texture is generated in the texture region formed by the second, third, and fourth triangular regions.
JP2005336047A 2005-11-21 2005-11-21 Program, information storage medium, and image generation system Pending JP2007141079A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005336047A JP2007141079A (en) 2005-11-21 2005-11-21 Program, information storage medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005336047A JP2007141079A (en) 2005-11-21 2005-11-21 Program, information storage medium, and image generation system

Publications (1)

Publication Number Publication Date
JP2007141079A true JP2007141079A (en) 2007-06-07

Family

ID=38203838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005336047A Pending JP2007141079A (en) 2005-11-21 2005-11-21 Program, information storage medium, and image generation system

Country Status (1)

Country Link
JP (1) JP2007141079A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143711A (en) * 1991-11-21 1993-06-11 Hitachi Ltd Image generating method
JP2003079942A (en) * 2001-09-17 2003-03-18 Namco Ltd Game information, information storage medium, and game device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143711A (en) * 1991-11-21 1993-06-11 Hitachi Ltd Image generating method
JP2003079942A (en) * 2001-09-17 2003-03-18 Namco Ltd Game information, information storage medium, and game device

Similar Documents

Publication Publication Date Title
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP4717622B2 (en) Program, information recording medium, and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP2006195882A (en) Program, information storage medium and image generation system
JP4651527B2 (en) Program, information storage medium, and image generation system
JP4749198B2 (en) Program, information storage medium, and image generation system
JP4502678B2 (en) Program, information storage medium, and image generation system
JP4754384B2 (en) Program, information recording medium, and image generation system
JP4806578B2 (en) Program, information storage medium, and image generation system
JP4743770B2 (en) Image generation system, program, and information storage medium
JP4827250B2 (en) Program, information storage medium, and image generation system
JP2006323512A (en) Image generation system, program, and information storage medium
JP4913399B2 (en) Program, information storage medium, and image generation system
JP4528008B2 (en) Program, information storage medium, and image generation system
JP4754385B2 (en) Program, information recording medium, and image generation system
US20070115279A1 (en) Program, information storage medium, and image generation system
JP2011215724A (en) Program, information storage medium, and image generation system
JP4592087B2 (en) Image generation system, program, and information storage medium
JP2002092640A (en) Game system and information storage medium
JP2007141079A (en) Program, information storage medium, and image generation system
JP4476040B2 (en) Program, information storage medium, and image generation system
JP2009140371A (en) Program, information storage medium, and image generation system
JP2002329213A (en) Image generation system, program, and information storage medium
JP2009140370A (en) Program, information storage medium, and image generation system
JP2008077406A (en) Image generation system, program, and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110511