JP2011141898A - Program, information storage medium, and image generation system - Google Patents

Program, information storage medium, and image generation system Download PDF

Info

Publication number
JP2011141898A
JP2011141898A JP2011086144A JP2011086144A JP2011141898A JP 2011141898 A JP2011141898 A JP 2011141898A JP 2011086144 A JP2011086144 A JP 2011086144A JP 2011086144 A JP2011086144 A JP 2011086144A JP 2011141898 A JP2011141898 A JP 2011141898A
Authority
JP
Japan
Prior art keywords
texture
value
image
unit
strip pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011086144A
Other languages
Japanese (ja)
Inventor
Koji Matsuo
公次 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2011086144A priority Critical patent/JP2011141898A/en
Publication of JP2011141898A publication Critical patent/JP2011141898A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program and the like allowing realistic expression of an image of a lawn and the like. <P>SOLUTION: The image generation system includes a texture storage part storing first to N-th textures, and a drawing part drawing first to N-th objects to which the first to N-th textures are mapped. As to a texel belonging to a first group among texels of the first texture, α<SB>1</SB>larger than zero is set for an α value. As to a texel of a K-th texture designated by the texture coordinates same as those for the texel for which the α value is set to α<SB>k-1</SB>larger than zero in a (K-1)-th texture (2≤k≤N), the α value is set to α<SB>k</SB>not more than α<SB>k-1</SB>. The drawing part draws the first to N-th objects so that a K-th object, to which the K-th texture is mapped, is drawn on a (K-1)-th object, to which the (K-1)-th texture is mapped. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、プログラム、情報記憶媒体及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

従来より、キャラクタなどのオブジェクトが配置設定されるオブジェクト空間内(仮想的な3次元空間)において仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。サッカーゲームを楽しめる画像生成システムを例にとれば、プレーヤは、画面に映し出されたキャラクタを操作し、フィールド上でドリブルをしたりシュートをしたりしてゲームを楽しむ。   Conventionally, an image generation system (game system) that generates an image that can be viewed from a virtual camera (a given viewpoint) in an object space (virtual three-dimensional space) in which an object such as a character is set is known. It is popular as a place to experience so-called virtual reality. Taking an image generation system for enjoying a soccer game as an example, the player enjoys the game by operating the characters displayed on the screen and dribbling or shooting on the field.

ところで、このようなサッカーゲームなどでは、競技場のフィールドの地面の芝生についてもリアルに表現できることが望ましい。   By the way, in such a soccer game, it is desirable that the lawn on the ground of the stadium field can be expressed realistically.

しかしながら、これまでの画像生成システムでは、このような芝生の表現は、芝生の画像が描かれた1枚のテクスチャを地面のオブジェクトにマッピングすることで実現していた。このため、芝生の深さなどをリアルに表現することができず、プレーヤの仮想現実感を今ひとつ向上できなかった。また2枚のポリゴンを用いて水面を表現する従来技術も知られているが、この従来技術では、2枚のポリゴン間でのα値の相関関係については考慮されていないため、リアルな芝生画像の生成は難しいという課題がある。   However, in conventional image generation systems, such a lawn expression has been realized by mapping a single texture on which a lawn image is drawn onto a ground object. For this reason, the depth of the lawn cannot be expressed realistically, and the virtual reality of the player cannot be improved. In addition, a conventional technique for expressing a water surface using two polygons is also known. However, since this conventional technique does not consider the correlation of α values between two polygons, a realistic lawn image is used. There is a problem that generation is difficult.

特開平11−90044号公報Japanese Patent Laid-Open No. 11-90044 特開平10−198819号公報JP 10-198819 A

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、芝生などの画像のリアルな表現を可能にするプログラム、情報記憶媒体及び画像生成システムを提供することにある。   The present invention has been made in view of the above problems, and an object thereof is to provide a program, an information storage medium, and an image generation system that enable realistic expression of an image such as a lawn. It is in.

本発明は、画像を生成する画像生成システムであって、第1〜第N(Nは2以上の整数)のテクスチャを記憶するテクスチャ記憶部と、前記第1〜第Nのテクスチャがマッピングされる第1〜第Nのオブジェクトを描画する描画部とを含み、前記テクスチャ記憶部は、前記第1のテクスチャのテクセルのうち第1のグループに属するテクセルについては、0よりも大きなα1にα値が設定されるように、前記第1のテクスチャを記憶し、第K−1(2≦K≦N)のテクスチャにおいて0よりも大きなαK-1がα値に設定されるテクセルと同じテクスチャ座標で指定される第Kのテクスチャのテクセルについては、前記αK-1以下のαKにα値が設定されるように、第2〜第Nのテクスチャを記憶し、前記描画部は、前記第K−1のテクスチャがマッピングされる第K−1のオブジェクトの上に、前記第Kのテクスチャがマッピングされる第Kのオブジェクトが描画されるように、前記第1〜第Nのオブジェクトを描画する画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。 The present invention is an image generation system for generating an image, wherein a texture storage unit that stores first to Nth textures (N is an integer of 2 or more) and the first to Nth textures are mapped. A drawing unit that draws the first to Nth objects, and the texture storage unit sets α value to α 1 larger than 0 for texels belonging to the first group among the texels of the first texture. Is stored in the first texture, and the same texture coordinates as the texel in which α K-1 greater than 0 is set to the α value in the K-1 (2 ≦ K ≦ N) texture For the K-th texture texel specified in (2), the second to N-th textures are stored so that an α value is set to α K equal to or less than α K−1 , and the drawing unit K-1 texture is mappi The present invention relates to an image generation system that draws the first to Nth objects such that a Kth object to which the Kth texture is mapped is drawn on a K-1th object to be mapped. . The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

本発明によれば、第1のテクスチャでは、第1のグループに属する複数のテクセルについては、0よりも大きなα1にα値が設定される。なおα1は第1のテクスチャの複数のテクセルにおいて異なる値であってもよいし、同じ値であってもよい。また第1のテクスチャのテクセルが属するグループは、第1のグループだけであってもよいし、それ以外の第2のグループ等があってもよい。 According to the present invention, in the first texture, the α value is set to α 1 larger than 0 for the plurality of texels belonging to the first group. Note that α 1 may be a different value in the plurality of texels of the first texture, or may be the same value. The group to which the first texture texel belongs may be only the first group, or there may be a second group other than the first group.

そしてK=2とした場合に、第2のテクスチャ(第Kのテクスチャ)では、第1のテクスチャ(第K−1のテクスチャ)においてα1にα値が設定されるテクセルと同じテクス
チャ座標のテクセルについては、α1以下のα2にα値が設定される。なおα2は第2のテ
クスチャの複数のテクセルにおいて異なる値であってもよいし、同じ値であってもよい。同様にK=3とした場合に、第3のテクスチャ(第Kのテクスチャ)では、第2のテクスチャ(第K−1のテクスチャ)において0より大きなα2にα値が設定されるテクセルと
同じテクスチャ座標のテクセルについては、α2以下のα3にα値が設定される。なおα3
は第3のテクスチャの複数のテクセルにおいて異なる値であってもよいし、同じ値であってもよい。
And when the K = 2, the second texture (texture of the K), texel same texture coordinates texels alpha value in alpha 1 in the first texture (the K-1 of the texture) is set Is set to α 2 which is equal to or less than α 1 . Note that α 2 may be a different value in the plurality of texels of the second texture, or may be the same value. Similarly, when K = 3, the third texture (Kth texture) is the same as the texel in which the α value is set to α 2 larger than 0 in the second texture (K−1 texture). For the texture coordinate texel, an α value is set to α 3 which is equal to or less than α 2 . Α 3
May be different values in the plurality of texels of the third texture, or may be the same value.

そして本発明では、第1のオブジェクト(第K−1のオブジェクト)の上に第2のオブジェクト(第Kのオブジェクト)が描画され、第2のオブジェクト(第K−1のオブジェクト)の上に第3のオブジェクト(第Kのオブジェクト)が描画されるというように、第1〜第Nのテクスチャがマッピングされる第1〜第Nのオブジェクト(レイヤー・オブジェクト)が描画される。従って第1〜第Nのテクスチャに設定されるα値を用いたブレンディング処理(α合成処理)等を行うことで、芝生等の画像のリアルな表現が可能になる。   In the present invention, the second object (Kth object) is drawn on the first object (K-1th object), and the second object (K-1th object) is drawn on the second object (K-1th object). The first to Nth objects (layer objects) to which the first to Nth textures are mapped are drawn, such that the third object (Kth object) is drawn. Accordingly, by performing blending processing (α synthesis processing) using α values set for the first to Nth textures, realistic representation of an image of a lawn or the like becomes possible.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記テクスチャ記憶部は、前記αK-1に対する前記αKの減衰率が少なくとも2つのテクセルで異なるように、前記第1〜第Nのテクスチャを記憶するようにしてもよい。 In the image generation system, the program, and the information storage medium according to the present invention, the texture storage unit includes the first to Nth items so that the attenuation rate of the α K with respect to the α K-1 is different between at least two texels. The texture may be stored.

このようにすれば、第1〜第Nのテクスチャの各テクセル(第1のグループのテクセル)におけるα値が、下のレイヤーのオブジェクトから上のレイヤーのオブジェクトに向かって異なる減衰率で減少するようになる。従って、芝生の草等の長さが不規則に変化する様子を表現できるようになり、よりリアルな画像を生成できる。   In this way, the α value in each texel (first group texel) of the first to Nth textures decreases with a different attenuation rate from the object in the lower layer toward the object in the upper layer. become. Therefore, it becomes possible to express a state in which the length of grass on the lawn changes irregularly, and a more realistic image can be generated.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記テクスチャ記憶部は、前記第1のテクスチャのテクセルのうち第2のグループに属するテクセルについては、0のα値が設定されるように、前記第1のテクスチャを記憶するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the texture storage unit sets an α value of 0 for the texels belonging to the second group among the texels of the first texture. In addition, the first texture may be stored.

このようにすれば、第2のグループのテクセルの下にある画像が透けて見えるリアルな画像を生成できる。   By doing this, it is possible to generate a realistic image in which the image under the second group of texels can be seen through.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記テクスチャ記憶部は、前記第1のテクスチャにおいて0のα値が設定されるテクセルと同じテクスチャ座標で指定される第2〜第Nのテクスチャのテクセルについては、0のα値が設定されるように、前記第2〜第Nのテクスチャを記憶するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the texture storage unit includes second to N-th specified by the same texture coordinates as the texel in which the α value of 0 is set in the first texture. For the texture texels, the second to Nth textures may be stored so that an α value of 0 is set.

このようにすれば、例えば上方向から見た場合等に、第2のグループのテクセルの下にある画像が透けて見えるようになり、更にリアルな画像を生成できる。   In this way, for example, when viewed from above, the image under the second group of texels can be seen through, and a more realistic image can be generated.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記テクスチャ記憶部は、0よりも大きなα値に設定α1されるテクセルの周囲のテクセルについては、0のα値に設定されるように、前記第1のテクスチャを記憶するようにしてもよい。 In the image generation system, program, and information storage medium according to this embodiment, the texture memory unit, large for the texels surrounding texels set alpha 1 to alpha values are set to alpha value of 0 than 0 As described above, the first texture may be stored.

このようにすれば、例えばテクスチャマッピングのバイリニア補間等を利用して、リアルな画像を生成できるようになる。   In this way, a real image can be generated using, for example, bilinear interpolation of texture mapping.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記描画部は、下地オブジェクトを描画し、前記下地オブジェクトの上に前記第1〜第Nのオブジェクトを描画し、前記第1〜第Nのテクスチャに設定されるα値に基づいて、前記下地オブジェクトの色と第1〜第Nのオブジェクトの色とのブレンディング処理を行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the drawing unit draws a base object, draws the first to Nth objects on the base object, and the first to first objects. Based on the α value set for the N texture, blending processing of the color of the background object and the colors of the first to Nth objects may be performed.

このようにすれば、下地オブジェクトの色と第1〜第Nのオブジェクトの色とがブレンドされた色の画像を生成できるようになる。なお第1〜第Nのオブジェクトの色は、第1〜第Nのオブジェクトの頂点色として設定される色であってもよいし、第1〜第Nのテクスチャに設定される色であってもよい。或いは第1〜第Nのテクスチャとは別に用意され、第1〜第Nのオブジェクトにマッピングされるテクスチャ(例えば第1、第2の帯状パターンテクスチャ)に設定される色であってもよい。   In this way, it is possible to generate an image having a color obtained by blending the color of the background object and the colors of the first to Nth objects. The colors of the first to Nth objects may be colors set as vertex colors of the first to Nth objects, or may be colors set to the first to Nth textures. Good. Alternatively, it may be a color that is prepared separately from the first to Nth textures and set to the texture (for example, the first and second strip pattern textures) mapped to the first to Nth objects.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記下地オブジェクトは、地面を表現するためのオブジェクトであってもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the base object may be an object for expressing the ground.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記第1〜第Nのオブジェクトは、前記地面の上の芝生を表現するためのオブジェクトであってもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the first to Nth objects may be objects for representing a lawn on the ground.

なお下地オブジェクトは、地面を表現するオブジェクト以外であってもよいし、第1〜第Nのオブジェクトは、芝生以外の画像を表現するためのオブジェクトであってもよい。   The ground object may be other than an object representing the ground, and the first to Nth objects may be objects for representing an image other than the lawn.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、仮想カメラの視線方向、視点位置を制御する仮想カメラ制御部と、α値演算部とを含み(仮想カメラ制御部、α値演算部としてコンピュータを機能させ)、前記テクスチャ記憶部は、明るい色の帯状パターンと暗い色の帯状パターンとが第1の座標軸方向に沿って並ぶ第1の帯状パターンテクスチャと、明るい色の帯状パターンと暗い色の帯状パターンとが第2の座標軸方向に沿って並ぶ第2の帯状パターンテクスチャを記憶し、前記α値演算部は、前記仮想カメラの視線方向に基づいて、前記第1、第2の帯状パターンテクスチャの色のブレンド率であるα値αABを演算し、前記描画部は、前記第1の帯状パターンテクスチャの色と前記第2の帯状パターンテクスチャの色とを前記αABに基づいてブレンドするαブレンディング処理を行いながら、前記第1、第2の帯状パターンテクスチャがマッピングされる前記第1〜第Nのオブジェクトを描画するようにしてもよい。   In addition, the image generation system, the program, and the information storage medium according to the present invention include a virtual camera control unit that controls the viewing direction and the viewpoint position of the virtual camera, and an α value calculation unit (virtual camera control unit, α value calculation unit) And the texture storage unit includes a first belt-shaped pattern texture in which a light-colored belt-shaped pattern and a dark-colored belt-shaped pattern are arranged along the first coordinate axis direction, a light-colored belt-shaped pattern, and a dark color. A second belt-like pattern texture in which color belt-like patterns are arranged along the second coordinate axis direction is stored, and the α value calculation unit is configured to perform the first and second belt-like shapes based on the line-of-sight direction of the virtual camera. The α value αAB, which is a blend ratio of the pattern texture colors, is calculated, and the drawing unit calculates the color of the first strip pattern texture and the second strip pattern texture. The first to Nth objects to which the first and second band-shaped pattern textures are mapped may be drawn while performing an α blending process for blending the first and second colors based on the αAB.

また本発明は、画像を生成する画像生成システムであって、仮想カメラの視線方向、視点位置を制御する仮想カメラ制御部と、明るい色の帯状パターンと暗い色の帯状パターンとが第1の座標軸方向に沿って並ぶ第1の帯状パターンテクスチャと、明るい色の帯状パターンと暗い色の帯状パターンとが第2の座標軸方向に沿って並ぶ第2の帯状パターンテクスチャを記憶するテクスチャ記憶部と、前記仮想カメラの視線方向に基づいて、前記第1、第2の帯状パターンテクスチャの色のブレンド率であるα値αABを演算するα値演算部と、前記第1の帯状パターンテクスチャの色と前記第2の帯状パターンテクスチャの色とを前記αABに基づいてブレンドするαブレンディング処理を行いながら、前記第1、第2の帯状パターンテクスチャがマッピングされるオブジェクトを描画する描画部とを含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。   The present invention is also an image generation system for generating an image, wherein a virtual camera control unit that controls a visual line direction and a viewpoint position of a virtual camera, and a light-colored belt-shaped pattern and a dark-colored belt-shaped pattern have a first coordinate axis. A texture storage unit for storing a first belt-shaped pattern texture arranged along the direction, a second belt-shaped pattern texture in which a light-colored belt-shaped pattern and a dark-colored belt-shaped pattern are arranged along the second coordinate axis direction; Based on the line-of-sight direction of the virtual camera, an α value calculation unit that calculates an α value αAB that is a blend ratio of the colors of the first and second band-shaped pattern textures, the color of the first band-shaped pattern texture, and the first While performing the α blending process of blending the color of the two strip pattern textures based on the αAB, the first and second strip pattern textures The present invention relates to an image generation system including a drawing unit that draws an object to be mapped. The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

本発明によれば、仮想カメラの視線方向に基づいてα値αABが求められる。具体的には例えば視線方向のベクトルと所与の方向のベクトル(例えば第1又は第2の座標軸方向の単位ベクトル)との内積等に基づいてα値αABが求められる。そして求められたα値αABに基づいて第1の帯状パターンテクスチャの色と第2の帯状パターンテクスチャの色がブレンドされてオブジェクトが描画される。このようにすれば、仮想カメラの視線方向に応じて、第1の帯状パターンテクスチャの色と第2の帯状パターンテクスチャの色のブレンド率が変化するようになり、例えば芝目等のリアルな画像を生成できるようになる。   According to the present invention, the α value αAB is obtained based on the viewing direction of the virtual camera. Specifically, the α value αAB is obtained based on, for example, an inner product of a vector in the line-of-sight direction and a vector in a given direction (for example, a unit vector in the first or second coordinate axis direction). Then, based on the obtained α value αAB, the color of the first strip pattern texture and the color of the second strip pattern texture are blended to draw the object. In this way, the blend ratio of the color of the first belt-shaped pattern texture and the color of the second belt-shaped pattern texture changes according to the viewing direction of the virtual camera. For example, a realistic image such as turf Can be generated.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記描画部は、下地オブジェクトを描画し、前記下地オブジェクトの上に、前記第1、第2の帯状パターンテクスチャがマッピングされるオブジェクトを描画するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the drawing unit draws an underlying object, and an object on which the first and second strip pattern textures are mapped on the underlying object. You may make it draw.

また本発明では、前記下地オブジェクトは、地面を表現するためのオブジェクトであってもよい。   In the present invention, the base object may be an object for expressing the ground.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記第1、第2の帯状パターンテクスチャがマッピングされるオブジェクトは、前記地面の上の芝生を表現するためのオブジェクトであってもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the object to which the first and second strip pattern textures are mapped may be an object for representing the lawn on the ground. .

なお下地オブジェクトは、地面を表現するオブジェクト以外であってもよいし、第1、第2の帯状パターンテクスチャがマッピングされるオブジェクトは、芝生以外の画像を表現するためのオブジェクトであってもよい。   The ground object may be other than an object representing the ground, and the object to which the first and second strip pattern textures are mapped may be an object for representing an image other than the lawn.

本実施形態の画像生成システムの機能ブロック図の例。The example of a functional block diagram of the image generation system of this embodiment. 本実施形態の描画手法の説明図。Explanatory drawing of the drawing method of this embodiment. 本実施形態の描画手法の説明図。Explanatory drawing of the drawing method of this embodiment. テクスチャに設定されるα値のパターン例。Example of α value pattern set for texture. テクスチャTEX1の具体例。A specific example of the texture TEX1. テクスチャTEX2の具体例。A specific example of the texture TEX2. テクスチャTEX3の具体例。A specific example of texture TEX3. テクスチャTEX4の具体例。A specific example of texture TEX4. テクスチャTEX5の具体例。A specific example of texture TEX5. テクスチャTEX6の具体例。A specific example of texture TEX6. テクスチャのα値の設定手法の説明図。Explanatory drawing of the setting method of the alpha value of a texture. 図12(A)(B)(C)(D)はバイリニア補間を利用する手法の説明図。12A, 12B, 12C, and 12D are explanatory diagrams of a method using bilinear interpolation. 本実施形態により生成される画像の例。The example of the image produced | generated by this embodiment. 本実施形態により生成される画像の例。The example of the image produced | generated by this embodiment. 本実施形態により生成される画像の例。The example of the image produced | generated by this embodiment. 本実施形態により生成される画像の例。The example of the image produced | generated by this embodiment. 芝目を表現する手法の説明図。Explanatory drawing of the method of expressing lawn eyes. 芝目を表現する手法の説明図。Explanatory drawing of the method of expressing lawn eyes. 本実施形態により生成される画像の例。The example of the image produced | generated by this embodiment. 本実施形態の処理の詳細例。The detailed example of the process of this embodiment. ハードウェア構成例。Hardware configuration example.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game system) of the present embodiment. Note that the image generation system of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。   The operation unit 160 is for a player to input operation data, and the function can be realized by a lever, a button, a steering, a microphone, a touch panel display, a housing, or the like. The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、ハードディスク、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), hard disk, or memory (ROM). It can be realized by. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

携帯型情報記憶装置194は、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。通信部196は外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device. The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or communication ASICs, programs, and the like. It can be realized by.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   A program (data) for causing a computer to function as each unit of the present embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (or storage unit 170) via the network and communication unit 196. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は記憶部170(主記憶部172)をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, as the game process, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result are calculated. There is a process or a process of ending a game when a game end condition is satisfied. The processing unit 100 performs various processes using the storage unit 170 (main storage unit 172) as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部114、α値演算部116、描画部120、音生成部130を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 114, an α value calculation unit 116, a drawing unit 120, and a sound generation unit 130. Note that some of these may be omitted.

オブジェクト空間設定部110は、キャラクタ、ボール、芝生、地面(フィールド)、競技場などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどの1又は複数のプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のモデルデータ記憶部176には、移動体オブジェクト(キャラクタ、ボール)、背景オブジェクト(芝生、地面、競技場、天球)のモデルデータが記憶されている。そしてオブジェクト空間設定部110は、このモデルデータを用いてオブジェクト空間へのオブジェクトの設定(配置)処理を行う。   The object space setting unit 110 includes various objects representing objects such as a character, a ball, a lawn, a ground (field), a stadium, etc. (objects configured by one or a plurality of primitive surfaces such as a polygon, a free-form surface, or a subdivision surface). ) Is set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, the model data storage unit 176 of the storage unit 170 stores model data of a moving object (character, ball) and a background object (lawn, ground, stadium, celestial sphere). Then, the object space setting unit 110 performs an object setting (arrangement) process in the object space using the model data.

移動・動作処理部112は、オブジェクト(キャラクタ又はボール等)の移動・動作演算(移動・動作シミュレーション)を行う。即ち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、オブジェクト(モデルオブジェクト)をオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させる処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 performs movement / motion calculation (movement / motion simulation) of an object (such as a character or a ball). That is, an object (model object) is moved in the object space or an object is moved based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), or the like. Perform processing (motion, animation). Specifically, a simulation process for sequentially obtaining object movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) every frame (1/60 second). Do. A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   The virtual camera control unit 114 performs a virtual camera (viewpoint) control process for generating an image viewed from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.

例えば仮想カメラによりオブジェクト(例えばキャラクタ、ボール、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   For example, when an object (eg, character, ball, car) is photographed from behind using a virtual camera, the position or rotation angle of the virtual camera (the direction of the virtual camera is set so that the virtual camera follows changes in the position or rotation of the object. ) To control. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

α値演算部116はα値の演算処理を行う。具体的には仮想カメラ制御部114で得られた仮想カメラの視線方向(視線方向ベクトル)に基づいてα値を演算する。   The α value calculation unit 116 performs α value calculation processing. Specifically, the α value is calculated based on the visual line direction (visual line direction vector) of the virtual camera obtained by the virtual camera control unit 114.

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まずモデル(オブジェクト)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むモデルデータが入力され、入力されたモデルデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. When generating a so-called three-dimensional game image, model data including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the model (object) is first input. Based on the vertex data included in the input model data, vertex processing (shading by a vertex shader) is performed. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、あるいは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。   In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate conversion (world coordinate conversion, camera coordinate conversion), clipping processing, perspective processing, and other geometric processing are performed. On the basis of the processing result, the vertex data given to the vertex group constituting the object is changed (updated or adjusted). Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed.

ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたモデルの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。即ち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed model is output (drawn) to the drawing buffer 174 (a buffer capable of storing image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   The vertex processing and pixel processing are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.

描画部120は、ジオメトリ処理部122、隠面消去部124、αブレンディング部126、テクスチャマッピング部128を含む。   The drawing unit 120 includes a geometry processing unit 122, a hidden surface removal unit 124, an α blending unit 126, and a texture mapping unit 128.

ジオメトリ処理部122は、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等のジオメトリ処理を行う。そして、ジオメトリ処理後(透視投影変換後)のモデルデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、記憶部170に保存される。   The geometry processing unit 122 performs geometry processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation on the object. Then, model data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the storage unit 170. .

隠面消去部124は、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行う。即ちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照する。そして参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うと共にZバッファのZ値を新たなZ値に更新する。   The hidden surface removal unit 124 performs hidden surface removal processing by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which Z values (depth information) of drawing pixels are stored. That is, when drawing a pixel corresponding to the primitive of the object, the Z value stored in the Z buffer is referred to. Then, the Z value of the referenced Z buffer is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is a Z value (for example, a small Z value) on the near side when viewed from the virtual camera. In some cases, the drawing process of the drawing pixel is performed and the Z value of the Z buffer is updated to a new Z value.

αブレンディング部126はαブレンディング処理を行う。ここでαブレンディング処理は、α値(A値)に基づいて行う処理であり、通常αブレンディング、加算αブレンディング或いは減算αブレンディングなどがある。例えば通常αブレンディングの場合には下式の処理を行う。   The α blending unit 126 performs α blending processing. Here, the α blending process is a process performed based on the α value (A value), and includes normal α blending, addition α blending, subtraction α blending, and the like. For example, in the case of normal α blending, the following processing is performed.

Q=(1−α)×R1+α×R2
Q=(1−α)×G1+α×G2
Q=(1−α)×B1+α×B2
一方、加算αブレンディングの場合には下式の処理を行う。
R Q = (1−α) × R 1 + α × R 2
G Q = (1−α) × G 1 + α × G 2
B Q = (1−α) × B 1 + α × B 2
On the other hand, in the case of addition α blending, the following processing is performed.

Q=R1+α×R2
Q=G1+α×G2
Q=B1+α×B2
また、減算αブレンディングの場合には下式の処理を行う。
R Q = R 1 + α × R 2
G Q = G 1 + α × G 2
B Q = B 1 + α × B 2
In the case of subtractive α blending, the following processing is performed.

Q=R1−α×R2
Q=G1−α×G2
Q=B1−α×B2
ここで、R1、G1、B1は、描画バッファ174(フレームバッファ)に既に描画されている画像(元画像)のRGB成分であり、R2、G2、B2は、描画バッファ174に描画すべき画像のRGB成分である。また、RQ、GQ、BQは、αブレンディングにより得られる画像のRGB成分である。なおα値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、半透明度(透明度、不透明度と等価)情報、マスク情報、或いはバンプ情報などとして使用できる。
R Q = R 1 −α × R 2
G Q = G 1 −α × G 2
B Q = B 1 −α × B 2
Here, R 1 , G 1 and B 1 are RGB components of an image (original image) already drawn in the drawing buffer 174 (frame buffer), and R 2 , G 2 and B 2 are drawing buffers 174. Are RGB components of the image to be drawn. R Q , G Q , and B Q are RGB components of an image obtained by α blending. The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as translucency (equivalent to transparency and opacity) information, mask information, or bump information.

テクスチャマッピング部128はテクスチャマッピング(テクスチャサンプリング)処理を行う。ここでテクスチャマッピング処理は、テクスチャ記憶部178に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングする処理である。具体的には、オブジェクト(プリミティブ面)の頂点等に設定(付与)されるテクスチャ座標等を用いてテクスチャ記憶部178からテクスチャ(色、α値などの表面プロパティ)を読み出す。そして、2次元の画像又はパターンであるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理やバイリニア補間(テクセル補間)などを行う。   The texture mapping unit 128 performs texture mapping (texture sampling) processing. Here, the texture mapping process is a process of mapping a texture (texel value) stored in the texture storage unit 178 to an object. Specifically, the texture (surface properties such as color and α value) is read from the texture storage unit 178 using texture coordinates or the like set (given) to the vertex or the like of the object (primitive surface). Then, a texture that is a two-dimensional image or pattern is mapped to the object. In this case, processing for associating pixels and texels, bilinear interpolation (texel interpolation), and the like are performed.

そして本実施形態ではテクスチャ記憶部178は、第1〜第N(Nは2以上の整数。或いはNは3又は4以上の整数)のテクスチャ(テクスチャデータ)を記憶する。この第1〜第Nのテクスチャは芝生を表現するためのテクスチャであり、α値のプレーンを有する。そして描画部120は、この第1〜第Nのテクスチャをテクスチャ記憶部178から読み出し、読み出された第1〜第Nのテクスチャを第1〜第Nのオブジェクトにマッピングし、これらの第1〜第Nのオブジェクトを描画バッファ174に描画する。この第1〜第Nのオブジェクトは芝生(地面の上の芝生)を表現するためのオブジェクトであり、1又は複数のプリミティブ面により構成される。   In this embodiment, the texture storage unit 178 stores the first to Nth textures (N is an integer of 2 or more, or N is an integer of 3 or 4). The first to Nth textures are textures for representing the lawn, and have an α value plane. The drawing unit 120 reads the first to Nth textures from the texture storage unit 178, maps the read first to Nth textures to the first to Nth objects, and sets the first to Nth textures. The Nth object is drawn in the drawing buffer 174. The first to Nth objects are objects for expressing a lawn (a lawn on the ground), and are configured by one or a plurality of primitive surfaces.

具体的にはテクスチャ記憶部178では、第1のテクスチャのテクセルのうち第1のグループに属するテクセル(複数のテクセル)については、0よりも大きなα1にα値が設定される。例えば第1のテクスチャのテクセルのうち第1のグループに属する第1〜第Iのテクセルでは、0よりも大きなα1にα値が設定される。一方、第1のテクスチャのテクセルのうち第2のグループに属する第I+1〜第Jのテクセルでは、例えば0のα値が設定される。この場合、0よりも大きなα1にα値が設定されるテクセル(第1のグループに属するテクセル)の周囲(例えば上下左右)のテクセルについては、0のα値が設定されるようにすることができる。 Specifically, the texture storage unit 178 sets an α value to α 1 larger than 0 for texels (plural texels) belonging to the first group among the texels of the first texture. For example, in the first to I-th texels belonging to the first group among the texels of the first texture, the α value is set to α 1 larger than 0. On the other hand, for the (I + 1) th to Jth texels belonging to the second group among the texels of the first texture, for example, an α value of 0 is set. In this case, the α value of 0 is set for the texels around the texel (the texels belonging to the first group) whose α value is set to α 1 larger than 0 (for example, up, down, left, and right). Can do.

なお第1〜第Iのテクセルのα値は、例えばα1=1.0というように同じ値であってもよいし、違う値であってもよい。また本実施形態では、α値が0であるということは透明を意味し、α値が1.0であるということは不透明を意味しており、この意味と同様の意味を持つαの値は本発明の範囲に含まれる。 The α values of the first to I-th texels may be the same value, for example α 1 = 1.0, or may be different values. In this embodiment, an α value of 0 means transparent, and an α value of 1.0 means opaque, and the value of α having the same meaning as this meaning is It is included in the scope of the present invention.

またテクスチャ記憶部178では、第K−1(2≦K≦N)のテクスチャにおいて0よりも大きなαK-1にα値が設定されるテクセルと同じテクスチャ座標の第Kのテクスチャ
のテクセルについては、αK-1以下のαK(αK-1より小さなαK)にα値が設定される。例えば第1のテクスチャ(第K−1のテクスチャ)において0よりも大きなα1にα値が設定されるテクセルと同じテクスチャ座標の第2のテクスチャ(第Kのテクスチャ)のテクセルについては、α1以下のα2にα値が設定される。また第2のテクスチャ(第K−1のテクスチャ)において0よりも大きなα2にα値が設定されるテクセルと同じテクスチャ座標の第3のテクスチャ(第Kのテクスチャ)のテクセルについては、α2以下のα3にα値が設定される。第4〜第Nのテクスチャについても同様である。
Also, in the texture storage unit 178, for the K-th texture texel having the same texture coordinates as the texel in which the α value is set to α K-1 larger than 0 in the K-1 (2 ≦ K ≦ N) texture. , alpha value is set alpha K-1 or less of alpha K (from alpha K-1 small alpha K) to. For example, for texels first texture second texture of the same texture coordinates texels alpha value greater alpha 1 than 0 in (a K-1 of the texture) is set (texture of the K), alpha 1 The α value is set to α 2 below. For the second texture (K-1th texture), the texel of the third texture (Kth texture) having the same texture coordinates as the texel whose α value is set to α 2 larger than 0 is α 2. The α value is set to the following α 3 . The same applies to the fourth to Nth textures.

この場合に、第1のテクスチャにおいて0のα値が設定されるテクセルと同じテクスチャ座標で指定される第2〜第Nのテクスチャのテクセルについては、例えばα値が0に設定される。またαK-1に対するαKの減衰率が少なくとも2つのテクセルで異なるように、第1〜第Nのテクスチャが記憶される。例えば第1のテクセルでのα値の減衰率と第2のテクセルでのα値の減衰率が異なるようにする。 In this case, for the texels of the second to Nth textures specified by the same texture coordinates as the texels for which the α value of 0 is set in the first texture, the α value is set to 0, for example. Further, the first to Nth textures are stored so that the attenuation rate of α K with respect to α K-1 is different between at least two texels. For example, the α value attenuation rate of the first texel is different from the α value attenuation rate of the second texel.

描画部120は、第K−1のテクスチャがマッピングされる第K−1のオブジェクトの上に、第Kのテクスチャがマッピングされる第Kのオブジェクトが描画されるように、第1〜第Nのオブジェクトを描画する。例えば第1のテクスチャがマッピングされる第1のオブジェクトを描画し、この第1のオブジェクトの上に、第2のテクスチャがマッピングされる第2のオブジェクトを描画する。また第2のオブジェクトの上に、第3のテクスチャがマッピングされる第3のオブジェクトを描画する。第4〜第Nのオブジェクトについても同様である。   The drawing unit 120 draws the first to Nth objects so that the Kth object to which the Kth texture is mapped is drawn on the K-1th object to which the K-1th texture is mapped. Draw the object. For example, a first object to which the first texture is mapped is drawn, and a second object to which the second texture is mapped is drawn on the first object. A third object to which the third texture is mapped is drawn on the second object. The same applies to the fourth to Nth objects.

また描画部120は、下地オブジェクトを描画バッファ174に描画する。具体的には下地テクスチャがマッピングされた下地オブジェクトを描画する。そして描画された下地オブジェクトの上に第1〜第Nのオブジェクトを順次描画する。更に具体的には、第1〜第Nのテクスチャに設定されるα値に基づいて、下地オブジェクトの色と第1〜第Nのオブジェクトの色(芝生等のテクスチャの色)とのブレンディング処理を行う。   The drawing unit 120 draws the base object in the drawing buffer 174. Specifically, a base object to which the base texture is mapped is drawn. Then, the first to Nth objects are sequentially drawn on the drawn base object. More specifically, blending processing of the color of the background object and the color of the first to Nth objects (the color of the texture such as grass) is performed based on the α value set for the first to Nth textures. Do.

なお下地オブジェクトは例えば地面(マップ)等を表現するためのオブジェクトである。また下地オブジェクトを基準として、第1のオブジェクトは最も低い位置に配置され、第Nのオブジェクトは最も高い位置に配置される。   The base object is an object for expressing the ground (map) or the like, for example. The first object is arranged at the lowest position and the Nth object is arranged at the highest position with respect to the base object.

また本実施形態ではテクスチャ記憶部178が、明るい色(輝度が高い色)の帯状パターンと暗い色(輝度が低い色)の帯状パターンとが第1の座標軸方向(例えばY軸)に沿って交互に並ぶ第1の帯状パターンテクスチャ(横の芝目を表すためのテクスチャ)を記憶する。また明るい色の帯状パターンと暗い色の帯状パターンとが第2の座標軸方向(例えばX軸)に沿って交互に並ぶ第2の帯状パターンテクスチャ(縦の芝目を表すためのテクスチャ)を記憶する。なお3つ以上の帯状パターンテクスチャを記憶するようにしてもよい。   Further, in this embodiment, the texture storage unit 178 causes the light-colored (high luminance) belt-shaped pattern and the dark color (low-luminance color) belt-shaped pattern to alternate along the first coordinate axis direction (for example, the Y-axis). The first belt-like pattern texture (texture for expressing the horizontal lawn) arranged in a row is stored. In addition, a second belt-shaped pattern texture (texture for representing a vertical lawn) in which a light-colored belt-shaped pattern and a dark-colored belt-shaped pattern are alternately arranged along the second coordinate axis direction (for example, the X axis) is stored. . Three or more strip pattern textures may be stored.

そしてα値演算部116は、仮想カメラの視線方向に基づいてα値αABを演算する。また描画部120(αブレンディング部126)は、第1の帯状パターンテクスチャの色と第2の帯状パターンテクスチャの色とをαABに基づいてブレンドするブレンディング処理(α合成処理)を行う。そして描画部120(テクスチャマッピング部128)は、第1、第2の帯状パターンテクスチャを第1〜第Nのオブジェクトにマッピングして描画する。   The α value calculation unit 116 calculates the α value αAB based on the line-of-sight direction of the virtual camera. The drawing unit 120 (α blending unit 126) performs blending processing (α synthesis processing) for blending the color of the first strip pattern texture and the color of the second strip pattern texture based on αAB. The drawing unit 120 (texture mapping unit 128) maps and draws the first and second strip pattern textures to the first to Nth objects.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
2.1 芝生画像の表現
図2に示すように本実施形態では、テクスチャ記憶部178がテクスチャTEX1〜TEX6(広義には第1〜第Nのテクスチャ)を記憶する。これらのTEX1〜TEX6はα値のプレーンを有するテクスチャである。そして描画部120は、これらのテクスチャTEX1〜TEX6がマッピングされるオブジェクトOB1〜OB6(広義には第1〜第Nのオブジェクト)を描画する。具体的には、競技場の地面(フィールド)等を表す地面オブジェクトOBG(広義には下地オブジェクト)に地面テクスチャTEXG(広義には下地テクスチャ)をマッピングして描画バッファ174に描画する。そしてこの地面オブジェクトOBGの上に、テクスチャTEX1〜TEX6のα値を用いたαブレンディング処理を行いながら、複数レイヤーに重ねられたオブジェクトOB1〜OB6を描画する。
2. 2. Method of Present Embodiment 2.1 Representation of Lawn Image In the present embodiment, as shown in FIG. 2, the texture storage unit 178 stores textures TEX1 to TEX6 (first to Nth textures in a broad sense). These TEX1 to TEX6 are textures having an α value plane. The drawing unit 120 draws objects OB1 to OB6 (first to Nth objects in a broad sense) to which these textures TEX1 to TEX6 are mapped. Specifically, the ground texture TEXG (base texture in a broad sense) is mapped to the ground object OBG (base object in a broad sense) representing the ground (field) of the stadium and the like and drawn in the drawing buffer 174. Then, the objects OB1 to OB6 superimposed on the plurality of layers are drawn on the ground object OBG while performing the α blending process using the α values of the textures TEX1 to TEX6.

更に具体的には、サッカー競技場のフィールドの芝生用のテクスチャとして図3に示すようなTEXAが用意される。このTEXAは芝生の色を表すテクスチャであり、競技場
のフィールド全体の芝生の色を1枚のテクスチャで表している。本実施形態では、このテクスチャTEXAの色と、地面オブジェクトOBGの色とを、テクスチャTEX1〜TEX6に設定されたα値を用いてブレンドする。このために本実施形態では図3に示すように、テクスチャTEX1〜TEX6がマッピングされるオブジェクトOB1〜OB6をリピートしながら、フィールドを敷き詰めるように描画する。
More specifically, TEXA as shown in FIG. 3 is prepared as a grass texture for a soccer field. This TEXA is a texture representing the color of the lawn, and the lawn color of the entire field of the stadium is represented by a single texture. In the present embodiment, the color of the texture TEXA and the color of the ground object OBG are blended using the α values set in the textures TEX1 to TEX6. For this reason, in the present embodiment, as shown in FIG. 3, the objects OB1 to OB6 to which the textures TEX1 to TEX6 are mapped are drawn so as to spread the field.

図4にテクスチャTEX1、TEX2、TEX3・・・のα値のパターンの例を示す。例えばテクスチャTEX1のテクセルのうち、A1、A2、A3に示すテクセルは第1のグループに属し、0よりも大きなα1=1.0にα値が設定されている。このようにα1=1.0となる第1のグループのテクセルは、芝生のうち草がある部分を表している。 FIG. 4 shows an example of α value patterns of the textures TEX1, TEX2, TEX3. For example, among the texels of the texture TEX1, the texels indicated by A1, A2, and A3 belong to the first group, and the α value is set to α 1 = 1.0 larger than 0. In this way, the first group of texels in which α 1 = 1.0 represents a portion of the lawn with grass.

一方、TEX1のテクセルのうち、B1、B2、B3、B4に示すテクセルは第2のグループに属し、0のα値が設定されている。このようにα値が0となる第2のグループのテクセルは、芝生のうち穴が空いて地面が見える部分を表している。   On the other hand, among the texels of TEX1, texels shown in B1, B2, B3, and B4 belong to the second group, and an α value of 0 is set. In this way, the second group of texels having an α value of 0 represents a portion of the lawn where a hole is formed and the ground can be seen.

テクスチャTEX1(第K−1のテクスチャ)においてα1=1.0に設定されている
A1〜A3のテクセルと同じテクスチャ座標(テクスチャアドレス)のテクスチャTEX2(第Kのテクスチャ)のテクセルについては、図4のC1、C2、C3に示すようにα1=1.0よりも小さなα2=0.8、0.6、0.7にα値が設定されている。例えばA1、C1では、1.0から0.8にα値が減少し、A2、C2では、1.0から0.6にα値が減少している。
For the texel of texture TEX2 (Kth texture) having the same texture coordinates (texture address) as the texels of A1 to A3 set to α 1 = 1.0 in the texture TEX1 (K-1th texture), FIG. As indicated by C1, C2, and C3 of 4, α values are set to α 2 = 0.8, 0.6, and 0.7, which are smaller than α 1 = 1.0. For example, in A1 and C1, the α value decreases from 1.0 to 0.8, and in A2 and C2, the α value decreases from 1.0 to 0.6.

この場合に本実施形態では、α1(αK-1)に対するα2(αK)の減衰率が少なくとも2つのテクセルで異なるようになっている。例えばα1に対するα2の減衰率は、A1、C1では80パーセントとなり、A2、C2では60パーセントとなる。 In this case, in the present embodiment, the attenuation rate of α 2K ) with respect to α 1K-1 ) is different between at least two texels. For example alpha 2 of the attenuation factor alpha for 1, A1, the C1 becomes 80%, and 60% of the A2, C2.

またテクスチャTEX2(第K−1のテクスチャ)においてα2=0.8、0.6、0
.7にα値が設定されているC1〜C3のテクセルと同じテクスチャ座標で指定されるテクスチャTEX3(第Kのテクスチャ)のテクセルについては、図4のE1、E2、E3に示すように、α2=0.8、0.6、0.7よりも小さなα3=0.6、0.3、0.4にα値が設定されている。例えばC1、E1では0.8から0.6にα値が減少し、C2、E2では0.6から0.3にα値が減少している。
In the texture TEX2 (K-1th texture), α 2 = 0.8, 0.6, 0
. Texture alpha value 7 is specified in the same texture coordinates and texel C1~C3 being set TEX3 For texels (texture of the K), as shown in E1, E2, E3 in FIG. 4, alpha 2 The α value is set to α 3 = 0.6, 0.3, 0.4 smaller than 0.8, 0.6, 0.7. For example, the α value decreases from 0.8 to 0.6 at C1 and E1, and the α value decreases from 0.6 to 0.3 at C2 and E2.

この場合にも本実施形態では、α2(αK-1)に対するα3(αK)の減衰率が少なくとも2つのテクセルで異なるようになっている。例えばα2に対するα3の減衰率は、C1、E1では75パーセントとなり、C2、E2では50パーセントとなっている。 Also in this case, in the present embodiment, the attenuation rate of α 3K ) with respect to α 2K-1 ) is different between at least two texels. For example, the attenuation rate of α 3 with respect to α 2 is 75 percent for C1 and E1, and 50 percent for C2 and E2.

更に図4のB1、D1、F1や、B2、D2、F2に示すように、テクスチャTEX1においてα値が0に設定されるテクセルと同じテクスチャ座標で指定されるテクスチャTEX2、TEX3(第2〜第Nのテクスチャ)のテクセルについても、α値が0に設定される。   Furthermore, as shown by B1, D1, F1 and B2, D2, F2 in FIG. 4, textures TEX2, TEX3 (second to second) specified by the same texture coordinates as the texels whose α value is set to 0 in texture TEX1. The α value is also set to 0 for N textures).

図5〜図10にテクスチャTEX1〜TEX6の具体例を示す。例えば図5のテクスチャTEX1において、白の色のテクセルはα=1.0に設定されているテクセル(第1のグループに属するテクセル)であり、黒の色のテクセルはα=0.0に設定されているテクセル(第2のグループに属するテクセル)である。また図6のテクスチャTEX2では白い色のテクセル(α=1.0のテクセル)が減っており、図7のテクスチャTEX3では更に減っている。そして図10のテクスチャTEX6ではほとんどのテクセルが黒の色のテクセル(α=0のテクセル)になっている。   Specific examples of the textures TEX1 to TEX6 are shown in FIGS. For example, in the texture TEX1 in FIG. 5, the white color texel is a texel set to α = 1.0 (the texel belonging to the first group), and the black color texel is set to α = 0.0. Texels (texels belonging to the second group). Further, the white color texels (α = 1.0 texels) are reduced in the texture TEX2 in FIG. 6, and further reduced in the texture TEX3 in FIG. In the texture TEX6 in FIG. 10, most texels are black texels (α = 0 texels).

図11に示すように本実施形態では、地面オブジェクトOBGの上にオブジェクトOB1が描画される。そしてOB1の上にOB2が描画され、OB2の上にOB3が描画され、OB3の上にOB4が描画され、OB4の上にOB5が描画され、OB5の上にOB6が描画される。   As shown in FIG. 11, in this embodiment, the object OB1 is drawn on the ground object OBG. Then, OB2 is drawn on OB1, OB3 is drawn on OB2, OB4 is drawn on OB3, OB5 is drawn on OB4, and OB6 is drawn on OB5.

そして第1のグループのテクセルT1、T3、T5、T7、T9については、テクスチャTEX1のα値が1.0に設定される。また第2のグループのテクセルT2、T4、T6、T8については、テクスチャTEX1のα値が0に設定される。   For the first group of texels T1, T3, T5, T7, and T9, the α value of the texture TEX1 is set to 1.0. For the second group of texels T2, T4, T6, and T8, the α value of the texture TEX1 is set to zero.

またテクセルT1については、テクスチャTEX1、TEX2、TEX3、TEX4・・・・に行くに従って、α値が1.0、0.7、0.3、0というように減衰する。同様にテクセルT3については、α値が1.0、0.5、0というように減衰し、テクセルT5については、α値が1.0、0.8、0.5、0.2、0というように減衰する。   Further, with respect to the texel T1, the α value is attenuated to 1.0, 0.7, 0.3, 0 as the textures TEX1, TEX2, TEX3, TEX4,. Similarly, for texel T3, the α value is attenuated to 1.0, 0.5, 0, and for texel T5, the α value is 1.0, 0.8, 0.5, 0.2, 0. It attenuates.

図11のように本実施形態では、α値の減衰率がテクセル同士で異なっている。このようにすることで、芝生の草の長さの長短を表現することが可能になり、リアルな芝生画像を生成できる。   As shown in FIG. 11, in this embodiment, the attenuation rate of the α value differs between texels. By doing in this way, it becomes possible to express the length of the lawn grass, and a realistic lawn image can be generated.

またテクセルT2、T4、T6、T8では、上方から見た場合には地面オブジェクトOBGの色が見えるようになる。また斜め方向から見た場合には、オブジェクトOB1〜OB6のうちα値が0よりも大きい部分での芝生の色(図3のTEXAの色)と、地面オブジェクトOBGの色とがブレンドされて見えるようになる。従って、芝生の深さを表現することが可能になり、生成される画像のリアル度を向上できる。   Further, in the texels T2, T4, T6, and T8, the color of the ground object OBG becomes visible when viewed from above. When viewed from an oblique direction, the lawn color (the color of TEXA in FIG. 3) and the color of the ground object OBG appear to be blended in the portion where the α value is greater than 0 among the objects OB1 to OB6. It becomes like this. Therefore, the depth of the lawn can be expressed, and the realism of the generated image can be improved.

なお図11の各テクセルT1〜T9のα値は以下のような手法により決定できる。例えばテクスチャTEX1のα値が0であるテクセルT2、T4、T6、T8については、他のテクスチャTEX2〜TEX6でのα値も0に設定する。なおTEX1のうち、どのテクセルを0のα値に設定し、どのテクセルを1.0のα値に設定するかは、乱数等を用いて決定できる。   In addition, the alpha value of each texel T1-T9 of FIG. 11 can be determined with the following methods. For example, for the texels T2, T4, T6, and T8 in which the α value of the texture TEX1 is 0, the α values in the other textures TEX2 to TEX6 are also set to 0. In TEX1, which texel is set to an α value of 0 and which texel is set to an α value of 1.0 can be determined using a random number or the like.

一方、テクスチャTEX1のα値が1.0であるテクセルT1、T3、T5、T7、T9については、芝生の長さが設定される。例えばテクセルT1、T3、T5、T7、T9の芝生の長さは、各々、3、2、4、6、3に設定される。そしてこれらのテクセルT1、T3、T7、T9では、各々、長さ3、2、4、6、3を越えた所でα値が0になるように、各テクスチャTEX1〜TEX6でのα値を乱数等を用いて決定する。こうすることで、不規則に草の長さが設定された芝生を表現できる。   On the other hand, for the texels T1, T3, T5, T7, and T9 in which the α value of the texture TEX1 is 1.0, the length of the lawn is set. For example, the grass lengths of texels T1, T3, T5, T7, and T9 are set to 3, 2, 4, 6, and 3, respectively. In these texels T1, T3, T7, and T9, the α values in the textures TEX1 to TEX6 are set so that the α value becomes 0 when the length exceeds 3, 2, 4, 6, 3, respectively. Determine using random numbers. By doing this, it is possible to represent a lawn with irregularly set grass lengths.

また本実施形態では図12(A)に示すように、0よりも大きなα値に設定されているテクセル(第1のグループのテクセル)の周囲のテクセルについては、0のα値のテクセル(第2のグループのテクセル)になるように設定してる。   Further, in the present embodiment, as shown in FIG. 12A, texels around the texels (first group texels) that are set to an α value larger than 0 (first group texels) 2 groups of texels).

例えば図12(A)では、α値が1.0であるテクセルTAの上下左右の周囲のテクセルTB、TC、TD、TEのα値は0に設定されている。なお図12(A)ではテクセルTF、TG、TH、TIについてもα値が0に設定されているが、これらのα値については1.0に設定するようにしてもよい。   For example, in FIG. 12A, the α values of the surrounding texels TB, TC, TD, and TE of the texel TA having an α value of 1.0 are set to zero. In FIG. 12A, the α value is set to 0 for the texels TF, TG, TH, and TI, but these α values may be set to 1.0.

図12(A)に示すようにテクセルのα値を設定してテクスチャマッピングを行うと、バイリニア補間(テクセル補間)により、生成されるピクセルの画像は例えば図12(B)のような画像になる。即ち四角のテクセルが丸い図形の画像に見えるようになる。またテクセルTAのα値が例えば0.8である場合には、図12(C)に示すように、図12(B)に比べて小さな丸い図形に見えるようになる。従って、例えば芝生の画像を斜め方向から見た場合に、図12(D)に示すように見え、丸みを帯びた芝生の草の形状を擬似的に表現できる。   When texture mapping is performed by setting the texel α value as shown in FIG. 12A, the image of the pixel generated by bilinear interpolation (texel interpolation) becomes, for example, an image as shown in FIG. . That is, a square texel can be seen as a round graphic image. When the α value of the texel TA is 0.8, for example, as shown in FIG. 12C, it looks like a smaller round figure as compared to FIG. Therefore, for example, when a lawn image is viewed from an oblique direction, it looks as shown in FIG. 12D, and the shape of the grass of the round lawn can be expressed in a pseudo manner.

例えば図12(A)においてαが1.0になるテクセルが隣り合うと、ピクセルの画像は楕円形状になってしまい、不自然な画像になってしまう。これに対して図12(A)に示すように、α値が1.0のテクセルの周囲のテクセルのα値を0に設定すれば、円柱状の1本1本の草の形状を擬似的に表現できるようになる。   For example, in FIG. 12A, when texels having α of 1.0 are adjacent to each other, the pixel image becomes an elliptical shape, resulting in an unnatural image. On the other hand, as shown in FIG. 12A, if the α value of the texels around the texel having an α value of 1.0 is set to 0, the shape of each cylindrical grass is simulated. Can be expressed in

以上のように本実施形態では、テクスチャマッピングのバイリニア補間を利用することで、リアルな芝生画像の生成に成功している。例えば図13、図14、図15、図16に本実施形態により生成される画像の例を示す。図13、図14は、競技場の芝生を上方から見た図であり、図13は視点が芝生から遠い場合の図であり、図14は視点を芝生に近づけた場合の図である。また図15、図16は、競技場の芝生を斜め上方向から見た図であり、図15は視点が芝生から遠い場合の図であり、図16は視点を芝生に近づけた場合の図である。このように本実施形態によれば、芝生の1本1本の草のモデル等を用意しなくても、あたかも本物の芝生が生えているかのように見えるリアルな画像の生成が可能になる。   As described above, in this embodiment, a realistic lawn image is successfully generated by using bilinear interpolation of texture mapping. For example, FIGS. 13, 14, 15, and 16 show examples of images generated by the present embodiment. 13 and 14 are views of the stadium lawn as viewed from above, FIG. 13 is a view when the viewpoint is far from the lawn, and FIG. 14 is a view when the viewpoint is close to the lawn. FIGS. 15 and 16 are views of the stadium lawn viewed obliquely from above, FIG. 15 is a view when the viewpoint is far from the lawn, and FIG. 16 is a view when the viewpoint is close to the lawn. is there. Thus, according to the present embodiment, it is possible to generate a realistic image that looks as if a real lawn is growing without preparing a grass model for each lawn.

2.2 芝目の表現
本実施形態では芝生の芝目を表現するために以下のような手法を採用している。例えば図17では、第1の帯状パターンのテクスチャTEXA(第1の芝目パターンのテクスチャ)と、第2の帯状パターンのテクスチャTEXB(第2の芝目パターンのテクスチャ)が用意される。
2.2 Turtle Eye Representation In the present embodiment, the following method is adopted to represent the lawn grass lawn. For example, in FIG. 17, a texture TEXA (first lawn pattern texture) of a first strip pattern and a texture TEXB (second lawn pattern texture) of a second strip pattern are prepared.

具体的にはテクスチャTEXAでは、明るい色(例えば白っぽい色)の帯状パターン(テクスチャパターン)と、暗い色(例えば緑っぽい色)の帯状パターン(テクスチャパターン)とがY軸(広義には第1の座標軸)方向に沿って交互に並んでいる。別の言い方をすれば、TEXAはX軸方向の芝目パターンのテクスチャになっている。またテクスチャTEXBでは、明るい色の帯状パターンと暗い色の帯状パターンとがX軸(広義には第2の座標軸)方向に沿って交互に並んでいる。別の言い方をすれば、TEXBはY軸方向の芝目パターンのテクスチャになっている。   Specifically, in the texture TEXA, a band pattern (texture pattern) of a bright color (for example, whitish color) and a band pattern (texture pattern) of a dark color (for example, greenish color) are represented by the Y axis (first in a broad sense). Are aligned along the direction of the coordinate axis. In other words, TEXA has a grass pattern texture in the X-axis direction. In the texture TEXB, the light-colored belt-shaped pattern and the dark-colored belt-shaped pattern are alternately arranged along the X-axis (second coordinate axis in a broad sense). In other words, TEXB has a grass pattern texture in the Y-axis direction.

そして本実施形態では、これらのテクスチャTEXAとTEXBの色を、仮想カメラVCの視線方向VLに基づき求められたα値αABによりブレンドする。   In the present embodiment, the colors of the textures TEXA and TEXB are blended with the α value αAB obtained based on the line-of-sight direction VL of the virtual camera VC.

具体的には図18のG1では、仮想カメラVCの視線方向VLは(X、Y)=(1、0)の方向に向いており、この場合にはαAB=1.0になる。即ちテクスチャTEXAの色はαAB=1.0の割合でブレンドされ、テクスチャTEXBの色は(1−αAB)=0の割合でブレンドされる。そしてテクスチャTEXAの色をCA、TEXBの色をCBとすると、ブレンディング処理後の色CBLは、CBL=CA×αAB+CB×(1−αAB)=CAになる。従って仮想カメラVCからは、テクスチャTEXAで表されるX軸方向の芝目が強く見えるようになり、リアルな芝目画像を生成できる。   Specifically, in G1 of FIG. 18, the line-of-sight direction VL of the virtual camera VC is in the direction of (X, Y) = (1, 0), and in this case, αAB = 1.0. That is, the color of texture TEXA is blended at a ratio of αAB = 1.0, and the color of texture TEXB is blended at a ratio of (1−αAB) = 0. If the texture TEXA color is CA and the TEXB color is CB, the blended color CBL is CBL = CA × αAB + CB × (1−αAB) = CA. Therefore, from the virtual camera VC, the grass in the X-axis direction represented by the texture TEXA can be seen strongly, and a realistic grass image can be generated.

また図18のG2では、仮想カメラVCの視線方向VLは(X、Y)=(1、1)の方向に向いており、この場合にはαAB=0.5になる。即ちテクスチャTEXA、TEXBの色は共に0.5の割合でブレンドされる。従って、ブレンディング処理後の色CBLは、CBL=CA×αAB+CB×(1−αAB)=CA×0.5+CB×0.5になる。従って仮想カメラVCからは、テクスチャTEXAで表されるX軸方向の芝目と、テクスチャTEXBで表されるY軸方向の芝目とが混ざり合って見えるようになり、リアルな芝目画像を生成できる。   In G2 of FIG. 18, the visual line direction VL of the virtual camera VC is in the direction of (X, Y) = (1, 1), and in this case, αAB = 0.5. That is, the colors of the textures TEXA and TEXB are blended at a ratio of 0.5. Therefore, the color CBL after blending processing is CBL = CA × αAB + CB × (1−αAB) = CA × 0.5 + CB × 0.5. Therefore, from the virtual camera VC, the grass in the X-axis direction represented by the texture TEXA and the grass in the Y-axis direction represented by the texture TEXB can be seen mixed together, and a realistic grass image is generated. it can.

また図18のG3では、仮想カメラVCの視線方向VLは(X、Y)=(0、1)の方向に向いており、この場合にはαAB=0になる。即ちテクスチャTEXA、TEXBの色は、各々、0、1.0の割合でブレンドされる。従って、ブレンディング処理後の色CBLは、CBL=CA×αAB+CB×(1−αAB)=CBになる。従って仮想カメラVCからは、テクスチャTEXBで表されるY軸方向の芝目が強く見えるようになり、リアルな芝目画像を生成できる。   In G3 of FIG. 18, the visual line direction VL of the virtual camera VC is in the direction of (X, Y) = (0, 1). In this case, αAB = 0. That is, the colors of the textures TEXA and TEXB are blended at a ratio of 0 and 1.0, respectively. Therefore, the color CBL after blending is CBL = CA × αAB + CB × (1−αAB) = CB. Therefore, from the virtual camera VC, the grass in the Y-axis direction represented by the texture TEXB can be seen strongly, and a realistic grass image can be generated.

同様にG4、G5、G6の場合にはαABは、各々、0.5、1.0、0になる。従って、αブレンディング処理後の色CBLは、各々、CA×0.5+CB×0.5、CA、CBになる。   Similarly, in the case of G4, G5, and G6, αAB is 0.5, 1.0, and 0, respectively. Therefore, the colors CBL after the α blending process are CA × 0.5 + CB × 0.5, CA, and CB, respectively.

なお図19に本実施形態で生成される画像の例を示す。図19は、図18のG1に示すように仮想カメラVCの視線方向VLが向いている時に生成される画像の例である。図19では、テクスチャTEXAの色とTEXBの色がブレンドされ、X軸方向の芝目とY軸方向の芝目とが混ざり合って見えるリアルな画像が生成されている。   FIG. 19 shows an example of an image generated in this embodiment. FIG. 19 is an example of an image generated when the line-of-sight direction VL of the virtual camera VC is facing as indicated by G1 in FIG. In FIG. 19, the texture TEXA color and the TEXB color are blended to generate a realistic image in which the grass in the X-axis direction and the grass in the Y-axis direction are mixed.

以上のように本実施形態の手法によれば、仮想カメラVCの視線方向VLに基づいてα値αABを求め、このαABに基づいてテクスチャTEXAとTEXBの色をブレンドするという簡素で負荷の軽い処理で、芝目が表現されたリアルな芝生画像を生成できる。   As described above, according to the method of the present embodiment, the α value αAB is obtained based on the line-of-sight direction VL of the virtual camera VC, and the texture TEXA and TEXB colors are blended based on the αAB. Thus, it is possible to generate a realistic lawn image in which lawn eyes are expressed.

なお本実施形態では、図17、図18の手法で得られた色CBLと、地面オブジェクトOBGの色CGとを、図2のテクスチャTEX1〜TEX6に設定されたα値に基づいてブレンドすることで、最終的な芝生画像の色を求めている。   In the present embodiment, the color CBL obtained by the method of FIGS. 17 and 18 and the color CG of the ground object OBG are blended based on the α values set in the textures TEX1 to TEX6 in FIG. Seeking the color of the final lawn image.

2.3 詳細な処理例
次に本実施形態の詳細な処理例を図20のフローチャートを用いて説明する。
2.3 Detailed Processing Example Next, a detailed processing example of this embodiment will be described with reference to the flowchart of FIG.

まず、キャラクタ(移動体オブジェクト)の位置、方向を演算する(ステップS1)。このキャラクタは、サッカーゲームを例にとればサッカー選手を表すキャラクタである。   First, the position and direction of the character (moving object) are calculated (step S1). This character is a character representing a soccer player when a soccer game is taken as an example.

次に、仮想カメラの位置、視線方向を求める(ステップS2)。この場合、仮想カメラの位置、視線方向は、キャラクタの位置、方向に基づいて求めてもよいし、キャラクタの位置、方向とは無関係に仮想カメラの制御プログラムに基づいて仮想カメラの位置、視線線方向を求めてもよい。   Next, the position and line-of-sight direction of the virtual camera are obtained (step S2). In this case, the position and line of sight of the virtual camera may be obtained based on the position and direction of the character, or the position and line of sight of the virtual camera based on the virtual camera control program regardless of the position and direction of the character. You may ask for directions.

次に、ステップS2で求められた仮想カメラの視線方向VLに基づいて、帯状パターンテクスチャTEXA、TEXBのブレンド率であるα値αABを求める(ステップS3)。具体的には、αAB=abs(VL・S)の演算式でαABを求める。ここで、Sは、例えばX方向を向く単位ベクトルである。またabs(Q)はQの絶対値を求める関数である。またVL・SはベクトルVLとSの内積を意味する。   Next, based on the visual line direction VL of the virtual camera obtained in step S2, an α value αAB which is a blend ratio of the strip pattern textures TEXA and TEXB is obtained (step S3). Specifically, αAB is obtained by an arithmetic expression of αAB = abs (VL · S). Here, S is a unit vector that faces, for example, the X direction. Abs (Q) is a function for obtaining the absolute value of Q. VL · S means the inner product of the vectors VL and S.

次に地面オブジェクトを描画する(ステップS4)。そしてキャラクタを描画する(ステップS5)。   Next, a ground object is drawn (step S4). Then, the character is drawn (step S5).

次にK=1に設定する(ステップS6)。そして第KのテクスチャTEXKがマッピングされる第KのオブジェクトOBKを描画する(ステップS7)。この場合のαブレンディングの式は下式のようになる。   Next, K = 1 is set (step S6). Then, the Kth object OBK to which the Kth texture TEXK is mapped is drawn (step S7). In this case, the formula of α blending is as follows.

COL=CG×(1−α)+{CA×αAB+CB×(1−αAB)}×α
ここで、COLは最終的な結果色であり、CGは地面の色であり、αはテクスチャTEXKに設定されるα値(図2のTEX1〜TEX6に設定されるα値)である。またCAは帯状パターンテクスチャTEXAの色であり、CBは帯状パターンテクスチャTEXBの色であり、αABは、TEXAとTEXBの色のブレンド率である。
COL = CG × (1−α) + {CA × αAB + CB × (1−αAB)} × α
Here, COL is the final result color, CG is the color of the ground, and α is an α value set in the texture TEXK (α value set in TEX1 to TEX6 in FIG. 2). CA is the color of the strip-shaped pattern texture TEXA, CB is the color of the strip-shaped pattern texture TEXB, and αAB is the blend ratio of the colors of TEXA and TEXB.

次にKを1だけインクリメントする(ステップS8)。そしてKがNよりも大きいか否かを判断し(ステップS9)、KがN以下である場合にはステップS7に戻る。一方、KがNよりも大きい場合には処理を終了する。   Next, K is incremented by 1 (step S8). Then, it is determined whether or not K is greater than N (step S9). If K is equal to or less than N, the process returns to step S7. On the other hand, if K is greater than N, the process ends.

3.ハードウェア構成
図21に本実施形態を実現できるハードウェア構成の例を示す。メインプロセッサ900は、DVD982(情報記憶媒体。CDでもよい。)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
3. Hardware Configuration FIG. 21 shows an example of a hardware configuration that can realize this embodiment. The main processor 900 operates based on a program stored in a DVD 982 (information storage medium, which may be a CD), a program downloaded via the communication interface 990, a program stored in the ROM 950, or the like. Perform processing, sound processing, etc. The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is required for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.

ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。   The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and executes matrix calculation at high speed. The data decompression processor 906 performs decoding processing of compressed image data and sound data, and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエイリアシング、シェーディング処理なども行う。頂点シェーダやピクセルシェーダなどのプログラマブルシェーダが実装されている場合には、シェーダプログラムに従って、頂点データの作成・変更(更新)やピクセル(あるいはフラグメント)の描画色の決定を行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。   The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture. The drawing processor 910 also performs α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When a programmable shader such as a vertex shader or a pixel shader is installed, the vertex data is created / changed (updated) and the drawing color of a pixel (or fragment) is determined according to the shader program. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.

ROM950にはシステムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。DVDドライブ980(CDドライブでもよい。)は、プログラム、画像データ、或いは音データなどが格納されるDVD982(CDでもよい。)にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950. The RAM 960 is a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The DVD drive 980 (may be a CD drive) accesses a DVD 982 (may be a CD) in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).

なお本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   The processing of each unit (each unit) in this embodiment may be realized entirely by hardware, or may be realized by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be realized by both hardware and a program.

そして本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。   When the processing of each part of this embodiment is realized by both hardware and a program, a program for causing the hardware (computer) to function as each part of this embodiment is stored in the information storage medium. More specifically, the program instructs the processors 902, 904, 906, 910, and 930, which are hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930 realizes the processing of each unit of the present invention based on the instruction and the passed data.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(下地オブジェクト、下地テクスチャ、第1の座標軸、第2の座標軸等)と共に記載された用語(地面オブジェクト、地面テクスチャ、Y軸、X軸等)は、明細書または図面のいかなる箇所においても、その異なる用語に置き換えることができる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, in the specification or drawings, terms (ground object, ground texture, Y axis) described at least once together with different terms (ground object, ground texture, first coordinate axis, second coordinate axis, etc.) having a broader meaning or the same meaning , X-axis, etc.) may be replaced with the different terms anywhere in the specification or drawings.

また本実施形態では芝生の画像表現に本発明の手法を適用した場合について説明したが本発明はこれに限定されず、他の画像表現にも適用可能である。またテクスチャマッピング手法やテクスチャのα値設定手法も本実施形態で説明した手法には限定されない。   Moreover, although this embodiment demonstrated the case where the method of this invention was applied to the image expression of a lawn, this invention is not limited to this, It can apply also to another image expression. Also, the texture mapping method and the texture α value setting method are not limited to the methods described in this embodiment.

また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレイヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating game images, and a mobile phone. it can.

100 処理部、110 オブジェクト空間設定部、112 移動・動作処理部、
114 仮想カメラ制御部、116 α値演算部、120 描画部、
122 ジオメトリ処理部、124 隠面消去部、126 αブレンディング部、
128 テクスチャマッピング部、130 音生成部、160 操作部、
170 記憶部、172 主記憶部、174 描画バッファ、
176 モデルデータ記憶部、178 テクスチャ記憶部、
180 情報記憶媒体、190 表示部、192 音出力部、
194 携帯型情報記憶装置、196 通信部
100 processing unit, 110 object space setting unit, 112 movement / motion processing unit,
114 virtual camera control unit, 116 α value calculation unit, 120 drawing unit,
122 geometry processing unit, 124 hidden surface removal unit, 126 α blending unit,
128 texture mapping unit, 130 sound generation unit, 160 operation unit,
170 storage unit, 172 main storage unit, 174 drawing buffer,
176 model data storage unit, 178 texture storage unit,
180 information storage medium, 190 display unit, 192 sound output unit,
194 Portable information storage device, 196 communication unit

Claims (6)

画像を生成するためのプログラムであって、
仮想カメラの視線方向、視点位置を制御する仮想カメラ制御部と、
明るい色の帯状パターンと暗い色の帯状パターンとが第1の座標軸方向に沿って並ぶ第1の帯状パターンテクスチャと、明るい色の帯状パターンと暗い色の帯状パターンとが第2の座標軸方向に沿って並ぶ第2の帯状パターンテクスチャを記憶するテクスチャ記憶部と、
前記仮想カメラの視線方向に基づいて、前記第1、第2の帯状パターンテクスチャの色のブレンド率であるα値αABを演算するα値演算部と、
前記第1の帯状パターンテクスチャの色と前記第2の帯状パターンテクスチャの色とを前記αABに基づいてブレンドするαブレンディング処理を行いながら、前記第1、第2の帯状パターンテクスチャがマッピングされるオブジェクトを描画する描画部として、
コンピュータを機能させることを特徴とするプログラム。
A program for generating an image,
A virtual camera control unit for controlling the viewing direction and the viewpoint position of the virtual camera;
A first strip pattern texture in which a light strip pattern and a dark strip pattern are arranged along the first coordinate axis direction, and a bright strip pattern and a dark strip pattern along the second coordinate axis direction. A texture storage unit for storing the second belt-shaped pattern texture arranged side by side,
An α value calculation unit that calculates an α value αAB that is a blend ratio of the colors of the first and second belt-like pattern textures based on the line-of-sight direction of the virtual camera;
An object to which the first and second strip pattern textures are mapped while performing an α blending process of blending the color of the first strip pattern texture and the color of the second strip pattern texture based on the αAB As a drawing part that draws
A program characterized by causing a computer to function.
請求項1において、
前記描画部は、
下地オブジェクトを描画し、前記下地オブジェクトの上に、前記第1、第2の帯状パターンテクスチャがマッピングされるオブジェクトを描画することを特徴とするプログラム。
In claim 1,
The drawing unit
A program that draws a base object and draws an object to which the first and second strip pattern textures are mapped on the base object.
請求項2において、
前記下地オブジェクトは、地面を表現するためのオブジェクトであることを特徴とするプログラム。
In claim 2,
The base object is an object for expressing the ground.
請求項3において、
前記第1、第2の帯状パターンテクスチャがマッピングされるオブジェクトは、前記地面の上の芝生を表現するためのオブジェクトであることを特徴とするプログラム。
In claim 3,
An object to which the first and second belt-like pattern textures are mapped is an object for expressing a lawn on the ground.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至4のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 4 is stored. 画像を生成する画像生成システムであって、
仮想カメラの視線方向、視点位置を制御する仮想カメラ制御部と、
明るい色の帯状パターンと暗い色の帯状パターンとが第1の座標軸方向に沿って並ぶ第1の帯状パターンテクスチャと、明るい色の帯状パターンと暗い色の帯状パターンとが第2の座標軸方向に沿って並ぶ第2の帯状パターンテクスチャを記憶するテクスチャ記憶部と、
前記仮想カメラの視線方向に基づいて、前記第1、第2の帯状パターンテクスチャの色のブレンド率であるα値αABを演算するα値演算部と、
前記第1の帯状パターンテクスチャの色と前記第2の帯状パターンテクスチャの色とを前記αABに基づいてブレンドするαブレンディング処理を行いながら、前記第1、第2の帯状パターンテクスチャがマッピングされるオブジェクトを描画する描画部とを含むことを特徴とする画像生成システム。
An image generation system for generating an image,
A virtual camera control unit for controlling the viewing direction and the viewpoint position of the virtual camera;
A first strip pattern texture in which a light strip pattern and a dark strip pattern are arranged along the first coordinate axis direction, and a bright strip pattern and a dark strip pattern along the second coordinate axis direction. A texture storage unit for storing the second belt-shaped pattern texture arranged side by side,
An α value calculation unit that calculates an α value αAB that is a blend ratio of the colors of the first and second belt-like pattern textures based on the line-of-sight direction of the virtual camera;
An object to which the first and second strip pattern textures are mapped while performing an α blending process of blending the color of the first strip pattern texture and the color of the second strip pattern texture based on the αAB An image generation system including a drawing unit for drawing the image.
JP2011086144A 2011-04-08 2011-04-08 Program, information storage medium, and image generation system Pending JP2011141898A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011086144A JP2011141898A (en) 2011-04-08 2011-04-08 Program, information storage medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011086144A JP2011141898A (en) 2011-04-08 2011-04-08 Program, information storage medium, and image generation system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005362740A Division JP4913399B2 (en) 2005-12-16 2005-12-16 Program, information storage medium, and image generation system

Publications (1)

Publication Number Publication Date
JP2011141898A true JP2011141898A (en) 2011-07-21

Family

ID=44457639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011086144A Pending JP2011141898A (en) 2011-04-08 2011-04-08 Program, information storage medium, and image generation system

Country Status (1)

Country Link
JP (1) JP2011141898A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198819A (en) * 1997-01-10 1998-07-31 Konami Co Ltd Water surface image display device, its image displaying method, and machine-readable recording medium recording computer program
JPH1190044A (en) * 1997-09-17 1999-04-06 Namco Ltd Information storage media and image generator
JP2002092635A (en) * 2000-09-20 2002-03-29 Sega Corp Image processor
JP2002352265A (en) * 2001-05-30 2002-12-06 Konami Co Ltd Image processing method and program for image processing
JP2003323630A (en) * 2002-04-26 2003-11-14 Namco Ltd Image generation system, image generation program and information storage medium
JP2004054634A (en) * 2002-07-19 2004-02-19 Sony Corp Picture processor and its method
JP2004187731A (en) * 2002-12-06 2004-07-08 Konami Computer Entertainment Yokyo Inc Game device, game control method and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198819A (en) * 1997-01-10 1998-07-31 Konami Co Ltd Water surface image display device, its image displaying method, and machine-readable recording medium recording computer program
JPH1190044A (en) * 1997-09-17 1999-04-06 Namco Ltd Information storage media and image generator
JP2002092635A (en) * 2000-09-20 2002-03-29 Sega Corp Image processor
JP2002352265A (en) * 2001-05-30 2002-12-06 Konami Co Ltd Image processing method and program for image processing
JP2003323630A (en) * 2002-04-26 2003-11-14 Namco Ltd Image generation system, image generation program and information storage medium
JP2004054634A (en) * 2002-07-19 2004-02-19 Sony Corp Picture processor and its method
JP2004187731A (en) * 2002-12-06 2004-07-08 Konami Computer Entertainment Yokyo Inc Game device, game control method and program

Similar Documents

Publication Publication Date Title
JP4728721B2 (en) Program, information storage medium, and image generation system
JP4804120B2 (en) Program, information storage medium, and image generation system
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP4651527B2 (en) Program, information storage medium, and image generation system
JP2007164557A (en) Program, information recording medium and image generation system
JP2008027064A (en) Program, information recording medium, and image forming system
JP4502678B2 (en) Program, information storage medium, and image generation system
JP4913399B2 (en) Program, information storage medium, and image generation system
JP2001143099A (en) Image-forming system and information storage medium
JP4743770B2 (en) Image generation system, program, and information storage medium
JP2006323512A (en) Image generation system, program, and information storage medium
JP2006252426A (en) Program, information storage medium, and image generation system
JP4528008B2 (en) Program, information storage medium, and image generation system
JP5253118B2 (en) Image generation system, program, and information storage medium
JP4707078B2 (en) Image generation system, program, and information storage medium
JP2008077304A (en) Program, information storage medium, and image generation system
JP2007272388A (en) Program, information storage medium and image generation system
JP4488346B2 (en) Program, information storage medium, and image generation system
JP4229317B2 (en) Image generation system, program, and information storage medium
JP4574058B2 (en) Image generation system, program, and information storage medium
JP4592087B2 (en) Image generation system, program, and information storage medium
JP2010033288A (en) Image generation system, program and information storage medium
JP2007164323A (en) Program, information storage medium and image generation system
JP2007164736A (en) Image generation system, program and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120912