JP4868586B2 - Image generation system, program, and information storage medium - Google Patents

Image generation system, program, and information storage medium Download PDF

Info

Publication number
JP4868586B2
JP4868586B2 JP2006256025A JP2006256025A JP4868586B2 JP 4868586 B2 JP4868586 B2 JP 4868586B2 JP 2006256025 A JP2006256025 A JP 2006256025A JP 2006256025 A JP2006256025 A JP 2006256025A JP 4868586 B2 JP4868586 B2 JP 4868586B2
Authority
JP
Japan
Prior art keywords
texture
setting
virtual camera
original image
mesh
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006256025A
Other languages
Japanese (ja)
Other versions
JP2008077405A (en
Inventor
繁 橘高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2006256025A priority Critical patent/JP4868586B2/en
Publication of JP2008077405A publication Critical patent/JP2008077405A/en
Application granted granted Critical
Publication of JP4868586B2 publication Critical patent/JP4868586B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像生成システム、プログラム及び情報記憶媒体に関する。   The present invention relates to an image generation system, a program, and an information storage medium.

近年、仮想的な3次元空間(オブジェクト空間)に配置設定されたキャラクタなどのオブジェクトについて、仮想カメラ(所与の視点)から見た画像を生成する画像生成システムが実用化されている。   In recent years, an image generation system that generates an image of an object such as a character arranged and set in a virtual three-dimensional space (object space) viewed from a virtual camera (a given viewpoint) has been put into practical use.

このような画像生成システムは、仮想現実を体験させることができるものとして様々なシステムにて用いられるようになっており、例えば、スピード感を演出するために、仮想カメラから見える画像において、仮想カメラの移動速度に応じて、表示物(オブジェクト)を明確に描画する領域と表示物(オブジェクト)をぼかして描画する領域とを変化させる方法が知られている。   Such an image generation system has been used in various systems as being able to experience virtual reality. For example, in an image viewed from a virtual camera in order to produce a sense of speed, the virtual camera There is known a method of changing a region in which a display object (object) is clearly drawn and a region in which the display object (object) is drawn in a blurred manner according to the moving speed of the object.

具体的には、この画像生成システムは、仮想カメラの移動速度が上昇するのに従い、画像において表示物を明確に描画する領域を狭めるとともに、それ以外の領域(画像の色の濃淡の境目をはっきりさせないでぼかし処理を行う領域)を拡大させスピードが増した際の視野の状況を擬似的に再現してスピード感を演出する画像を生成することができるようになっている。
特許3442736号公報
Specifically, as the moving speed of the virtual camera increases, this image generation system narrows the area where the display object is clearly drawn in the image, and clears the other areas (the boundaries of the color shade of the image). In this case, it is possible to generate an image that produces a sense of speed by simulating the visual field situation when the speed is increased by enlarging the area where the blurring process is performed without performing the process.
Japanese Patent No. 3444236

しかしながら、上述のような画像生成システムにあっては、画像中のぼかし領域を変化させることによってスピード感の演出を行うものの、ぼかし処理が施される領域については、スピードの変化に対応させた処理を行っていない(如何なるスピードであっても、ぼかし処理を行う領域に対しては同一の処理を行っている)ため、スピードの差を的確に表現できない場合がある。   However, in the image generation system as described above, although the effect of speed is produced by changing the blur area in the image, the process corresponding to the change in speed is performed for the area subjected to the blur process. Is not performed (the same processing is performed for the region where the blurring process is performed at any speed), and thus the difference in speed may not be accurately expressed.

本発明は上記事情に鑑みてなされたものであり、その目的は、仮想カメラの移動速度に応じてぼかし処理を変化させ、スピード感を的確に表現することができるプログラム、情報記憶媒体及び画像生成システムを提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to change a blurring process according to the moving speed of a virtual camera to accurately express a sense of speed, an information storage medium, and an image generation To provide a system.

(1)本発明は、オブジェクト空間において仮想カメラから見える画像を生成するための画像生成システムであって、オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、所定の制御情報に基づいて前記仮想カメラの移動制御を行う仮想カメラ制御部と、前記仮想カメラから見えるオブジェクトをスクリーンに投影して原画像を描画するとともに、当該原画像に対して所定のフィルタ処理を実行する描画部と、を含み、前記描画部が、前記原画像に対応づけられた代表点から放射状に頂点が配列されるポリゴンメッシュを生成するメッシュ生成処理と、前記ポリゴンメッシュを構成する各頂点に対して、前記原画像をテクスチャとする第1のテクスチャ座標を対応づけるとともに、所定の条件に基づいて、前記第1のテクスチャ座標のずらし量を設定し、当該ずらし量に基づいて、第2のテクスチャ座標を設定するテクスチャ座標設定処理と、前記第2のテクスチャ座標に基づいて前記原画像から取得される色を、前記第1のテクスチャ座標に対応づけられた前記ポリゴンメッシュの各ピクセルの色として設定して、前記ポリゴンメッシュを描画するメッシュ描画処理と、を前記所定のフィルタ処理として実行する画像生成システムに関するものである。また本発明は、上記各部としてコンピュータを機能させるプログラム及びそのようなプログラムを記憶するコンピュータに読み取り可能な情報記憶媒体に関するものである。   (1) The present invention is an image generation system for generating an image visible from a virtual camera in an object space, the object space setting unit for setting an object in the object space, and the virtual camera based on predetermined control information A virtual camera control unit that controls the movement of the image, and a drawing unit that projects an object visible from the virtual camera onto a screen and draws an original image, and executes a predetermined filtering process on the original image, The rendering unit generates a polygon mesh in which vertices are arranged radially from representative points associated with the original image, and textures the original image for each vertex constituting the polygon mesh. Are associated with the first texture coordinates and based on a predetermined condition, A texture coordinate setting process for setting a second texture coordinate based on the shift amount, and a color acquired from the original image based on the second texture coordinate. The present invention relates to an image generation system configured to execute, as the predetermined filter process, a mesh drawing process for setting the color of each pixel of the polygon mesh associated with a first texture coordinate and drawing the polygon mesh. . The present invention also relates to a program that causes a computer to function as each of the above-described units and a computer-readable information storage medium that stores such a program.

本発明によれば、原画像をテクスチャとして対応づけた特殊なポリゴンメッシュを用意して、ポリゴンメッシュを構成する各頂点のテクスチャ座標をずらしながら描画することでフィルタ処理を行っている。   According to the present invention, a special polygon mesh in which an original image is associated as a texture is prepared, and filtering processing is performed by drawing while shifting texture coordinates of each vertex constituting the polygon mesh.

この結果、本発明によれば、例えば、レースゲームなどのオブジェクト空間内を移動するオブジェクトに対して注視点を設定してオブジェクトの動きに仮想カメラを追従させる場合などに、オブジェクトが移動する際のスピード感(高速、中速、低速などのスピードの差)をフィルタ処理によって的確に表現することができる。   As a result, according to the present invention, for example, when a gazing point is set for an object moving in an object space such as a racing game and the virtual camera follows the movement of the object, A feeling of speed (difference in speed such as high speed, medium speed, and low speed) can be accurately expressed by filtering.

(2)本発明の画像生成システム、プログラム及び情報記憶媒体では、前記描画部が、前記所定のフィルタ処理において、前記代表点を原点とする極座標系にて前記ポリゴンメッシュの各頂点に対応する第3のテクスチャ座標を設定して、当該第3のテクスチャ座標に基づいて、補間係数を設定する補間係数設定処理と、前記第1のテクスチャ座標と前記第2のテクスチャ座標とを、前記補間係数に基づいて線形補間して第4のテクスチャ座標を設定するテクスチャ座標補間処理と、を更に実行するとともに、前記メッシュ描画処理において、前記第4のテクスチャ座標に基づいて前記原画像から取得される色を、前記第1のテクスチャ座標に対応づけられた前記ポリゴンメッシュの各ピクセルの色として設定して、前記ポリゴンメッシュを描画するようにしてもよい。   (2) In the image generation system, the program, and the information storage medium of the present invention, the drawing unit corresponds to each vertex of the polygon mesh in the polar coordinate system having the representative point as an origin in the predetermined filter processing. 3 texture coordinates are set, an interpolation coefficient setting process for setting an interpolation coefficient based on the third texture coordinates, and the first texture coordinates and the second texture coordinates are used as the interpolation coefficients. And a texture coordinate interpolation process for setting a fourth texture coordinate by linear interpolation based on the color, and in the mesh drawing process, a color acquired from the original image based on the fourth texture coordinate is obtained. , Setting as a color of each pixel of the polygon mesh associated with the first texture coordinates, It may be demarcating.

このようにすれば、第1のテクスチャ座標と第2のテクスチャ座標とを基準に、極座標系にて特定された第3のテクスチャ座標を用いて第4のテクスチャ座標を求めて、第4のテクスチャ座標にて規定される原画像の色を第1のテクスチャ座標に対応するポリゴンメッシュのピクセルの色としてポリゴンメッシュを描画するので、代表点を中心とした回転方向へのずれを反映させて様々なパターンでぼかし処理を行うことができる。このためフィルタ処理のパターンを多様化することができ、シチュエーションに応じたスピード感を表現することができるようになる。   In this way, the fourth texture coordinate is obtained using the third texture coordinate specified in the polar coordinate system on the basis of the first texture coordinate and the second texture coordinate, and the fourth texture coordinate is obtained. Since the polygon mesh is drawn with the color of the original image specified by the coordinates as the color of the pixel of the polygon mesh corresponding to the first texture coordinates, various deviations are reflected in the rotation direction around the representative point. Blur processing can be performed with a pattern. For this reason, the pattern of filter processing can be diversified, and a sense of speed according to the situation can be expressed.

(3)また本発明の画像生成システム、プログラム及び情報記憶媒体では、前記描画部が、前記補間係数設定処理において、ランダムに色が配列されたテクセルパターンを有するランダムテクスチャから前記第3のテクスチャ座標に基づいて色を取得し、当該取得された色の輝度値に基づいて前記補間係数を設定するようにしてもよい。   (3) Further, in the image generation system, the program, and the information storage medium of the present invention, the drawing unit performs the third texture coordinate from a random texture having a texel pattern in which colors are randomly arranged in the interpolation coefficient setting process. The color may be acquired based on the color and the interpolation coefficient may be set based on the luminance value of the acquired color.

このようにすれば、第4のテクスチャ座標に対して不規則な変化を与えることができるので、フィルタ処理が施された画像においてポリゴンメッシュの頂点の配列パターンが見えてしまうという不都合を解消することができる。   In this way, an irregular change can be given to the fourth texture coordinates, thus eliminating the inconvenience that the arrangement pattern of the vertices of the polygon mesh can be seen in the filtered image. Can do.

(4)また本発明の画像生成システム、プログラム及び情報記憶媒体では、前記描画部が、前記補間係数設定処理において、前記第3のテクスチャ座標に基づいて設定される補間係数に対して、前記第1のテクスチャ座標に対応する前記原画像のピクセルの位置に基づいて補正処理を行い、前記テクスチャ座標補間処理において、前記補正処理後の補間係数に基づいて、前記第1のテクスチャ座標と前記第2のテクスチャ座標とを線形補間するようにしてもよい。   (4) Further, in the image generation system, the program, and the information storage medium of the present invention, the drawing unit performs the first operation on the interpolation coefficient set based on the third texture coordinate in the interpolation coefficient setting process. Correction processing is performed based on pixel positions of the original image corresponding to one texture coordinate, and in the texture coordinate interpolation processing, the first texture coordinates and the second texture coordinates are calculated based on the interpolation coefficient after the correction processing. The texture coordinates may be linearly interpolated.

このようにすれば、第4のテクスチャ座標を設定する際に用いる補正係数に変化を与えることによって、例えば、原画像における仮想カメラの注視対象の付近などがはっきりと見えるようにフィルタ処理の強度を調整することができる。   In this way, by giving a change to the correction coefficient used when setting the fourth texture coordinates, for example, the intensity of the filtering process can be increased so that the vicinity of the target of the virtual camera in the original image can be clearly seen. Can be adjusted.

(5)また本発明の画像生成システム、プログラム及び情報記憶媒体では、前記描画部が、前記テクスチャ座標設定処理において、前記仮想カメラの移動速度に基づいて、前記第1のテクスチャ座標のずらし量を設定するようにしてもよい。   (5) In the image generation system, the program, and the information storage medium of the present invention, the drawing unit determines the shift amount of the first texture coordinate based on the moving speed of the virtual camera in the texture coordinate setting process. You may make it set.

このようにすれば、例えば、仮想カメラの移動速度が速い場合には、第1のテクスチャ座標におけるずらし量を大きくし、仮想カメラの移動速度が遅い場合には、第1のテクスチャ座標におけるずらし量を小さくするなど、仮想カメラの移動速度に応じて各ピクセルのずらし量を変化させることができる。   In this way, for example, when the moving speed of the virtual camera is fast, the shift amount in the first texture coordinates is increased, and when the moving speed of the virtual camera is slow, the shift amount in the first texture coordinates. The shift amount of each pixel can be changed in accordance with the moving speed of the virtual camera, for example, by reducing.

(6)また本発明の画像生成システム、プログラム及び情報記憶媒体では、前記描画部が、前記テクスチャ座標設定処理において、前記仮想カメラの移動速度が大きいほど、前記第1のテクスチャ座標のずらし量を大きく設定するようにしてもよい。   (6) In the image generation system, the program, and the information storage medium according to the present invention, the drawing unit increases the shift amount of the first texture coordinate as the moving speed of the virtual camera increases in the texture coordinate setting process. You may make it set large.

このようにすれば、仮想カメラの移動速度が大きいときに原画像の歪みがおおきくなるようにフィルタ処理による原画像のぼかし効果を調整することができるので、例えば、レースゲームなどのオブジェクト空間内を移動するオブジェクトの動きに仮想カメラを追従させる場合に、オブジェクトが移動する際のスピード感を的確に表現することができるようになる。   In this way, it is possible to adjust the blurring effect of the original image by the filter processing so that the distortion of the original image becomes large when the moving speed of the virtual camera is high. For example, in an object space such as a race game When the virtual camera is made to follow the movement of the moving object, it is possible to accurately express the sense of speed when the object moves.

(7)また本発明の画像生成システム、プログラム及び情報記憶媒体では、前記描画部が、前記メッシュ生成処理において、前記スクリーンに対する前記仮想カメラの移動量及び移動方向の少なくとも一方に応じて前記代表点を設定するようにしてもよい。   (7) Further, in the image generation system, the program, and the information storage medium of the present invention, the drawing unit includes the representative point according to at least one of a movement amount and a movement direction of the virtual camera with respect to the screen in the mesh generation process. May be set.

このようにスクリーンに対する仮想カメラの動きに追従するようにフィルタ処理の基準となる代表点を移動させるようにすれば、仮想カメラの移動量だけでなく仮想カメラの移動方向にも応じてスピード感を的確に表現することができ、更に臨場感を増すことができる。   In this way, if the representative point that serves as a reference for the filter processing is moved so as to follow the movement of the virtual camera relative to the screen, a sense of speed can be obtained not only according to the movement amount of the virtual camera but also according to the moving direction of the virtual camera. It can be expressed accurately and the sense of reality can be further increased.

(8)また本発明の画像生成システム、プログラム及び情報記憶媒体では、前記描画部が、前記メッシュ生成処理において、前記ポリゴンメッシュの各頂点を、前記代表点から前記原画像を内包する略円形状の外周に至る放射線上において等間隔に配列するようにしてもよい。   (8) In the image generation system, the program, and the information storage medium of the present invention, the drawing unit includes, in the mesh generation process, each vertex of the polygon mesh including the original image from the representative point. They may be arranged at equal intervals on the radiation that reaches the outer periphery.

このようにすれば、スクリーンに対する仮想カメラの動きに応じてポリゴンメッシュの頂点が密に配列される領域と粗く配列される領域が生じるため、仮想カメラの動く向きに応じたスピード感を的確に表現することができ、更に臨場感を増すことができる。   In this way, there are areas where the vertices of the polygon mesh are densely arranged and coarsely arranged according to the movement of the virtual camera relative to the screen, so the speed feeling corresponding to the moving direction of the virtual camera is accurately expressed. Can also increase the sense of reality.

(9)また本発明の画像生成システム、プログラム及び情報記憶媒体では、前記描画部が、前記テクスチャ座標設定処理において、前記代表点から遠い頂点ほど、当該頂点に対応づけられる第1のテクスチャ座標のずらし量を大きく設定するようにしてもよい。   (9) Further, in the image generation system, the program, and the information storage medium of the present invention, the drawing unit has a first texture coordinate corresponding to the vertex as the vertex farther from the representative point in the texture coordinate setting process. A large shift amount may be set.

このように代表点から遠くなるに伴って歪みを大きくすれば、仮想カメラに近い部分ほど、画像がぼやけて見えるという視覚特性をフィルタ処理に反映させることができる。   In this way, if the distortion is increased as the distance from the representative point increases, it is possible to reflect the visual characteristic that an image appears blurred as the part is closer to the virtual camera in the filter processing.

(10)また本発明の画像生成システム、プログラム及び情報記憶媒体では、前記描画部が、前記テクスチャ座標設定処理において、前記代表点から頂点に向かう放射線に沿って前記第1のテクスチャ座標をずらすことによって、前記第2のテクスチャ座標を設定するようにしてもよい。   (10) In the image generation system, the program, and the information storage medium of the present invention, the drawing unit shifts the first texture coordinate along the radiation from the representative point toward the vertex in the texture coordinate setting process. Thus, the second texture coordinates may be set.

このようにすれば、原画像に対して放射線状に原画像のピクセルをずらすフィルタ処理を施すことができるため、原画像内の特定の部分に向かってスピードが増していく様子を的確に表現することができる。   In this way, since it is possible to apply a filtering process that shifts the pixels of the original image radially to the original image, it is possible to accurately express how the speed increases toward a specific portion in the original image. be able to.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game system) of the present embodiment. Note that the image generation system of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤがプレーヤオブジェクト(移動体オブジェクトの一例、プレーヤが操作するプレーヤ車両など)の操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM、VRAMなどにより実現できる。   The operation unit 160 is for a player to input operation data of a player object (an example of a moving object, a player vehicle operated by the player, etc.), and its functions are lever, button, steering, microphone, touch panel type. It can be realized by a display or a housing. The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM, a VRAM, or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

携帯型情報記憶装置194は、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。通信部196は外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device. The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or communication ASICs, programs, and the like. It can be realized by.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170のメインメモリ172)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is obtained from an information storage medium included in the host device (server) via the network and communication unit 196 (or the main memory of the storage unit 170). 172). Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は記憶部170内の主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、GPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, as the game process, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result are calculated. There is a process or a process of ending a game when a game end condition is satisfied. The processing unit 100 performs various processes using the main storage unit 172 in the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, GPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部114、描画部120、音生成部130を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 114, a drawing unit 120, and a sound generation unit 130. Note that some of these may be omitted.

オブジェクト空間設定部110は、オブジェクトデータ記憶部172に記憶されているオブジェクトデータに基づいて、車、キャラクタ、建物、球場、樹木、柱、壁、コース(道路)、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、決定された位置(X、Y、Z)に決定された回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   Based on the object data stored in the object data storage unit 172, the object space setting unit 110 displays objects such as cars, characters, buildings, stadiums, trees, pillars, walls, courses (roads), maps (terrain), and the like. A process for arranging and setting various objects (objects composed of primitives such as a polygon, a free-form surface, or a subdivision surface) in the object space is performed. That is, the position and rotation angle (synonymous with direction and direction) of the object in the world coordinate system are determined, and the determined rotation angle (about the X, Y, and Z axes) is determined at the determined position (X, Y, Z). Arrange objects at (rotation angle).

移動・動作処理部112は、オブジェクト(車、キャラクタ、又は飛行機等)の移動・動作演算(移動・動作シミュレーション)を行う。すなわち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、オブジェクトをオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させる処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of an object (such as a car, a character, or an airplane). That is, based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), or the like, the object is moved in the object space, or the object is moved (motion, animation). ) Is performed. Specifically, object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part that constitutes the object) are sequentially transmitted every frame (1/60 seconds). Perform the required simulation process. A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

仮想カメラ制御部114は、オブジェクト空間内の仮想カメラから見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   The virtual camera control unit 114 performs a virtual camera (viewpoint) control process for generating an image that can be viewed from the virtual camera in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.

例えば仮想カメラによりオブジェクト(例えば車、キャラクタ、ボール)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報(所定の制御情報の一例)に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させたりする制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータ(所定の制御情報の一例)に基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   For example, when an object (for example, a car, a character, or a ball) is photographed from behind using a virtual camera, the virtual camera position or rotation angle (virtual camera orientation) is set so that the virtual camera follows changes in the position or rotation of the object. ) To control. In this case, the virtual camera can be controlled based on information (an example of predetermined control information) such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112. Alternatively, control may be performed such that the virtual camera is rotated at a predetermined rotation angle or moved along a predetermined movement path. In this case, the virtual camera is controlled based on virtual camera data (an example of predetermined control information) for specifying the position (movement path) or rotation angle of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)がオブジェクトデータ記憶部176から入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、あるいは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色をレンダリングターゲットである描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. When generating a so-called three-dimensional game image, first, object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object (model) ) Is input from the object data storage unit 176, and vertex processing (shading by a vertex shader) is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary. In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate conversion (world coordinate conversion, camera coordinate conversion), clipping processing, perspective processing, and other geometric processing are performed. On the basis of the processing result, the vertex data given to the vertex group constituting the object is changed (updated or adjusted). Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed. In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the pixel to be configured is determined, and the drawing color of the perspective-converted object is output (drawn) to a drawing buffer 174 (a buffer capable of storing image information in pixel units) that is a rendering target. That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.

なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   Note that the vertex processing and pixel processing are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.

そして描画部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。例えば、透視投影変換では、仮想カメラ前方に設定されるスクリーンに仮想カメラの視野(ビューボリューム)内に配置されているオブジェクトを透視投影する。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、オブジェクトデータ記憶部176に保存される。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. For example, in perspective projection conversion, an object arranged in the field of view (view volume) of a virtual camera is perspectively projected onto a screen set in front of the virtual camera. Then, object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the object data storage unit 176. Is done.

テクスチャマッピングは、記憶部170に記憶されているテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いてテクスチャ(色(RGB)、α値などの表面プロパティ)を記憶部170から読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間、トライリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the storage unit 170 using texture coordinates or the like set (given) to the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation, trilinear interpolation, etc. are performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ178(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファ178に格納されるZ値を参照する。そして参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファ178のZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing may be performed by a Z buffer method (depth comparison method, Z test) using a Z buffer 178 (depth buffer) in which a Z value (depth information) of a drawing pixel is stored. it can. That is, when the drawing pixel corresponding to the primitive of the object is drawn, the Z value stored in the Z buffer 178 is referred to. Then, the Z value of the referenced Z buffer is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is a Z value (for example, a small Z value) on the near side when viewed from the virtual camera. If there is, the drawing process of the drawing pixel is performed and the Z value of the Z buffer 178 is updated to a new Z value.

αブレンディングとしては、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)を行う。例えば通常αブレンディングの場合には下式(1)〜(3)の処理を行う。   As the α blending, a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on the α value (A value) is performed. For example, in the case of normal α blending, the following processes (1) to (3) are performed.

=(1−α)×R+α×R (1)
=(1−α)×G+α×G (2)
=(1−α)×B+α×B (3)
また、加算αブレンディングの場合には下式(4)〜(6)の処理を行う。なお単純加算の場合はα=1として下式(4)〜(6)の処理を行う。
R Q = (1−α) × R 1 + α × R 2 (1)
G Q = (1−α) × G 1 + α × G 2 (2)
B Q = (1−α) × B 1 + α × B 2 (3)
In addition, in the case of addition α blending, the following expressions (4) to (6) are performed. In the case of simple addition, α = 1 and the following formulas (4) to (6) are performed.

=R+α×R (4)
=G+α×G (5)
=B+α×B (6)
また、減算αブレンディングの場合には下式(7)〜(9)の処理を行う。なお単純減算の場合はα=1として下式(7)〜(9)の処理を行う。
R Q = R 1 + α × R 2 (4)
G Q = G 1 + α × G 2 (5)
B Q = B 1 + α × B 2 (6)
In the case of subtractive α blending, the processing of the following equations (7) to (9) is performed. In the case of simple subtraction, α = 1 and the following formulas (7) to (9) are processed.

=R−α×R (7)
=G−α×G (8)
=B−α×B (9)
ここで、R、G、Bは、フレームバッファ172Bあるいはフレームバッファ174Dに既に描画されている画像(原画像)のRGB成分であり、R、G、Bは、描画バッファ174に描画すべき画像のRGB成分である。また、R、G、Bは、αブレンディングにより得られる画像のRGB成分である。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。
R Q = R 1 −α × R 2 (7)
G Q = G 1 −α × G 2 (8)
B Q = B 1 −α × B 2 (9)
Here, R 1 , G 1 , B 1 are RGB components of an image (original image) already drawn in the frame buffer 172B or the frame buffer 174D, and R 2 , G 2 , B 2 are the drawing buffer 174. Are RGB components of the image to be drawn. R Q , G Q , and B Q are RGB components of an image obtained by α blending. The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

さらに本実施形態では描画部120が、フィルタ処理部122を含む。   Further, in the present embodiment, the drawing unit 120 includes a filter processing unit 122.

フィルタ処理部122は、描画バッファ174に描画された原画像を内包する略円形状のポリゴンメッシュを生成し、原画像をテクスチャとしてポリゴンメッシュの各頂点と対応させつつ、仮想カメラ(視点)の移動速度に基づいて、ポリゴンメッシュの各頂点に対応づけられるテクスチャ座標をポリゴンメッシュの代表点から放射状にずらしながら描画することにより原画像に対してフィルタ処理を施すことができるようになっている。   The filter processing unit 122 generates a substantially circular polygon mesh containing the original image drawn in the drawing buffer 174, and moves the virtual camera (viewpoint) while using the original image as a texture and corresponding to each vertex of the polygon mesh. Based on the speed, the original image can be filtered by drawing the texture coordinates corresponding to the vertices of the polygon mesh while shifting them radially from the representative points of the polygon mesh.

具体的には、フィルタ処理126は、メッシュ生成処理、テクスチャ座標設定処理、補間係数設定処理、テクスチャ座標補間処理、メッシュ描画処理等をフィルタ処理として実行し、フィルタ処理の結果を描画バッファ174に出力する。   Specifically, the filter processing 126 executes mesh generation processing, texture coordinate setting processing, interpolation coefficient setting processing, texture coordinate interpolation processing, mesh drawing processing, and the like as filter processing, and outputs the result of the filter processing to the drawing buffer 174. To do.

メッシュ生成処理では、原画像に対応づけられた代表点から放射状に頂点が配列される略円形状のポリゴンメッシュを生成する処理を行う。   In the mesh generation process, a process for generating a substantially circular polygon mesh in which vertices are arranged radially from representative points associated with the original image is performed.

具体的には、仮想カメラの位置(視点位置)、向き(視線方向)に基づいて、スクリーン上における仮想カメラの注視点に相当する位置に代表点を設定する。なお、本実施形態では、スクリーンに対する仮想カメラの移動量に応じて代表点を設定することができるようになっている。そして本実施形態では、代表点から原画像を内包する略円形状の外周に至る放射線上において頂点を等間隔に配列することによりポリゴンメッシュを生成する。なお、必ずしも頂点を等間隔に配列する必要はなく、代表点から遠ざかるに従って、頂点の間隔が狭くなっていてもよいし、代表点から遠ざかるに従って頂点の間隔が広くなっていてもよい。   Specifically, a representative point is set at a position corresponding to the gazing point of the virtual camera on the screen based on the position (viewpoint position) and orientation (gaze direction) of the virtual camera. In this embodiment, the representative point can be set according to the movement amount of the virtual camera with respect to the screen. In this embodiment, a polygon mesh is generated by arranging vertices at equal intervals on the radiation from the representative point to the substantially circular outer periphery containing the original image. It is not always necessary to arrange the vertices at equal intervals. The distance between the vertices may be reduced as the distance from the representative point is increased, or the distance between the vertices may be increased as the distance from the representative point is increased.

テクスチャ座標設定処理では、ポリゴンメッシュを構成する頂点のそれぞれに対して、原画像をテクスチャとする第1のテクスチャ座標を対応づけるとともに、仮想カメラの移動速度に基づいて、第1のテクスチャ座標のずらし量を設定し、設定されたずらし量に基づいて、第2のテクスチャ座標を設定する処理を行う。特に、本実施形態では、代表点から遠い頂点ほど、頂点に対応づけられる第1のテクスチャ座標のずらし量を大きく設定するとともに、仮想カメラの移動速度が大きいほど、第1のテクスチャ座標のずらし量を大きく設定する。   In the texture coordinate setting process, the first texture coordinates having the original image as the texture are associated with each vertex constituting the polygon mesh, and the first texture coordinates are shifted based on the moving speed of the virtual camera. The amount is set, and the second texture coordinates are set based on the set shift amount. In particular, in this embodiment, as the vertex farther from the representative point, the shift amount of the first texture coordinate associated with the vertex is set to be larger, and as the moving speed of the virtual camera is larger, the shift amount of the first texture coordinate is increased. Set a larger value.

補間係数設定処理では、代表点を原点とする極座標系にてポリゴンメッシュの各頂点における各第1のテクスチャ座標に対応する第3のテクスチャ座標を設定するとともに、第3のテクスチャ座標に基づいて、補間係数を設定する処理を行う。本実施形態では、ランダムに色(R、G、B)が配列されたテクセルパターンを有するランダムテクスチャから第3のテクスチャ座標に基づいて色(R、G、B)を取得し、取得された色のR成分の輝度値に基づいて補間係数を設定する。なおランダムテクスチャからサンプリングされた色のうちG成分の輝度値やB成分の輝度値を補間係数として設定してもよいし、R成分、G成分、B成分の各輝度値による任意の組合せに基づいて、補間係数を演算して求めるようにしてもよい。   In the interpolation coefficient setting process, a third texture coordinate corresponding to each first texture coordinate at each vertex of the polygon mesh is set in a polar coordinate system with the representative point as the origin, and based on the third texture coordinate, Performs processing to set the interpolation coefficient. In the present embodiment, the color (R, G, B) is acquired based on the third texture coordinates from a random texture having a texel pattern in which the colors (R, G, B) are randomly arranged. An interpolation coefficient is set based on the luminance value of the R component. Of the colors sampled from the random texture, the luminance value of the G component or the luminance value of the B component may be set as an interpolation coefficient, or based on any combination of the luminance values of the R component, G component, and B component. Thus, the interpolation coefficient may be obtained by calculation.

テクスチャ座標補間処理では、補間係数設定処理において設定された補間係数に基づいて、ポリゴンメッシュの各頂点に対応づけられた第1のテクスチャ座標および第2のテクスチャ座標を線形補間して第4のテクスチャ座標を設定する処理を行う。   In the texture coordinate interpolation process, the fourth texture is obtained by linearly interpolating the first texture coordinate and the second texture coordinate associated with each vertex of the polygon mesh based on the interpolation coefficient set in the interpolation coefficient setting process. Performs processing to set coordinates.

メッシュ描画処理では、第4のテクスチャ座標に基づいて原画像から取得される色を、第1のテクスチャ座標に対応づけられたポリゴンメッシュの各ピクセルの色として設定して、ポリゴンメッシュを描画することによってフィルタ処理が施された画像を描画する。なおメッシュ描画処理では、第2のテクスチャ座標に基づいて原画像から取得される色を、第1のテクスチャ座標に対応づけられたポリゴンメッシュの各ピクセルの色として設定して、ポリゴンメッシュを描画するようにしてもよい。   In the mesh drawing process, the polygon mesh is drawn by setting the color obtained from the original image based on the fourth texture coordinates as the color of each pixel of the polygon mesh associated with the first texture coordinates. The image subjected to the filtering process is drawn by. In the mesh drawing process, the color acquired from the original image based on the second texture coordinates is set as the color of each pixel of the polygon mesh associated with the first texture coordinates, and the polygon mesh is drawn. You may do it.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
2.1 本実施形態のフィルタ処理の概要
次に、図2を用いて本実施形態のフィルタ処理の概要について説明する。
2. 2. Method according to this embodiment 2.1 Outline of filter processing according to this embodiment Next, an outline of the filter processing according to this embodiment will be described with reference to FIG.

本実施形態では、原画像をテクスチャとして対応付けられたポリゴンメッシュを構成する各頂点(ポリゴンメッシュを構成するプリミティブの頂点)に関して、仮想カメラの移動速度に応じて各頂点のテクスチャ座標をずらしながらポリゴンメッシュを描画する手法を採用している。   In this embodiment, with respect to each vertex constituting the polygon mesh associated with the original image as a texture (primitive vertex constituting the polygon mesh), the polygon coordinates are shifted while shifting the texture coordinates of each vertex according to the moving speed of the virtual camera. A method of drawing a mesh is adopted.

例えば、図2(A)に示すように、原画像をテクスチャとして代表点Aから放射状にほぼ等間隔に頂点が配列されたポリゴンメッシュPMを生成し、原画像を構成する各ピクセルの位置をずらすようにポリゴンメッシュPMの各頂点に対応づけられたテクスチャ座標をずらしながら、ポリゴンメッシュPMを描画するフィルタ処理を行うことによって図2(B)に示すようにスピード感がリアルに表現された画像を生成することができる。   For example, as shown in FIG. 2A, a polygon mesh PM in which vertices are arranged radially from the representative point A at substantially equal intervals using the original image as a texture is generated, and the position of each pixel constituting the original image is shifted. As shown in FIG. 2B, an image in which a sense of speed is realistically expressed by performing a filter process for drawing the polygon mesh PM while shifting the texture coordinates associated with each vertex of the polygon mesh PM. Can be generated.

具体的には、ポリゴンメッシュを生成するメッシュ生成処理、生成されたポリゴンメッシュに対して各テクスチャ座標を設定するテクスチャ座標設定処理、設定されたテクスチャ座標に対して補間処理を行い新たな座標を設定するテクスチャ座標補間処理、当該テクスチャ座標補間処理を行う際に用いる補間係数を設定する補間係数設定処理、及び、最終的に設定されたテクスチャ座標に基づいてポリゴンメッシュを描画するメッシュ描画処理の各種の処理を行うことによってフィルタ処理が実現される。   Specifically, a mesh generation process for generating a polygon mesh, a texture coordinate setting process for setting each texture coordinate for the generated polygon mesh, and an interpolation process for the set texture coordinate to set a new coordinate Various types of texture coordinate interpolation processing, interpolation coefficient setting processing for setting an interpolation coefficient used when performing the texture coordinate interpolation processing, and mesh drawing processing for drawing a polygon mesh based on finally set texture coordinates Filter processing is realized by performing the processing.

このような手法を採用することによって、原画像を構成する各ピクセルの位置がずらされて、原画像に対して仮想カメラの移動速度に応じたぼかし効果を与えることができる。また、仮想カメラの移動速度が速い場合には、ピクセルのずらし量を大きくし、仮想カメラの移動速度が遅い場合には、ピクセルのずらし量を小さくするなど、仮想カメラの移動速度の違いに応じて各ピクセルのずらし量を変化させている。   By adopting such a method, the position of each pixel constituting the original image is shifted, and a blurring effect according to the moving speed of the virtual camera can be given to the original image. Also, if the moving speed of the virtual camera is fast, increase the pixel shift amount, and if the virtual camera moving speed is slow, decrease the pixel shift amount. The shift amount of each pixel is changed.

また、本実施形態では、ポリゴンメッシュの各頂点におけるテクスチャ座標の代表点を基準とする放射線方向のずらし具合を仮想カメラの移動速度に対応させるとともに、極座標系を用いてテクスチャ座標の代表点まわりの歪み具合を調整することができるようになっている。   Further, in the present embodiment, the shift of the radiation direction with respect to the representative point of the texture coordinate at each vertex of the polygon mesh is made to correspond to the moving speed of the virtual camera, and around the representative point of the texture coordinate using the polar coordinate system The degree of distortion can be adjusted.

したがって、本実施形態の手法によれば、例えば、レースゲームなどのオブジェクト空間内を移動するオブジェクトの動きに仮想カメラの動きを追従させる場合に、図2(B)に示すように、オブジェクトが移動する際のシチュエーションに合わせてスピード感(仮想カメラの移動速度の差)を的確に表現することができるようになっている。   Therefore, according to the method of the present embodiment, for example, when the movement of the virtual camera follows the movement of the object moving in the object space such as a race game, the object moves as shown in FIG. The feeling of speed (difference in the moving speed of the virtual camera) can be accurately expressed according to the situation at the time.

2.2 メッシュ生成処理
次に、図3を用いて本実施形態のメッシュ生成処理について説明する。
2.2 Mesh Generation Processing Next, mesh generation processing according to the present embodiment will be described with reference to FIG.

本実施形態では、スクリーンにおける仮想カメラの向き(視線方向)を定める注視点に相当する位置などを代表点として設定し、代表点から原画像を内包する略円形状の外周に向かって放射状に頂点が配列されるポリゴンメッシュを生成する手法を採用している。   In the present embodiment, a position corresponding to a gazing point that determines the direction (gaze direction) of the virtual camera on the screen is set as a representative point, and apexes radially from the representative point toward the substantially circular outer periphery containing the original image. A method of generating a polygon mesh in which is arranged is employed.

例えば、図3(A)に示すように、代表点A(x,y)がテクスチャ(原画像)の中心付近に対応付けられる場合には、代表点A(x、y)からテクスチャの4つの角を通る円をポリゴンメッシュのPMの外周として設定し、代表点Aから放射状に外周に向かって(放射線方向に)48分割するとともに、代表点A(x、y)の周囲を所定の角度毎に16分割することにより略円形状のポリゴンメッシュPMを生成する。ポリゴンメッシュPMでは、各分割線の交点DPを頂点としたプリミティブPRが網目状に接合されている。   For example, as shown in FIG. 3A, when the representative point A (x, y) is associated with the vicinity of the center of the texture (original image), the four points of the texture from the representative point A (x, y) A circle passing through the corner is set as the outer periphery of the PM of the polygon mesh, and is divided into 48 radially from the representative point A toward the outer periphery (in the radiation direction), and the periphery of the representative point A (x, y) is set at predetermined angles. The polygon mesh PM having a substantially circular shape is generated by dividing into 16 parts. In the polygon mesh PM, primitives PR having the intersection points DP of the dividing lines as vertices are joined in a mesh shape.

また本実施形態では、例えば、図3(B)に示すように、ポリゴンメッシュPMの外周の中心点O(x,y)より左に位置する代表点A(x,y)が設定された場合には、代表点A(x,y)を基準に放射線方向に48分割され、かつ代表点A(x,y)の周囲を16分割して頂点を配列した略円形状のポリゴンメッシュPMを生成する。このように、本実施形態のメッシュ生成処理では、代表点Aがテクスチャとなる原画像の中心よりずれた場合であっても、所定数の等分割を行うことによって頂点を配列したポリゴンメッシュPMを生成するようになっている。特に本実施形態では、代表点Aの位置を仮想カメラのスクリーンに対する移動方向・移動量(仮想カメラの移動ベクトルのスクリーンに対する平行移動成分に相当)に応じて設定するため、仮想カメラの移動に伴って、ポリゴンメッシュPM内に頂点が密に配列される領域(プリミティブPRの面積が小さい領域)と、頂点が粗く配列される領域(プリミティブPRの面積が大きい領域)とを生成することができる。このようにすることによって、本実施形態の手法では、仮想カメラの移動方向に沿ってスピード感を適切に表現することができるフィルタ処理を実現することができるようになる。 In the present embodiment, for example, as shown in FIG. 3B, a representative point A (x 1 , y 1 ) located to the left of the outer peripheral center point O (x 0 , y 0 ) of the polygon mesh PM is displayed. If it is set, the representative point a (x 1, y 1) reference is 48 divided in radial direction in a, and an array of 16 divided by vertices around the representative point a (x 1, y 1) substantially A circular polygon mesh PM is generated. As described above, in the mesh generation processing according to the present embodiment, even when the representative point A is shifted from the center of the original image as the texture, the polygon mesh PM in which the vertices are arranged by performing a predetermined number of equal divisions is obtained. It is designed to generate. In particular, in this embodiment, the position of the representative point A is set according to the moving direction and moving amount of the virtual camera with respect to the screen (corresponding to the parallel movement component of the moving vector of the virtual camera with respect to the screen). Thus, a region where the vertices are densely arranged in the polygon mesh PM (region where the area of the primitive PR is small) and a region where the vertices are roughly arranged (region where the area of the primitive PR is large) can be generated. By doing in this way, with the method of this embodiment, it becomes possible to realize a filter process that can appropriately express a sense of speed along the moving direction of the virtual camera.

なお、メッシュ生成処理では、上述したように原画像をテクスチャとして、原画像を内包する略円形状のポリゴンメッシュを生成する場合に限らず、原画像を内包することができれば楕円形状などのポリゴンメッシュを生成するようにしてもよい。   Note that the mesh generation process is not limited to the case of generating a substantially circular polygon mesh that includes the original image using the original image as a texture as described above. If the original image can be included, a polygon mesh such as an elliptical shape can be used. May be generated.

2.3 テクスチャ座標設定処理
次に、図4を用いて本実施形態のテクスチャ座標設定処理について説明する。
2.3 Texture Coordinate Setting Process Next, the texture coordinate setting process of the present embodiment will be described with reference to FIG.

本実施形態では、原画像をテクスチャとし、0〜1の範囲にUV座標値が正規化されているテクスチャ座標系を用いて、ポリゴンメッシュを構成する各頂点と原画像とを対応付けて、第1のテクスチャ座標を設定する手法を採用する。   In this embodiment, the original image is used as a texture, and each vertex constituting the polygon mesh is associated with the original image using a texture coordinate system in which UV coordinate values are normalized in the range of 0 to 1. A method of setting one texture coordinate is adopted.

具体的には、例えば、図4(A)に示すように、ポリゴンメッシュPMにおける任意の頂点S,Sに関して、テクスチャの左上の点を原点(すなわち、(U,V)=(0,0))とするテクスチャ座標系に基づいて、頂点Sに第1のテクスチャ座標としてT1(Ub,Vb)が対応づけられ、頂点Sに第1のテクスチャ座標としてT1(Uc,Vc)が対応づけられる。 Specifically, for example, as shown in FIG. 4 (A), any vertex S B in the polygon mesh PM, with respect to S C, the origin point of the upper left of the texture (i.e., (U, V) = (0, 0)) and on the basis of the texture coordinate system, T1 B as first texture coordinate (Ub 1, Vb 1) is associated with the vertex S B, T1 C (Uc as first texture coordinates at the vertices S C 1 , Vc 1 ).

また本実施形態では、頂点毎に設定した第1のテクスチャ座標に対して仮想カメラの奥行き方向(カメラ座標系のZ軸方向)に関する移動速度および代表点から各頂点までの距離をそれぞれ0〜1の値域に正規化したパラメータを求める演算を実行して第1のテクスチャ座標の放射線方向(ポリゴンメッシュPMの代表点から外周に至る方向)のずらし量を設定する。そして、設定されたずらし量に基づいて、第1のテクスチャ座標に対応する第2のテクスチャ座標を設定する手法を採用する。   In this embodiment, the moving speed in the depth direction of the virtual camera (the Z-axis direction of the camera coordinate system) and the distance from the representative point to each vertex are set to 0 to 1 with respect to the first texture coordinates set for each vertex. An operation for obtaining a parameter normalized to the value range is executed to set a shift amount in the radiation direction of the first texture coordinates (direction from the representative point of the polygon mesh PM to the outer periphery). And the method of setting the 2nd texture coordinate corresponding to the 1st texture coordinate based on the set shift amount is adopted.

具体的には、例えば、図4(B)に示すように、ポリゴンメッシュPMの頂点Sに対応づけられた第1のテクスチャ座標T1や頂点Sに対応づけられた第1のテクスチャ座標T1に対して、仮想カメラの移動速度を正規化して2乗した値(Zv)と代表点Aから各頂点S,Sまでの距離L,Lとに基づいて、ずらし量ΔT1(ΔU,ΔV),ΔT1(ΔU,ΔV)を設定して(式1参照)、第2のテクスチャ座標T2及びT2を設定するようになっている(式2参照)。 Specifically, for example, as shown in FIG. 4 (B), first the first texture coordinate associated with the texture coordinates T1 B and vertex S C associated with the vertex S B of the polygon mesh PM A shift amount based on the value (Zv) 2 obtained by normalizing the moving speed of the virtual camera with respect to T1 C and squared and the distances L B and L C from the representative point A to the vertices S B and S C ΔT1 B (ΔU B , ΔV B ), ΔT1 C (ΔU C , ΔV C ) are set (see Formula 1), and second texture coordinates T2 B and T2 C are set (Formula 2). reference).

ΔT1(ΔU,ΔV)=f((Zv)×L)・・・(式1)
T2(U,V)=T1(U,V)+ΔT1(ΔU,ΔV)・・・(式2)
このように本実施形態の手法では、第1のテクスチャ座標T1のずらし量ΔT1(ΔU,ΔV)を、仮想カメラの奥行き方向の移動速度と代表点Aから頂点までの距離とを考慮して求めることによって、仮想カメラが奥行き方向に素早く移動するほど、頂点に対応づけられる第1のテクスチャ座標の放射線方向におけるずらし量が大きくなり、代表点Aから遠い頂点ほど、頂点に対応づけられる第1のテクスチャ座標の放射線方向におけるずらし量が大きくなるように、第2のテクスチャ座標を設定することができる。
ΔT1 (ΔU, ΔV) = f ((Zv) 2 × L) (Equation 1)
T2 (U 2, V 2) = T1 (U 1, V 1) + ΔT1 (ΔU, ΔV) ··· ( Equation 2)
As described above, in the method of the present embodiment, the shift amount ΔT1 (ΔU, ΔV) of the first texture coordinate T1 is obtained in consideration of the moving speed in the depth direction of the virtual camera and the distance from the representative point A to the vertex. Accordingly, the faster the virtual camera moves in the depth direction, the larger the shift amount in the radiation direction of the first texture coordinate associated with the vertex, and the vertex farther from the representative point A becomes the first associated with the vertex. The second texture coordinate can be set so that the shift amount of the texture coordinate in the radiation direction becomes large.

なお、本実施形態の手法では、仮想カメラの奥行き方向(視点位置から注視点に向かう方向)の移動速度を正規化しておき、正規化された値の2乗値(Zv)に応じて第2のテクスチャ座標が変動するようになっているが、仮想カメラの奥行き方向の移動速度は、以下のようにして正規化することができる。 In the method of this embodiment, the moving speed of the virtual camera in the depth direction (the direction from the viewpoint position toward the gazing point) is normalized, and the first value is determined according to the square value (Zv) 2 of the normalized value. Although the texture coordinates of 2 fluctuate, the moving speed of the virtual camera in the depth direction can be normalized as follows.

例えば、レースゲームを例に取ると、仮想カメラが車両などの移動体オブジェクトに追従するように移動制御される場合にあっては、仮想カメラの奥行き方向の移動速度が、時速0km/hから時速350km/hの範囲で変化する場合、時速0km/hから時速100km/hを「0」から「1.0」に対応づけるとともに、時速100km/hから時速350km/hまでを「1.0」の値にクランプすることで正規化することができる。   For example, taking a racing game as an example, when the virtual camera is controlled to follow a moving object such as a vehicle, the moving speed of the virtual camera in the depth direction is from 0 km / h to the speed per hour. When changing in the range of 350 km / h, 0 km / h to 100 km / h is associated with “0” to “1.0” and “1.0” from 100 km / h to 350 km / h. It can be normalized by clamping to the value of.

さらに、本実施形態の画像生成システムは、視点の移動速度が大きいほど、第1のテクスチャ座標のずらし量を大きして第2のテクスチャ座標の位置を設定するようになっている。   Furthermore, the image generation system of the present embodiment sets the position of the second texture coordinate by increasing the shift amount of the first texture coordinate as the viewpoint moving speed increases.

このように本実施形態の手法によれば、代表点から遠くなるのに従って原画像の歪みを大きくすることができるとともに、仮想カメラの奥行き方向の移動速度が大きくなるのに従って原画像の歪みが大きくなるようにぼかし効果を調整することができるので、仮想カメラの移動に伴うスピード感、特に、高速、中速、低速などのスピードの差を原画像の歪み具合によって的確に表現することができる。   As described above, according to the method of the present embodiment, the distortion of the original image can be increased as the distance from the representative point increases, and the distortion of the original image increases as the moving speed of the virtual camera in the depth direction increases. Since the blurring effect can be adjusted, the difference in speed associated with the movement of the virtual camera, in particular, the difference in speed such as high speed, medium speed, and low speed can be accurately represented by the degree of distortion of the original image.

2.4 補間係数設定処理
次に、図5及び図6を用いて本実施形態のテクスチャ設定処理について説明する。
2.4 Interpolation Coefficient Setting Process Next, the texture setting process of this embodiment will be described with reference to FIGS. 5 and 6.

本実施形態では、メッシュ生成処理にて定められた代表点を原点(座標の中心)とする極座標系において、ポリゴンメッシュの各頂点を示す第1のテクスチャ座標に対応させる第3のテクスチャ座標を設定するとともに、第3のテクスチャ座標に基づいて、第1のテクスチャ座標と第2のテクスチャ座標とを補間するための補間係数を設定する手法を採用している。   In the present embodiment, in the polar coordinate system having the representative point determined in the mesh generation process as the origin (coordinate center), the third texture coordinate corresponding to the first texture coordinate indicating each vertex of the polygon mesh is set. At the same time, a method of setting an interpolation coefficient for interpolating between the first texture coordinate and the second texture coordinate based on the third texture coordinate is employed.

特に本実施形態では、第3のテクスチャ座標に基づいて、ランダムに色が配列されたテクセルパターンを有するランダムテクスチャから色を取得し、取得された色の輝度値に基づいて補間係数を設定するようになっている。   In particular, in the present embodiment, a color is obtained from a random texture having a texel pattern in which colors are randomly arranged based on the third texture coordinates, and an interpolation coefficient is set based on the luminance value of the obtained color. It has become.

すなわち、補間係数設定処理では、第1のテクスチャ座標と第2のテクスチャ座標を合成する際に、第1のテクスチャ座標に対応する極座標を定め、極座標を用いて補間係数を設定するようになっており、原画像に対してぼかし処理を行う際に、代表点を中心とした回転方向へのずれを考慮して、フィルタ処理における原画像のサンプリングパターンを多様に変化させることができるようになっている。   That is, in the interpolation coefficient setting process, when the first texture coordinates and the second texture coordinates are synthesized, polar coordinates corresponding to the first texture coordinates are determined, and the interpolation coefficients are set using the polar coordinates. Therefore, when performing the blurring process on the original image, the sampling pattern of the original image in the filter process can be changed in various ways in consideration of the shift in the rotation direction around the representative point. Yes.

具体的には、代表点Aを原点(0,0)に設定した極座標系において、U軸成分の値を代表点Aからの距離とし、V軸成分の値を、代表点Aまわりの角度として第3のテクスチャ座標T3(U,V)をポリゴンメッシュPMの各頂点に対して設定している。 Specifically, in the polar coordinate system in which the representative point A is set to the origin (0, 0), the value of the U-axis component is the distance from the representative point A, and the value of the V-axis component is the angle around the representative point A. A third texture coordinate T3 (U 3 , V 3 ) is set for each vertex of the polygon mesh PM.

例えば、図5に示すように、ポリゴンメッシュPMの頂点S、Sについて、極座標系で指定される第3のテクスチャ座標T3(Ub,Vb),T3(Uc,Vc)が設定されると、各第3のテクスチャ座標T3(Ub,Vb),T3(Uc,Vc)に基づいて、図6に示すようなランダムに色が配列されたテクセルパターンを有するランダムテクスチャから各第3のテクスチャ座標に対応するテクセルPb,Pcに設定された色(Rb,Gb,Bb),(Rc,Gc,Bc)を取得する。そして、取得された色のうちR成分の輝度値Rb,Rcをそれぞれの補間係数として設定する。 For example, as shown in FIG. 5, the third texture coordinates T3 B (Ub 3 , Vb 3 ), T3 C (Uc 3 , Vc 3 ) specified in the polar coordinate system are used for the vertices S B and S C of the polygon mesh PM. ) Is set, a texel in which colors are randomly arranged as shown in FIG. 6 based on the third texture coordinates T3 B (Ub 3 , Vb 3 ) and T3 C (Uc 3 , Vc 3 ). Colors (Rb, Gb, Bb) and (Rc, Gc, Bc) set in texels Pb and Pc corresponding to the third texture coordinates are acquired from a random texture having a pattern. Then, the luminance values Rb and Rc of the R component among the acquired colors are set as interpolation coefficients.

なお、本実施形態では、補間係数を設定する際に、ランダムテクスチャに基づいて取得したRGBの各色成分のうちR成分の輝度値を用いるようになっているが、もちろん、G成分の輝度値を用いてもよいし、B成分の輝度値を用いてもよいし、各色成分の輝度値の任意の組合せから求めてもよい。   In the present embodiment, when setting the interpolation coefficient, the luminance value of the R component among the RGB color components acquired based on the random texture is used. The brightness value of the B component may be used, or may be obtained from any combination of the brightness values of the respective color components.

また本実施形態では、第3のテクスチャ座標に基づいてランダムテクスチャから色を取得する場合を例に取り説明をしたが、必ずしもランダムテクスチャから色を取得する必要はなく、任意のテクセルパターンを有するテクスチャから第3のテクスチャ座標に基づいて色を取得して、取得された色の輝度値から補間係数を求めるようにしてもよい。   In the present embodiment, the case where a color is obtained from a random texture based on the third texture coordinates has been described as an example, but it is not always necessary to obtain a color from a random texture, and a texture having an arbitrary texel pattern Alternatively, the color may be acquired based on the third texture coordinates, and the interpolation coefficient may be obtained from the luminance value of the acquired color.

2.5 テクスチャ座標補間処理
次に、本実施形態のテクスチャ座標補間処理について説明する。
2.5 Texture Coordinate Interpolation Process Next, the texture coordinate interpolation process of this embodiment will be described.

本実施形態では、第1のテクスチャ座標と第2のテクスチャ座標とを、補間係数設定処理にて設定された補間係数に基づいて線形補間して第4のテクスチャ座標を設定する手法を採用する。   In the present embodiment, a method of setting the fourth texture coordinates by linearly interpolating the first texture coordinates and the second texture coordinates based on the interpolation coefficient set in the interpolation coefficient setting process is employed.

具体的には、テクスチャ座標設定処理によって設定された各頂点に対応づけられた第1のテクスチャ座標T1および第2のテクスチャ座標T2に対して、上述のように補間係数設定処理によって設定された補間係数Rを用いて(式3)に示す演算を実行し、第4のテクスチャ座標T4を設定するようになっている。   Specifically, the interpolation set by the interpolation coefficient setting process as described above with respect to the first texture coordinate T1 and the second texture coordinate T2 associated with each vertex set by the texture coordinate setting process. The calculation shown in (Formula 3) is executed using the coefficient R, and the fourth texture coordinate T4 is set.

T4(U4,V4)=T1(U1,V1)×(1-R)+T2(U2,V2)×R・・・(式3)
なお、上述した補間係数設定処理において、第3のテクスチャ座標T3に基づいてランダムテクスチャを用いて設定される補間係数Rに対して、第1のテクスチャ座標T1に対応する原画像のピクセルの位置に基づいて補正処理を行うようにしてもよい。
T4 (U4, V4) = T1 (U1, V1) x (1-R) + T2 (U2, V2) x R (Equation 3)
In the interpolation coefficient setting process described above, the interpolation coefficient R set using the random texture based on the third texture coordinate T3 is set at the pixel position of the original image corresponding to the first texture coordinate T1. Correction processing may be performed based on this.

例えば、原画像の中央より下部に観察者にはっきりと視認させたいオブジェクトが描画されるような場合には、原画像の中央より下部に配置されているピクセルほど、補間係数Rが低くなるように補正して第1のテクスチャ座標T1の合成割合を大きくすることによって、ずらし効果が低くなるようにしてもよい。またこの場合には、原画像の中央より上部に配置されているピクセルほど、補間係数Rが高くなるように補正して第2のテクスチャ座標T2の合成割合を大きくすることによって、ずらし効果が高くなるようにしてもよい。このようにすれば、第4のテクスチャ座標T4を設定する際に用いる補正係数Rに変化を与えることによって、例えば、原画像における仮想カメラの注視対象の付近などがはっきりと見えるようにフィルタ処理の強度を調整することができるため、ポリゴンメッシュPMの代表点Aの位置が視認させたいオブジェクトと離れている場合であっても、ぼかし効果が視認させたいオブジェクトの近傍で弱まることにより、観察者にストレスを与えにくい。   For example, when an object to be clearly seen by an observer is drawn below the center of the original image, the interpolation coefficient R is lower for pixels arranged below the center of the original image. The shift effect may be reduced by correcting and increasing the composition ratio of the first texture coordinates T1. Further, in this case, the pixel arranged above the center of the original image is corrected so that the interpolation coefficient R becomes higher and the composition ratio of the second texture coordinates T2 is increased, so that the shift effect is high. It may be made to become. In this way, by giving a change to the correction coefficient R used when setting the fourth texture coordinate T4, for example, the filtering process is performed so that the vicinity of the target of the virtual camera in the original image can be clearly seen. Since the intensity can be adjusted, even if the position of the representative point A of the polygon mesh PM is away from the object to be visually recognized, the blur effect is weakened in the vicinity of the object to be visually recognized. Hard to give stress.

以上に述べたように本実施形態の手法によれば、仮想カメラの移動速度に応じたずれのみならず、代表点を中心とした回転方向へのずれをも反映させて様々なパターンでぼかし処理を行うことができる。このためフィルタ処理のパターンを多様化することができ、シチュエーションに応じたスピード感を表現することができるようになる。   As described above, according to the method of the present embodiment, not only the shift according to the moving speed of the virtual camera but also the blurring process with various patterns reflecting the shift in the rotation direction around the representative point. It can be performed. For this reason, the pattern of filter processing can be diversified, and a sense of speed according to the situation can be expressed.

2.6 メッシュ描画処理
次に、本実施形態のメッシュ描画処理について説明する。
2.6 Mesh Drawing Processing Next, mesh drawing processing according to the present embodiment will be described.

本実施形態では、テクスチャ座標補間処理にて設定された第4のテクスチャ座標T4に基づいて、原画像のテクスチャから取得される色を、テクスチャ座標設定処理にて設定された第1のテクスチャ座標T1に対応するポリゴンメッシュPMのピクセルの色として設定して、ポリゴンメッシュPMを描画する手法を採用する。   In the present embodiment, based on the fourth texture coordinate T4 set in the texture coordinate interpolation process, the color acquired from the texture of the original image is changed to the first texture coordinate T1 set in the texture coordinate setting process. Is used as a pixel color of the polygon mesh PM corresponding to the above, and a method of drawing the polygon mesh PM is adopted.

したがって本実施形態の手法によれば、仮想カメラの移動速度に対応させて、原画像を構成するピクセルをずらす効果が得られるので、レースゲームなどのオブジェクト空間内を移動するオブジェクトに対して仮想カメラを追従させる場合に、オブジェクトが移動する際のスピード感、特に、高速や中速または低速などのスピードの差をぼかし処理によって的確に表現することができるようになっている。   Therefore, according to the method of the present embodiment, the effect of shifting the pixels constituting the original image in accordance with the moving speed of the virtual camera can be obtained, so the virtual camera can be used for objects moving in the object space such as a racing game. , The speed feeling when the object moves, in particular, the difference in speed such as high speed, medium speed or low speed can be accurately expressed by the blurring process.

3.本実施形態の処理
次に、図7を用いて本実施形態におけるフィルタ処理について説明する。
3. Processing of the present embodiment Next, filter processing according to the present embodiment will be described with reference to FIG.

まず、原画像が描画されると(ステップS1)、原画像を構成する際の仮想カメラの制御情報(位置、向き)に基づいて代表点を設定し、代表点を基準として頂点を放射状に配列したポリゴンメッシュを生成する(ステップS2)。   First, when the original image is drawn (step S1), representative points are set based on the control information (position and orientation) of the virtual camera when the original image is constructed, and vertices are arranged radially with reference to the representative points. A polygon mesh is generated (step S2).

次いで、生成されたポリゴンメッシュを構成する各頂点と、原画像に基づくテクスチャのテクセルとを対応づけて、第1のテクスチャ座標を設定する(ステップS3)。   Next, the first texture coordinates are set by associating each vertex constituting the generated polygon mesh with the texture texel based on the original image (step S3).

次いで、ポリゴンメッシュの各頂点に対して仮想カメラにおける移動速度と代表点から各頂点までの距離をパラメータとして第1のテクスチャ座標のずらし量を設定し、各頂点に対応する第2のテクスチャ座標を設定する(ステップS4)。   Next, the shift amount of the first texture coordinate is set for each vertex of the polygon mesh using the moving speed in the virtual camera and the distance from the representative point to each vertex as parameters, and the second texture coordinate corresponding to each vertex is set. Set (step S4).

次いで、メッシュ生成処理にて定められた代表点を原点とする極座標系のテクスチャ座標において、ポリゴンメッシュの各頂点に対応する第3のテクスチャ座標を設定する(ステップS5)。   Next, third texture coordinates corresponding to each vertex of the polygon mesh are set in the texture coordinates in the polar coordinate system having the representative point determined in the mesh generation process as the origin (step S5).

次いで、第3のテクスチャ座標に基づいて、ランダムに色が配列されたテクセルパターンを有するランダムテクスチャからテクセルの色をサンプリングし、サンプリングされた色のR成分の輝度値を補間係数に設定する(ステップS6)。   Next, based on the third texture coordinates, the color of the texel is sampled from a random texture having a texel pattern in which colors are randomly arranged, and the luminance value of the R component of the sampled color is set as an interpolation coefficient (step) S6).

次いで、ポリゴンメッシュの頂点毎に、第1のテクスチャ座標と第2のテクスチャ座標とを、ステップS5の処理にて設定された補間係数に基づいて線形補間して第4のテクスチャ座標をそれぞれ設定する(ステップS7)。   Next, for each vertex of the polygon mesh, the first texture coordinates and the second texture coordinates are linearly interpolated based on the interpolation coefficient set in the process of step S5, and the fourth texture coordinates are set. (Step S7).

最後に、各ポリゴンメッシュの頂点毎に、第4のテクスチャ座標に基づいて原画像のテクスチャから色をサンプリングして、ポリゴンメッシュの各ピクセルの色として設定しながらポリゴンメッシュを描画する(ステップS9)。   Finally, for each vertex of each polygon mesh, the color is sampled from the texture of the original image based on the fourth texture coordinates, and the polygon mesh is drawn while setting the color of each pixel of the polygon mesh (step S9). .

なお、本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。   The present invention is not limited to the one described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

また、フィルタ処理の各処理についても本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。   Also, each process of the filter process is not limited to that described in the present embodiment, and techniques equivalent to these are also included in the scope of the present invention.

例えば、本実施形態のフィルタ処理において、補間係数設定処理やテクスチャ座標補間処理を行わずに、第2のテクスチャ座標に基づいて原画像のテクスチャからポリゴンメッシュの各ピクセルの色を取得してポリゴンメッシュを描画してもよい。またテクスチャ座標補間処理を行う代わりに、第1のテクスチャ座標に基づいて原画像から取得される色と、第2のテクスチャ座標に基づいて原画像から取得される色とを、補間係数設定処理で設定した補間係数に基づいて線形補間することによりポリゴンメッシュを描画するようにしてもよい。ただし、この場合には、ピクセル単位での処理が多くなるため、処理負荷を考慮すると、頂点単位の処理で済むテクスチャ座標補間処理を採用した方が高速にフィルタ処理を実行することができる。   For example, in the filter processing according to the present embodiment, the color of each pixel of the polygon mesh is obtained from the texture of the original image based on the second texture coordinates without performing the interpolation coefficient setting processing and the texture coordinate interpolation processing. May be drawn. Also, instead of performing the texture coordinate interpolation process, the color acquired from the original image based on the first texture coordinate and the color acquired from the original image based on the second texture coordinate are converted into the interpolation coefficient setting process. The polygon mesh may be drawn by performing linear interpolation based on the set interpolation coefficient. However, in this case, since processing in units of pixels increases, considering processing load, it is possible to perform filter processing at higher speed by adopting texture coordinate interpolation processing that requires processing in units of vertices.

また本実施形態のフィルタ処理の手法は、移動体オブジェクトを横滑りさせながらコーナーを曲がるといういわゆるドリフト状態(所定の移動状態)になった場合に、特殊パラメータをチャージ(増加更新)させて、操作部に対する特定の操作によってと特殊パラメータを消費(使用)して移動体を急加速させて有利にレースを進めることができるようにした画像生成システムに適用することができる。このような画像生成システムでは、操作部に対する特定の操作の種類に応じて、チャージされた特殊パラメータの消費量(使用量)を決定するような場合に、特殊パラメータの消費量に基づいてポリゴンメッシュの各頂点に対応づけられる第1のテクスチャ座標のずらし量を設定するようにしてもよい。   Further, the filter processing method of the present embodiment charges a special parameter (increases and updates) when a so-called drifting state (predetermined moving state) in which a corner of a moving object is slid, and the operation unit It can be applied to an image generation system in which a special parameter is consumed and a special parameter is consumed (used) to accelerate a moving body and advance a race advantageously. In such an image generation system, when the consumption amount (use amount) of a charged special parameter is determined according to the type of a specific operation on the operation unit, the polygon mesh is based on the consumption amount of the special parameter. A shift amount of the first texture coordinate associated with each vertex may be set.

また、本発明は、種々のゲームに適用できる。そして、本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   Further, the present invention can be applied to various games. The present invention is applied to various image generation systems such as an arcade game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating game images, and a mobile phone. Applicable.

本実施形態の画像生成システムの機能ブロック図。The functional block diagram of the image generation system of this embodiment. 本実施形態のフィルタ処理の概要を説明するための図。The figure for demonstrating the outline | summary of the filter process of this embodiment. 本実施形態のメッシュ生成処理を説明するための図。The figure for demonstrating the mesh production | generation process of this embodiment. 本実施形態のテクスチャ座標設定処理を説明するための図。The figure for demonstrating the texture coordinate setting process of this embodiment. 本実施形態の補間係数設定処理を説明するための図。The figure for demonstrating the interpolation factor setting process of this embodiment. 本実施形態の補間係数設定処理に用いられるランダムテクスチャの例。The example of the random texture used for the interpolation coefficient setting process of this embodiment. 本実施形態のフィルタ処理の例を示すフローチャート。The flowchart which shows the example of the filter process of this embodiment.

符号の説明Explanation of symbols

100 処理部、
110 オブジェクト空間設定部、112 移動・動作処理部、
114 仮想カメラ制御部、120 描画部、122 フィルタ処理部、
130 音生成部、
160 操作部、170 記憶部、172 主記憶部、174 描画バッファ、
176 オブジェクトデータ記憶部、178 Zバッファ、
180 情報記憶媒体、190 表示部、192 音出力部、
194 携帯型情報記憶装置、196 通信部
100 processing unit,
110 Object space setting unit, 112 Movement / motion processing unit,
114 virtual camera control unit, 120 drawing unit, 122 filter processing unit,
130 sound generator,
160 operation unit, 170 storage unit, 172 main storage unit, 174 drawing buffer,
176 Object data storage unit, 178 Z buffer,
180 information storage medium, 190 display unit, 192 sound output unit,
194 Portable information storage device, 196 communication unit

Claims (15)

オブジェクト空間において仮想カメラから見える画像を生成するためのプログラムであって、
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、
所定の制御情報に基づいて前記仮想カメラの移動制御を行う仮想カメラ制御部と、
前記仮想カメラから見えるオブジェクトをスクリーンに投影して原画像を描画するとともに、当該原画像に対して所定のフィルタ処理を実行する描画部としてコンピュータを機能させ、
前記描画部が、
前記原画像に対応づけられた代表点から放射状に頂点が配列されるポリゴンメッシュを生成するメッシュ生成処理と、
前記ポリゴンメッシュを構成する各頂点に対して、前記原画像をテクスチャとする第1のテクスチャ座標を対応づけるとともに、所定の条件に基づいて、前記第1のテクスチャ座標のずらし量を設定し、当該ずらし量に基づいて、第2のテクスチャ座標を設定するテクスチャ座標設定処理と、
前記第2のテクスチャ座標に基づいて前記原画像から取得される色を、前記第1のテクスチャ座標に対応づけられた前記ポリゴンメッシュの各ピクセルの色として設定して、前記ポリゴンメッシュを描画するメッシュ描画処理と、
を前記所定のフィルタ処理として実行し、
前記描画部が、前記メッシュ生成処理において、
前記スクリーンに対する前記仮想カメラの移動量及び移動方向の少なくとも一方に応じて、前記代表点を設定することを特徴とするプログラム。
A program for generating an image visible from a virtual camera in an object space,
An object space setting section for setting an object in the object space;
A virtual camera control unit that performs movement control of the virtual camera based on predetermined control information;
Projecting an object visible from the virtual camera onto a screen to draw an original image, and causing a computer to function as a drawing unit that executes a predetermined filtering process on the original image,
The drawing unit
A mesh generation process for generating a polygon mesh in which vertices are radially arranged from representative points associated with the original image;
Corresponding to each vertex constituting the polygon mesh is a first texture coordinate having the original image as a texture, and setting a shift amount of the first texture coordinate based on a predetermined condition, A texture coordinate setting process for setting the second texture coordinates based on the shift amount;
A mesh for drawing the polygon mesh by setting the color acquired from the original image based on the second texture coordinates as the color of each pixel of the polygon mesh associated with the first texture coordinates Drawing process,
Is executed as the predetermined filtering process ,
In the mesh generation process, the drawing unit
A program that sets the representative point according to at least one of a movement amount and a movement direction of the virtual camera with respect to the screen .
請求項1において、In claim 1,
前記描画部が、前記メッシュ生成処理において、In the mesh generation process, the drawing unit
前記仮想カメラの移動量のスクリーンに対する平行移動成分、及び、前記仮想カメラの移動方向のスクリーンに対する平行移動成分、の少なくとも一方に応じて、前記代表点を設定することを特徴とするプログラム。The representative point is set according to at least one of a parallel movement component of the movement amount of the virtual camera with respect to the screen and a parallel movement component of the movement direction of the virtual camera with respect to the screen.
請求項1又は2において、In claim 1 or 2,
前記描画部が、前記メッシュ生成処理において、In the mesh generation process, the drawing unit
前記仮想カメラの移動ベクトルのスクリーンに対する平行移動成分に応じて、前記代表点を設定することを特徴とするプログラム。A program characterized in that the representative point is set according to a parallel movement component of a movement vector of the virtual camera with respect to a screen.
請求項1〜3のいずれかにおいて、In any one of Claims 1-3,
前記描画部が、前記メッシュ生成処理において、In the mesh generation process, the drawing unit
前記スクリーンに対する前記仮想カメラの移動量及び移動方向の少なくとも一方に応じて、前記原画像の中心点からずれた位置に前記代表点を設定することを特徴とするプログラム。A program characterized in that the representative point is set at a position shifted from a center point of the original image in accordance with at least one of a movement amount and a movement direction of the virtual camera with respect to the screen.
オブジェクト空間において仮想カメラから見える画像を生成するためのプログラムであって、
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、
所定の制御情報に基づいて前記仮想カメラの移動制御を行う仮想カメラ制御部と、
前記仮想カメラから見えるオブジェクトをスクリーンに投影して原画像を描画するとともに、当該原画像に対して所定のフィルタ処理を実行する描画部としてコンピュータを機能させ、
前記描画部が、
前記原画像に対応づけられた代表点から放射状に頂点が配列されるポリゴンメッシュを生成するメッシュ生成処理と、
前記ポリゴンメッシュを構成する各頂点に対して、前記原画像をテクスチャとする第1のテクスチャ座標を対応づけるとともに、所定の条件に基づいて、前記第1のテクスチャ座標のずらし量を設定し、当該ずらし量に基づいて、第2のテクスチャ座標を設定するテクスチャ座標設定処理と、
前記第2のテクスチャ座標に基づいて前記原画像から取得される色を、前記第1のテクスチャ座標に対応づけられた前記ポリゴンメッシュの各ピクセルの色として設定して、前記ポリゴンメッシュを描画するメッシュ描画処理と、
を前記所定のフィルタ処理として実行し、
前記描画部が、前記所定のフィルタ処理において、
前記代表点を原点とする極座標系にて前記ポリゴンメッシュの各頂点に対応する第3のテクスチャ座標を設定して、当該第3のテクスチャ座標に基づいて、補間係数を設定する補間係数設定処理と、
前記第1のテクスチャ座標と前記第2のテクスチャ座標とを、前記補間係数に基づいて線形補間して第4のテクスチャ座標を設定するテクスチャ座標補間処理と、
を更に実行するとともに、
前記メッシュ描画処理において、前記第4のテクスチャ座標に基づいて前記原画像から取得される色を、前記第1のテクスチャ座標に対応づけられた前記ポリゴンメッシュの各ピクセルの色として設定して、前記ポリゴンメッシュを描画することを特徴とするプログラム。
A program for generating an image visible from a virtual camera in an object space,
An object space setting section for setting an object in the object space;
A virtual camera control unit that performs movement control of the virtual camera based on predetermined control information;
Projecting an object visible from the virtual camera onto a screen to draw an original image, and causing a computer to function as a drawing unit that executes a predetermined filtering process on the original image,
The drawing unit
A mesh generation process for generating a polygon mesh in which vertices are radially arranged from representative points associated with the original image;
Corresponding to each vertex constituting the polygon mesh is a first texture coordinate having the original image as a texture, and setting a shift amount of the first texture coordinate based on a predetermined condition, A texture coordinate setting process for setting the second texture coordinates based on the shift amount;
A mesh for drawing the polygon mesh by setting the color acquired from the original image based on the second texture coordinates as the color of each pixel of the polygon mesh associated with the first texture coordinates Drawing process,
Is executed as the predetermined filtering process,
In the predetermined filtering process, the drawing unit
An interpolation coefficient setting process for setting a third texture coordinate corresponding to each vertex of the polygon mesh in a polar coordinate system having the representative point as an origin, and setting an interpolation coefficient based on the third texture coordinate; ,
Texture coordinate interpolation processing for linearly interpolating the first texture coordinates and the second texture coordinates based on the interpolation coefficient to set fourth texture coordinates;
As well as
In the mesh drawing process, the color acquired from the original image based on the fourth texture coordinates is set as the color of each pixel of the polygon mesh associated with the first texture coordinates, A program characterized by drawing a polygon mesh.
請求項において、
前記描画部が、前記補間係数設定処理において、
ランダムに色が配列されたテクセルパターンを有するランダムテクスチャから前記第3のテクスチャ座標に基づいて色を取得し、当該取得された色の輝度値に基づいて前記補間係数を設定することを特徴とするプログラム。
In claim 5 ,
In the interpolation coefficient setting process, the drawing unit
A color is acquired from a random texture having a texel pattern in which colors are randomly arranged based on the third texture coordinates, and the interpolation coefficient is set based on a luminance value of the acquired color. program.
請求項またはにおいて、
前記描画部が、
前記補間係数設定処理において、前記第3のテクスチャ座標に基づいて設定される補間係数に対して、前記第1のテクスチャ座標に対応する前記原画像のピクセルの位置に基づいて補正処理を行い、
前記テクスチャ座標補間処理において、前記補正処理後の補間係数に基づいて、前記第1のテクスチャ座標と前記第2のテクスチャ座標とを線形補間することを特徴とするプログラム。
In claim 5 or 6 ,
The drawing unit
In the interpolation coefficient setting process, a correction process is performed on the interpolation coefficient set based on the third texture coordinate based on the pixel position of the original image corresponding to the first texture coordinate,
In the texture coordinate interpolation processing, the first texture coordinates and the second texture coordinates are linearly interpolated based on the interpolation coefficient after the correction processing.
請求項1〜のいずれかにおいて、
前記描画部が、前記テクスチャ座標設定処理において、
前記仮想カメラの移動速度に基づいて、前記第1のテクスチャ座標のずらし量を設定することを特徴とするプログラム。
In any of the claims 1-7,
The drawing unit, in the texture coordinate setting process,
A program for setting a shift amount of the first texture coordinate based on a moving speed of the virtual camera.
請求項において、
前記描画部が、前記テクスチャ座標設定処理において、
前記仮想カメラの移動速度が大きいほど、前記第1のテクスチャ座標のずらし量を大きく設定することを特徴とするプログラム。
In claim 8 ,
The drawing unit, in the texture coordinate setting process,
A program for setting a shift amount of the first texture coordinate to be larger as the moving speed of the virtual camera is higher.
請求項1〜のいずれかにおいて、
前記描画部が、前記メッシュ生成処理において、
前記ポリゴンメッシュの各頂点を、前記代表点から前記原画像を内包する略円形状の外周に至る放射線上において等間隔に配列することを特徴とするプログラム。
In any of the claims 1-9,
In the mesh generation process, the drawing unit
A program characterized in that the vertices of the polygon mesh are arranged at equal intervals on radiation extending from the representative point to a substantially circular outer periphery containing the original image.
請求項1〜10のいずれかにおいて、
前記描画部が、前記テクスチャ座標設定処理において、
前記代表点から遠い頂点ほど、当該頂点に対応づけられる第1のテクスチャ座標のずらし量を大きく設定することを特徴とするプログラム。
In any one of Claims 1-10 ,
The drawing unit, in the texture coordinate setting process,
The program characterized by setting the shift amount of the first texture coordinate corresponding to the vertex as the vertex farther from the representative point.
請求項1〜11のいずれかにおいて、
前記描画部が、前記テクスチャ座標設定処理において、
前記代表点から頂点に向かう放射線に沿って前記第1のテクスチャ座標をずらすことによって、前記第2のテクスチャ座標を設定することを特徴とするプログラム。
In any one of claims 1 to 11,
The drawing unit, in the texture coordinate setting process,
A program characterized in that the second texture coordinates are set by shifting the first texture coordinates along the radiation from the representative point toward the vertex.
コンピュータに読み取り可能な情報記憶媒体であって、請求項1〜12のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。 An information storage medium readable to a computer, the information storage medium characterized by storing a program according to any one of claims 1 to 12. オブジェクト空間において仮想カメラから見える画像を生成するための画像生成システムであって、
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、
所定の制御情報に基づいて前記仮想カメラの移動制御を行う仮想カメラ制御部と、
前記仮想カメラから見えるオブジェクトをスクリーンに投影して原画像を描画するとともに、当該原画像に対して所定のフィルタ処理を実行する描画部と、
を含み、
前記描画部が、
前記原画像に対応づけられた代表点から放射状に頂点が配列されるポリゴンメッシュを生成するメッシュ生成処理と、
前記ポリゴンメッシュを構成する各頂点に対して、前記原画像をテクスチャとする第1のテクスチャ座標を対応づけるとともに、所定の条件に基づいて、前記第1のテクスチャ座標のずらし量を設定し、当該ずらし量に基づいて、第2のテクスチャ座標を設定するテクスチャ座標設定処理と、
前記第2のテクスチャ座標に基づいて前記原画像から取得される色を、前記第1のテクスチャ座標に対応づけられた前記ポリゴンメッシュの各ピクセルの色として設定して、前記ポリゴンメッシュを描画するメッシュ描画処理と、
を前記所定のフィルタ処理として実行し、
前記描画部が、前記メッシュ生成処理において、
前記スクリーンに対する前記仮想カメラの移動量及び移動方向の少なくとも一方に応じて、前記代表点を設定することを特徴とする画像生成システム。
An image generation system for generating an image visible from a virtual camera in an object space,
An object space setting section for setting an object in the object space;
A virtual camera control unit that performs movement control of the virtual camera based on predetermined control information;
A drawing unit that projects an object visible from the virtual camera onto a screen to draw an original image, and executes a predetermined filter process on the original image;
Including
The drawing unit
A mesh generation process for generating a polygon mesh in which vertices are radially arranged from representative points associated with the original image;
Corresponding to each vertex constituting the polygon mesh is a first texture coordinate having the original image as a texture, and setting a shift amount of the first texture coordinate based on a predetermined condition, A texture coordinate setting process for setting the second texture coordinates based on the shift amount;
A mesh for drawing the polygon mesh by setting the color acquired from the original image based on the second texture coordinates as the color of each pixel of the polygon mesh associated with the first texture coordinates Drawing process,
Is executed as the predetermined filtering process ,
In the mesh generation process, the drawing unit
The image generation system , wherein the representative point is set according to at least one of a movement amount and a movement direction of the virtual camera with respect to the screen .
オブジェクト空間において仮想カメラから見える画像を生成するための画像生成システムであって、An image generation system for generating an image visible from a virtual camera in an object space,
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、An object space setting section for setting an object in the object space;
所定の制御情報に基づいて前記仮想カメラの移動制御を行う仮想カメラ制御部と、A virtual camera control unit that performs movement control of the virtual camera based on predetermined control information;
前記仮想カメラから見えるオブジェクトをスクリーンに投影して原画像を描画するとともに、当該原画像に対して所定のフィルタ処理を実行する描画部と、A drawing unit that projects an object visible from the virtual camera onto a screen to draw an original image, and executes a predetermined filter process on the original image;
を含み、Including
前記描画部が、The drawing unit
前記原画像に対応づけられた代表点から放射状に頂点が配列されるポリゴンメッシュを生成するメッシュ生成処理と、A mesh generation process for generating a polygon mesh in which vertices are radially arranged from representative points associated with the original image;
前記ポリゴンメッシュを構成する各頂点に対して、前記原画像をテクスチャとする第1のテクスチャ座標を対応づけるとともに、所定の条件に基づいて、前記第1のテクスチャ座標のずらし量を設定し、当該ずらし量に基づいて、第2のテクスチャ座標を設定するテクスチャ座標設定処理と、Corresponding to each vertex constituting the polygon mesh is a first texture coordinate having the original image as a texture, and setting a shift amount of the first texture coordinate based on a predetermined condition, A texture coordinate setting process for setting the second texture coordinates based on the shift amount;
前記第2のテクスチャ座標に基づいて前記原画像から取得される色を、前記第1のテクスチャ座標に対応づけられた前記ポリゴンメッシュの各ピクセルの色として設定して、前記ポリゴンメッシュを描画するメッシュ描画処理と、A mesh for drawing the polygon mesh by setting the color acquired from the original image based on the second texture coordinates as the color of each pixel of the polygon mesh associated with the first texture coordinates Drawing process,
を前記所定のフィルタ処理として実行し、Is executed as the predetermined filtering process,
前記描画部が、前記所定のフィルタ処理において、In the predetermined filtering process, the drawing unit
前記代表点を原点とする極座標系にて前記ポリゴンメッシュの各頂点に対応する第3のテクスチャ座標を設定して、当該第3のテクスチャ座標に基づいて、補間係数を設定する補間係数設定処理と、An interpolation coefficient setting process for setting a third texture coordinate corresponding to each vertex of the polygon mesh in a polar coordinate system having the representative point as an origin, and setting an interpolation coefficient based on the third texture coordinate; ,
前記第1のテクスチャ座標と前記第2のテクスチャ座標とを、前記補間係数に基づいて線形補間して第4のテクスチャ座標を設定するテクスチャ座標補間処理と、Texture coordinate interpolation processing for linearly interpolating the first texture coordinates and the second texture coordinates based on the interpolation coefficient to set fourth texture coordinates;
を更に実行するとともに、As well as
前記メッシュ描画処理において、前記第4のテクスチャ座標に基づいて前記原画像から取得される色を、前記第1のテクスチャ座標に対応づけられた前記ポリゴンメッシュの各ピクセルの色として設定して、前記ポリゴンメッシュを描画することを特徴とする画像生成システム。In the mesh drawing process, the color acquired from the original image based on the fourth texture coordinates is set as the color of each pixel of the polygon mesh associated with the first texture coordinates, An image generation system characterized by drawing a polygon mesh.
JP2006256025A 2006-09-21 2006-09-21 Image generation system, program, and information storage medium Active JP4868586B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006256025A JP4868586B2 (en) 2006-09-21 2006-09-21 Image generation system, program, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006256025A JP4868586B2 (en) 2006-09-21 2006-09-21 Image generation system, program, and information storage medium

Publications (2)

Publication Number Publication Date
JP2008077405A JP2008077405A (en) 2008-04-03
JP4868586B2 true JP4868586B2 (en) 2012-02-01

Family

ID=39349390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006256025A Active JP4868586B2 (en) 2006-09-21 2006-09-21 Image generation system, program, and information storage medium

Country Status (1)

Country Link
JP (1) JP4868586B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011015776A (en) * 2009-07-08 2011-01-27 Daito Giken:Kk Game machine
JP5627526B2 (en) * 2011-03-31 2014-11-19 株式会社カプコン GAME PROGRAM AND GAME SYSTEM
US8896593B2 (en) * 2011-06-06 2014-11-25 Monotype Imaging Inc. Producing three-dimensional graphics
CN107526504B (en) * 2017-08-10 2020-03-17 广州酷狗计算机科技有限公司 Image display method and device, terminal and storage medium
JP2020089494A (en) * 2018-12-04 2020-06-11 株式会社ミクシィ Game program, game processing method and game terminal

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863614A (en) * 1994-08-19 1996-03-08 Hudson Soft Co Ltd Texture mapping method
JP3442736B2 (en) * 2000-11-30 2003-09-02 コナミ株式会社 Image processing apparatus, image processing method, and information storage medium
JP3961524B2 (en) * 2004-09-21 2007-08-22 株式会社コナミデジタルエンタテインメント Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2008077405A (en) 2008-04-03

Similar Documents

Publication Publication Date Title
JP2009237680A (en) Program, information storage medium, and image generation system
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP4868586B2 (en) Image generation system, program, and information storage medium
JP4305903B2 (en) Image generation system, program, and information storage medium
JP2006195882A (en) Program, information storage medium and image generation system
JP2007164557A (en) Program, information recording medium and image generation system
JP4749198B2 (en) Program, information storage medium, and image generation system
JP2007164582A (en) Program, information storage medium and image generation system
JP4754384B2 (en) Program, information recording medium, and image generation system
JP4743770B2 (en) Image generation system, program, and information storage medium
JP2006323512A (en) Image generation system, program, and information storage medium
JP2006252426A (en) Program, information storage medium, and image generation system
JP2009169471A (en) Program, information storage medium, and image generation system
JP4488346B2 (en) Program, information storage medium, and image generation system
JP4229317B2 (en) Image generation system, program, and information storage medium
JP4754385B2 (en) Program, information recording medium, and image generation system
JP2007164651A (en) Program, information storage medium and image generation system
JP2006318387A (en) Program, information storage medium, and image forming system
JP2010033253A (en) Program, information storage medium, and image generation system
JP4476040B2 (en) Program, information storage medium, and image generation system
JP2006252423A (en) Program, information storage medium and image generation system
JP4521811B2 (en) Program, information storage medium, and image generation system
JP2008310377A (en) Image generation system, program and information storage medium
JP4693153B2 (en) Image generation system, program, and information storage medium
JP2010033294A (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111114

R150 Certificate of patent or registration of utility model

Ref document number: 4868586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250