JP2007272273A - Image generation system, program, and information storage medium - Google Patents

Image generation system, program, and information storage medium Download PDF

Info

Publication number
JP2007272273A
JP2007272273A JP2006093523A JP2006093523A JP2007272273A JP 2007272273 A JP2007272273 A JP 2007272273A JP 2006093523 A JP2006093523 A JP 2006093523A JP 2006093523 A JP2006093523 A JP 2006093523A JP 2007272273 A JP2007272273 A JP 2007272273A
Authority
JP
Japan
Prior art keywords
texture
blur
virtual camera
information
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006093523A
Other languages
Japanese (ja)
Other versions
JP4743770B2 (en
Inventor
Satoshi Ouchi
聡 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2006093523A priority Critical patent/JP4743770B2/en
Publication of JP2007272273A publication Critical patent/JP2007272273A/en
Application granted granted Critical
Publication of JP4743770B2 publication Critical patent/JP4743770B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image generation system, a program, and an information storage medium for properly achieving image expressions corresponding to speediness while saving the consumption of a memory. <P>SOLUTION: A blur texture is generated by operating blur processing to a texture to be mapped on an object based on blur information. It is necessary to search to which direction and how much quantity the texture should be moved in order to operate the blur processing to the texture to be mapped on the object. Therefore, as the flow of processing for generating a blur texture, the deviation quantity and the deviation direction of the texture to be mapped on the object are set as blur information, and a blur texture is generated by operating the blur processing based on the set blur information. The generated blur texture is mapped on a polygon. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像生成システム、プログラム、及び情報記憶媒体に関する。   The present invention relates to an image generation system, a program, and an information storage medium.

従来より、レースゲームなどの車両オブジェクト(移動体オブジェクトの一例)が配置設定されるオブジェクト空間(仮想的な3次元空間)内において仮想カメラ(所与の視点)から見える画像を生成する画像生成システムが知られており、いわゆる仮想現実を体験できるものとして人気が高い。このようなレースゲームでは、スピード感を増すような画像表現のために、ブラー処理を施す場合がある。   Conventionally, an image generation system that generates an image that can be viewed from a virtual camera (a given viewpoint) in an object space (virtual three-dimensional space) in which a vehicle object (an example of a moving object) such as a race game is placed and set Is known and is popular as a place to experience so-called virtual reality. In such a race game, there is a case where blur processing is performed to express an image that increases the sense of speed.

ブラーとは、1つのフレーム内における、仮想カメラやオブジェクトの動きに対する視覚的効果を表現したものである。ブラーを行う方法として、マルチレンダリング方法、移動軌跡ボリューム法等がある。   Blur represents a visual effect on the movement of a virtual camera or object within one frame. As a method for performing blurring, there are a multi-rendering method, a moving locus volume method, and the like.

マルチレンダリング方法は、1フレーム内における微小時間毎のオブジェクト空間内の状態を示す画像を平均化しながら合成する手法である。   The multi-rendering method is a method of combining images that average the state in the object space for each minute time in one frame.

移動軌跡ボリューム法は、過去のオブジェクトの位置座標と、現在のオブジェクトの位置座標とに基づいて、オブジェクトの移動軌跡のボリュームデータ(移動軌跡ボリューム)を作成し、移動軌跡ボリュームを半透明で描画する手法である。   The moving track volume method creates volume data (moving track volume) of an object's moving track based on the position coordinates of the past object and the current object's position, and renders the moving track volume translucently. It is a technique.

しかしながら、マルチレンダリング方法では、微小時間毎の3D演算が必要になるとともにメモリに微小時間毎のオブジェクト空間内の状態を示す画像を記憶する領域を確保する必要があるため、多くのメモリ領域を浪費することになる。また、移動軌跡ボリューム法では、モデルを引き伸ばして描画しただけなので、不自然な表示になる場合がある。
特許平4−172497号公報 特開平7−93586号公報
However, in the multi-rendering method, a 3D operation is required every minute time, and an area for storing an image indicating the state in the object space every minute time needs to be secured in the memory. Will do. In addition, in the movement trajectory volume method, the model is simply stretched and drawn, which may result in an unnatural display.
Japanese Patent No. 4-172497 Japanese Unexamined Patent Publication No. 7-93586

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、メモリの消費量を節約しつつ、適切にスピード感に応じた画像表現を行うことができる画像生成システム、プログラム、及び情報記憶媒体を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to generate an image that can appropriately express an image according to a sense of speed while saving memory consumption. A system, a program, and an information storage medium are provided.

本発明は、オブジェクト空間における仮想カメラから見た画像を生成するための画像生成システムであって、仮想カメラのオブジェクト空間内における位置、向きを制御する仮想カメラ制御部と、仮想カメラの制御情報に基づいて、ブラー情報を設定するブラー情報設定部と、設定されたブラー情報に基づいて、所与のオブジェクトにマッピングされるテクスチャに対してブラー処理を施したブラーテクスチャを生成するテクスチャ生成部と、オブジェクト空間に設定された前記所与のオブジェクトに対して前記ブラーテクスチャをマッピングしながら描画する描画部とを含み、前記ブラー情報設定部が、前記仮想カメラの移動速度の大きさに応じて求めたテクスチャのずらし量を前記ブラー情報として設定し、前記テクスチャ生成部が、設定されたずらし量に基づいて前記テクスチャに対して前記ブラー処理を行うことを特徴とする画像生成システムに関する。   The present invention is an image generation system for generating an image viewed from a virtual camera in an object space, and includes a virtual camera control unit that controls the position and orientation of the virtual camera in the object space, and control information of the virtual camera. A blur information setting unit configured to set blur information, a texture generation unit configured to generate a blur texture obtained by performing blur processing on a texture mapped to a given object based on the set blur information; A drawing unit that draws while mapping the blur texture to the given object set in the object space, and the blur information setting unit obtains according to the moving speed of the virtual camera A texture shift amount is set as the blur information, and the texture generation unit An image generation system and performing the blurring process on the texture on the basis of the shift amount that is.

また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶した情報記憶媒体に関係する。   The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to an information storage medium that can be read by a computer and stores a program that causes the computer to function as each of the above-described units.

本発明によれば、オブジェクトにマッピングされるテクスチャに対してブラー処理を施したブラーテクスチャを動的に生成している。そのため、従来の手法のようにブラー処理を行うために過去にレンダリングされた複数の画像をメモリに記憶しておく必要がなくなる。したがって、メモリの消費量を軽減することが可能である。   According to the present invention, a blur texture obtained by performing blur processing on a texture mapped to an object is dynamically generated. Therefore, it is not necessary to store a plurality of images rendered in the past in the memory in order to perform blur processing as in the conventional method. Therefore, it is possible to reduce memory consumption.

さらに、仮想カメラの移動速度の大きさに応じて、テクスチャのずらし量を設定し、設定されたずらし量に基づいてブラー処理を行っている。そのため、仮想カメラが移動する場合は、仮想カメラの移動の状況に応じたスピード感を表現することが可能となる。   Furthermore, a texture shift amount is set according to the moving speed of the virtual camera, and blur processing is performed based on the set shift amount. Therefore, when the virtual camera moves, it is possible to express a sense of speed according to the movement status of the virtual camera.

また本発明の画像生成システム、プログラム及び情報記憶媒体では、前記ブラー情報設定部が、前記仮想カメラの移動方向に応じて求めたテクスチャのずらし方向を前記ブラー情報として設定し、前記テクスチャ生成部が、設定されたずらし方向と、前記仮想カメラの移動速度の大きさに応じて設定されたずらし量とに基づいて前記テクスチャに対して前記ブラー処理を行ってもよい。   In the image generation system, the program, and the information storage medium of the present invention, the blur information setting unit sets the texture shift direction obtained according to the moving direction of the virtual camera as the blur information, and the texture generation unit The blur processing may be performed on the texture based on the set shift direction and the shift amount set in accordance with the moving speed of the virtual camera.

このようにすれば、仮想カメラの移動方向に合わせて、適切な方向にテクスチャをずらしてブラー処理が施されるため、オブジェクト空間内における仮想カメラの移動方向の自由度が高い場合でも適切にスピード感を表現することが可能である。   In this way, the blurring process is performed by shifting the texture in the appropriate direction according to the moving direction of the virtual camera, so even if the degree of freedom of the moving direction of the virtual camera in the object space is high, the speed is appropriately adjusted. It is possible to express a feeling.

また本発明の画像生成システム、プログラム及び情報記憶媒体では、オブジェクト空間内を移動する移動体オブジェクトの移動経路に沿ってコースオブジェクトが配置されている場合に、前記ブラー情報設定部が、前記コースオブジェクトを構成する面に対する前記仮想カメラの相対的な移動方向に応じてブラー情報としてテクスチャのずらし方向を設定
してもよい。
In the image generation system, the program, and the information storage medium of the present invention, when the course object is arranged along the moving path of the moving object that moves in the object space, the blur information setting unit includes the course object. A texture shift direction may be set as blur information in accordance with the relative movement direction of the virtual camera with respect to the plane constituting the image.

このようにすれば、コースオブジェクトを構成する面に対する仮想カメラの相対的な移動方向に応じてテクスチャのずらし方向を設定するため、オブジェクト空間内において仮想カメラが自由に移動しても、コースオブジェクトを構成する面に属する方向成分に対して適切なブラー処理を施すことができる。したがって、仮想カメラが進行方向に進んでいるか否か、コースの変化、コースオブジェクトの状態等に応じてスピード感の違いを表現できる。   In this way, since the texture shift direction is set according to the relative movement direction of the virtual camera with respect to the surfaces constituting the course object, the course object can be moved even if the virtual camera moves freely in the object space. Appropriate blur processing can be applied to the direction component belonging to the surface to be constructed. Therefore, it is possible to express the difference in the feeling of speed according to whether the virtual camera is moving in the traveling direction, the course change, the state of the course object, and the like.

また本発明の画像生成システム、プログラム及び情報記憶媒体では、オブジェクト空間内を移動する移動体オブジェクトの移動経路に沿ってコースオブジェクトが配置されている場合に、前記ブラー情報設定部が、前記コースオブジェクトを構成する面に対する前記仮想カメラの相対的な移動速度の大きさに前記テクスチャのずらし量を設定してもよい。   In the image generation system, the program, and the information storage medium of the present invention, when the course object is arranged along the moving path of the moving object that moves in the object space, the blur information setting unit includes the course object. The amount of the texture shift may be set to the magnitude of the relative movement speed of the virtual camera with respect to the plane constituting the image.

このようにすれば、コースオブジェクトを構成する面に対する前記仮想カメラの相対的な移動速度の大きさに応じてテクスチャのずらし量を設定するため、仮想カメラ自体の移動速度のみに着目してブラーを処理を施すよりも、コースオブジェクトの面に対して自然なブラー処理が施され、より正確にスピード感を表現できる。   In this way, since the amount of texture shift is set according to the relative moving speed of the virtual camera with respect to the surface constituting the course object, the blur is focused on only the moving speed of the virtual camera itself. Compared to processing, natural blur processing is applied to the surface of the course object, and a sense of speed can be expressed more accurately.

また本発明の画像生成システム、プログラム及び情報記憶媒体では、前記ブラー情報設定部が、前記仮想カメラの制御情報から得られる移動速度ベクトルと、オブジェクト空間の座標系に関連付けて設定されたテクスチャの基準方向とに基づいて、前記仮想カメラの移動速度ベクトルの基準方向成分を求め、求められた基準方向成分に基づいて、前記基準方向に対する前記テクスチャのずらし量を設定してもよい。   In the image generation system, the program, and the information storage medium of the present invention, the blur information setting unit includes a moving speed vector obtained from the control information of the virtual camera and a texture reference set in association with the coordinate system of the object space. A reference direction component of the moving speed vector of the virtual camera may be obtained based on the direction, and the texture shift amount with respect to the reference direction may be set based on the obtained reference direction component.

このようにすれば、オブジェクト空間内において存在するオブジェクトにマッピングされるテクスチャ各々に基準方向に対するずらし量を設定できる。そのため、マッピングされるテクスチャ各々にテクスチャの向きに応じたブラー処理を施すこともできるため、より現実に近い正確なスピード感を表現することが可能となる。   In this way, a shift amount with respect to the reference direction can be set for each texture mapped to an object existing in the object space. For this reason, each texture to be mapped can be subjected to blur processing according to the direction of the texture, so that it is possible to express an accurate sense of speed closer to reality.

また本発明は、オブジェクト空間における仮想カメラから見た画像を生成するための画像生成システムであって、仮想カメラのオブジェクト空間内における位置、向きを制御する仮想カメラ制御部と、オブジェクト空間内で移動体オブジェクトを移動させる演算を行う移動体演算部と、仮想カメラの制御情報と前記移動体オブジェクトの移動情報とに基づいてブラー情報を設定するブラー情報設定部と、設定されたブラー情報に基づいて前記移動体オブジェクトにマッピングされるテクスチャに対してブラー処理を施したブラーテクスチャを生成するテクスチャ生成部と、オブジェクト空間に設定された前記移動体オブジェクトに対して前記ブラーテクスチャをマッピングしながら描画する描画部とを含み、前記ブラー情報設定部が、前記仮想カメラに対する前記移動体オブジェクトの相対移動速度の大きさに応じて求めたテクスチャのずらし量を前記ブラー情報として設定し、前記テクスチャ生成部が、設定されたずらし量に基づいて前記テクスチャに対して前記ブラー処理を行うことを特徴とする画像生成システムに関する。   The present invention also provides an image generation system for generating an image viewed from a virtual camera in an object space, the virtual camera control unit for controlling the position and orientation of the virtual camera in the object space, and the movement in the object space Based on the set blur information, a moving body calculation unit that performs a calculation for moving the body object, a blur information setting unit that sets blur information based on the control information of the virtual camera and the movement information of the moving object, and the set blur information A texture generation unit that generates a blur texture obtained by performing blur processing on the texture mapped to the moving object, and a drawing that draws while mapping the blur texture to the moving object set in the object space The blur information setting unit A texture shift amount determined according to the relative moving speed of the moving object relative to the camera is set as the blur information, and the texture generation unit performs the texture shift on the texture based on the set shift amount. The present invention relates to an image generation system characterized by performing blur processing.

また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶した情報記憶媒体に関係する。   The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to an information storage medium that can be read by a computer and stores a program that causes the computer to function as each of the above-described units.

本発明によれば、仮想カメラが移動していない場合であってもブラー処理を施すことができるため、移動体オブジェクトのスピード感を、適切に表現することが可能である。   According to the present invention, since blur processing can be performed even when the virtual camera is not moving, it is possible to appropriately express the sense of speed of the moving object.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game system) of the present embodiment. Note that the image generation system of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤがプレーヤオブジェクト(移動体オブジェクトの一例、プレーヤが操作するプレーヤ車両)の操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。   The operation unit 160 is for a player to input operation data of a player object (an example of a moving object, a player vehicle operated by the player), and functions thereof are a lever, a button, a steering, a microphone, and a touch panel display. Alternatively, it can be realized by a housing or the like. The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

携帯型情報記憶装置194は、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。通信部196は外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device. The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or communication ASICs, programs, and the like. It can be realized by.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of this embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (storage unit 170) via the network and communication unit 196. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は記憶部170内の主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, as the game process, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result are calculated. There is a process or a process of ending a game when a game end condition is satisfied. The processing unit 100 performs various processes using the main storage unit 172 in the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部114、描画部120、音生成部130を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 114, a drawing unit 120, and a sound generation unit 130. Note that some of these may be omitted.

オブジェクト空間設定部110は、キャラクタ、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。特に、本実施形態では、記憶部170のオブジェクトデータ記憶部176にブラー処理を施すための対象となるオブジェクト(コースオブジェクト、背景オブジェクト)や、オブジェクト空間内で移動体オブジェクト(プレーヤ車両オブジェクト、敵車両オブジェクト)のオブジェクトデータが記憶されており、これらのオブジェクトをオブジェクト空間に配置する処理を行う。   The object space setting unit 110 is an object composed of various objects (polygons, free-form surfaces, subdivision surfaces, etc.) representing display objects such as characters, buildings, stadiums, cars, trees, pillars, walls, and maps (terrain). ) Is set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. In particular, in this embodiment, an object (course object, background object) to be subjected to blur processing on the object data storage unit 176 of the storage unit 170, or a moving object (player vehicle object, enemy vehicle) in the object space. Object data) is stored, and processing for arranging these objects in the object space is performed.

移動・動作処理部112は、オブジェクト(キャラクタ、車、電車又は飛行機等)の移動・動作演算(移動・動作シミュレーション)を行う。すなわち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、オブジェクトをオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。特に本実施形態では、移動体演算部112aでオブジェクト空間内で移動体オブジェクト(プレーヤ車両オブジェクト、敵車両オブジェクト)を移動させるシミュレーション演算を行う。   The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of an object (character, car, train, airplane, etc.). That is, based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), or the like, the object is moved in the object space, or the object is moved (motion, animation). ) Process. Specifically, object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part that constitutes the object) are sequentially transmitted every frame (1/60 seconds). Perform the required simulation process. A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing. In particular, in the present embodiment, the moving object calculation unit 112a performs a simulation calculation for moving a moving object (player vehicle object, enemy vehicle object) in the object space.

仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   The virtual camera control unit 114 performs a virtual camera (viewpoint) control process for generating an image viewed from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.

例えば仮想カメラによりオブジェクト(例えばキャラクタ、ボール、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   For example, when an object (eg, character, ball, car) is photographed from behind using a virtual camera, the position or rotation angle of the virtual camera (the direction of the virtual camera is set so that the virtual camera follows changes in the position or rotation of the object. ) To control. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、あるいは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. When generating a so-called three-dimensional game image, first, object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object (model) ) Is input, and vertex processing (shading by a vertex shader) is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary. In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate conversion (world coordinate conversion, camera coordinate conversion), clipping processing, perspective processing, and other geometric processing are performed. On the basis of the processing result, the vertex data given to the vertex group constituting the object is changed (updated or adjusted). Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed. In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to the drawing buffer 174 (a buffer capable of storing image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. As a result, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.

なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   The vertex processing and pixel processing are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.

そして描画部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、オブジェクトデータ記憶部176に保存される。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the object data storage unit 176. Is done.

テクスチャマッピングは、記憶部170のテクスチャ記憶部178に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部178からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the texture storage unit 178 of the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit 178 of the storage unit 170 using the texture coordinates set (given) at the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ179(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファ179に格納されるZ値を参照する。そして参照されたZバッファ179のZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファ179のZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing by a Z buffer method (depth comparison method, Z test) using a Z buffer 179 (depth buffer) in which a Z value (depth information) of a drawing pixel is stored may be performed. it can. That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer 179 is referred to. Then, the Z value of the referenced Z buffer 179 is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is the front side when viewed from the virtual camera (for example, a small Z value). If it is, the drawing process of the drawing pixel is performed and the Z value of the Z buffer 179 is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value).

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

さらに本実施形態では描画部120が、ブラー情報設定部122と、テクスチャ生成部124とを含む。   Further, in the present embodiment, the drawing unit 120 includes a blur information setting unit 122 and a texture generation unit 124.

テクスチャ記憶部178は、情報記憶媒体180から、オブジェクトにマッピングされるテクスチャを記憶する。   The texture storage unit 178 stores the texture mapped to the object from the information storage medium 180.

ブラー情報設定部122は、仮想カメラの移動速度の大きさに応じてテクスチャのずらし量を設定し、仮想カメラの移動方向に応じてテクスチャのずらし方向を設定する。具体的には、ブラー処理を施すためのブラー情報(ずらしベクトル(ΔU,ΔV))を設定する。   The blur information setting unit 122 sets the texture shift amount according to the magnitude of the moving speed of the virtual camera, and sets the texture shift direction according to the moving direction of the virtual camera. Specifically, blur information (shift vector (ΔU, ΔV)) for performing blur processing is set.

テクスチャ生成部124は、ブラー情報設定部122で設定されたブラー情報に基づいて、オブジェクトにマッピングされるテクスチャに対してブラー処理を施したブラーテクスチャを生成する処理を行う。具体的には、ブラー情報に基づいて、テクスチャをずらしながら半透明合成を行うことによりブラーテクスチャを生成する。テクスチャ生成部124において生成されたブラーテクスチャは、テクスチャ記憶部178に記憶される。なお、既に生成されたブラーテクスチャの記憶領域に、新たに生成されるブラーテクスチャを更新記憶してもよい。また、既に生成されたブラーテクスチャの記憶領域を開放してもよい。   Based on the blur information set by the blur information setting unit 122, the texture generation unit 124 performs a process of generating a blur texture obtained by performing a blur process on the texture mapped to the object. Specifically, based on the blur information, a blur texture is generated by performing translucent synthesis while shifting the texture. The blur texture generated by the texture generation unit 124 is stored in the texture storage unit 178. The newly generated blur texture may be updated and stored in the storage area of the already generated blur texture. Further, the storage area of the already generated blur texture may be released.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
2.1 テクスチャ生成手法についての説明
本実施形態では、ブラー情報に基づいて、オブジェクトにマッピングされるテクスチャに対してブラー処理を施したブラーテクスチャを生成する手法を採用している。
2. 2. Method of this embodiment 2.1 Description of texture generation method In this embodiment, a method of generating a blur texture obtained by performing blur processing on a texture mapped to an object based on blur information is adopted. .

オブジェクトにマッピングされるテクスチャにブラー処理を施すためには、テクスチャをどの方向に、どのくらいの量で移動させるのかを求める必要がある。なぜなら、仮想カメラの動きに対するスピード感をリアルに表現するためには、仮想カメラの移動の様子(移動方向や移動量)を適切に表現する必要があるからである。   In order to blur the texture mapped to the object, it is necessary to determine in which direction and how much the texture is moved. This is because in order to realistically express the sense of speed with respect to the movement of the virtual camera, it is necessary to appropriately represent the state of movement of the virtual camera (movement direction and amount of movement).

したがって、本実施の形態では、ブラーテクスチャを生成する処理の流れとして、まず、オブジェクトにマッピングされるテクスチャのずらし量、ずらし方向をブラー情報として設定し、設定されたブラー情報に基づいてブラー処理を施したブラーテクスチャを生成する。   Therefore, in this embodiment, as a flow of processing for generating a blur texture, first, a shift amount and a shift direction of a texture mapped to an object are set as blur information, and blur processing is performed based on the set blur information. Generates a blurred texture.

なお、ブラー情報は、オブジェクトにマッピングされるテクスチャのずらし量、ずらし方向を示す情報であるため、ベクトルで表現できる。そこで、本実施形態では、ブラー情報をずらしベクトル(ΔU,ΔV)として設定する。つまり、ずらしベクトル(ΔU,ΔV)とは、その大きさ(長さ)によってテクスチャのずらし量を示し、その向きによってテクスチャのずらし方向を示すベクトルである。   Note that the blur information is information indicating the shift amount and shift direction of the texture mapped to the object, and can therefore be expressed as a vector. Therefore, in this embodiment, blur information is set as a shift vector (ΔU, ΔV). That is, the shift vector (ΔU, ΔV) is a vector that indicates a texture shift amount by its size (length) and indicates a texture shift direction by its direction.

図2(A)に、オブジェクトにマッピングされるテクスチャの一例と、そのテクスチャに対してブラー処理を施したブラーテクスチャの一例とを示す。また、図2(B)に、生成されたブラーテクスチャが頂点VX1〜VX4によって構成されるポリゴンにマッピングされる例を示す。   FIG. 2A shows an example of a texture mapped to an object and an example of a blur texture obtained by performing blur processing on the texture. FIG. 2B shows an example in which the generated blur texture is mapped to a polygon composed of vertices VX1 to VX4.

本実施の形態において、ブラーテクスチャは、ブラー情報に基づいて動的に生成される。そのため、従来の手法のようにブラー処理を行うために過去にレンダリングされた複数の画像をメモリに記憶する必要はない。また、ブラーテクスチャを生成すれば、そのブラーテクスチャがマッピングされるオブジェクトが複数ある場合には、ブラーテクスチャを何度も利用することができる。そのため、オブジェクトごとにブラーテクスチャをメモリに記憶する必要はなくなるため、メモリの消費量を軽減することができる。   In the present embodiment, the blur texture is dynamically generated based on the blur information. Therefore, it is not necessary to store a plurality of images rendered in the past in the memory in order to perform blur processing as in the conventional method. Further, if a blur texture is generated, the blur texture can be used many times when there are a plurality of objects to which the blur texture is mapped. Therefore, it is not necessary to store the blur texture in the memory for each object, so that the memory consumption can be reduced.

次に、具体的に、ブラー処理を施しながらブラーテクスチャを生成する手法について説明する。本実施例においてブラー処理とは、上述したずらしベクトル(ΔU,ΔV)を用いて、テクスチャをずらしながら半透明合成処理を行う処理のことである。   Next, a method for generating a blur texture while performing blur processing will be specifically described. In this embodiment, the blur process is a process of performing the translucent synthesis process while shifting the texture using the above-described shift vector (ΔU, ΔV).

次に、半透明合成の合成枚数を決定する手法を説明する。合成枚数は、多ければ多いほど、表示される画像が滑らかに綺麗に見える。しかし、合成枚数が多くなると、描画するための描画処理負荷が高くなる恐れがある。したがって、表示される画像が滑らかに綺麗に見え、かつ、描画処理負荷の少ないバランスのとれた合成枚数を決定する。   Next, a method for determining the composite number of translucent composites will be described. The greater the number of composites, the smoother and clearer the displayed image will be. However, if the number of combined images increases, the drawing processing load for drawing may increase. Therefore, the number of combined images is determined so that the displayed image looks smooth and beautiful and the drawing processing load is small.

この場合において、ブラー処理が施された画像を滑らかに綺麗に見せるための最低限の枚数を所定の合成枚数として決定する手法や、システムの描画処理負荷のしきい値を設定し、しきい値を判断基準として合成枚数を決定する手法がある。   In this case, a method for determining the minimum number of images to make the image subjected to blur processing smooth and beautiful as a predetermined composite number, and setting a threshold value for the drawing processing load of the system is set. There is a method of determining the number of composites based on the above.

例えば、ずらしベクトル(ΔU,ΔV)のU成分及びV成分の少なくとも一方が、0.5ピクセル以内の場合には3枚とし、0.1ピクセル超えるごとに1枚増加するという方法で合成枚数を決定する。   For example, when at least one of the U component and V component of the shift vector (ΔU, ΔV) is within 0.5 pixels, the number of synthesized images is increased by 3 and is increased by 1 every 0.1 pixels. decide.

次に、合成枚数分の各々のテクスチャのずらし量を決める。   Next, the shift amount of each texture corresponding to the number of synthesized sheets is determined.

本実施例では、合成枚数の各枚数毎のテクスチャを均等にずらしている。例えば、合成枚数がN枚(1<N)の場合において、まず、テクスチャの左上のテクセルは、UV座標の原点(0,0)となるように、ワークバッファにおける描画位置が決定される。そして、ずらしベクトル(ΔU,ΔV)の大きさを(合成枚数−1)で均等に割った値ごとにテクスチャをずらし、合成率に応じて補間しながらレンダリングする。また、合成枚数それぞれのテクスチャのずらしベクトルの向きは、ずらしベクトル(ΔU,ΔV)の向きと同じである。それぞれのずらし方向が同じ方向であれば、綺麗な画像を表示できる。   In this embodiment, the textures for each composite number are shifted equally. For example, when the composite number is N (1 <N), the drawing position in the work buffer is first determined so that the upper left texel of the texture is the origin (0, 0) of the UV coordinate. Then, the texture is shifted for each value obtained by equally dividing the size of the shift vector (ΔU, ΔV) by (the number of composites−1), and rendering is performed while interpolating according to the composite rate. In addition, the direction of the texture shift vector for each composite number is the same as the direction of the shift vector (ΔU, ΔV). If the shift directions are the same, a beautiful image can be displayed.

本実施例について、図3を用いて、合成枚数を決定し、合成枚数ごとのテクスチャのずらし手法について説明する。   With reference to FIG. 3, the present embodiment will be described with reference to FIG. 3 for determining the number of composites and shifting the texture for each composite number.

本実施例での合成枚数は、ずらしベクトル(ΔU,ΔV)のU成分及びV成分の少なくとも一方が、0.5ピクセル以内の場合は、合成枚数を3枚とし、0.1ピクセル増加するごとに、合成枚数を1枚ずつ増加するように設定する。   In this embodiment, the number of combined images is set to 3 when at least one of the U component and V component of the shift vector (ΔU, ΔV) is within 0.5 pixels, and every 0.1 pixels increase. In addition, the composite number is set to increase by one.

図3では、テクスチャ座標系(UV座標系)において、テクスチャのずらしベクトル(ΔU,ΔV)=(0.4,0.2)である場合の例である。ここで合成枚数を検討すると、ΔU、ΔVいずれも0.5ピクセル以下の値であるため、合成枚数は3枚と決定される。   FIG. 3 shows an example of a texture shift vector (ΔU, ΔV) = (0.4, 0.2) in the texture coordinate system (UV coordinate system). Considering the composite number here, since ΔU and ΔV are values of 0.5 pixels or less, the composite number is determined to be three.

まず、左上のテクセルは、UV座標の原点(0,0)となるように、ワークバッファにおける描画位置が決定される。   First, the drawing position in the work buffer is determined so that the upper left texel is at the origin (0, 0) of the UV coordinates.

次に、テクスチャを、ずらしベクトル(ΔU1,ΔV1)=(0.2,0.1)に応じたピクセル量だけずらして、テクスチャを合成率(α値)に応じて補間しながらレンダリングする。そして、テクスチャを、ずらしベクトル(ΔU2,ΔV2)=(0.4,0.2)に応じたピクセル量だけずらして、テクスチャを合成率(α値)に応じて補間しながらレンダリングする。このように、本実施例では、均等にずらしながら、ブラーテクスチャを生成する。   Next, the texture is shifted by a pixel amount corresponding to the shift vector (ΔU1, ΔV1) = (0.2, 0.1), and the texture is rendered while interpolating according to the synthesis rate (α value). Then, the texture is shifted by a pixel amount corresponding to the shift vector (ΔU2, ΔV2) = (0.4, 0.2), and the texture is rendered while being interpolated according to the synthesis rate (α value). Thus, in the present embodiment, the blur texture is generated while being shifted evenly.

ところで、半透明合成の手法としては、ピクセルシェーダーにより合成枚数に応じて均等割された合成率でテクセル色を一度に求める手法(第1の手法)と、元テクスチャ(オブジェクトに対応付けられたテクスチャ)を何度も合成率(α値)に応じて補間しながらレンダリングして、画像を生成するαブレンディングを利用した手法(第2の手法)がある。   By the way, as a semi-transparent composition method, a method (first method) for obtaining a texel color at a time with a composition rate equally divided according to the number of composites by a pixel shader (first method) and an original texture (texture associated with an object) ) Is rendered while interpolating in accordance with the synthesis rate (α value) many times, and there is a method (second method) using α blending that generates an image.

第1の手法について、具体的な手順を、図4(A)を用いて説明する。本実施例では、元になる元テクスチャ1と、元テクスチャ1に対してずらしベクトル(ΔU1,ΔV1)だけずらした元テクスチャ2と、元テクスチャ1に対してずらしベクトル(ΔU2,ΔV2)だけずらした元テクスチャ3について、合成枚数3の逆数である1/3の重み(合成率)でテクスチャ画像を合成する手法を採用している。   A specific procedure of the first method will be described with reference to FIG. In this embodiment, the original original texture 1, the original texture 2 shifted by the shift vector (ΔU1, ΔV1) with respect to the original texture 1, and the shift by the shift vector (ΔU2, ΔV2) with respect to the original texture 1 For the original texture 3, a technique of synthesizing a texture image with a weight (combination rate) of 1/3 that is the reciprocal of the composite number 3 is adopted.

つまり、合成枚数がNの場合は、ずらしベクトル(ΔU(N−1),ΔV(N−1))にしたがってテクスチャの描画位置をずらしつつ、1/Nの重み(合成率)で補間しながらレンダリングする。N枚目に合成するテクセル色をCNとする。合成枚数がNの場合において、テクセル色F(N)は、下式(A)によって求めることができる。
F(N)=1/N×(C1+C2+C3+・・・+CN)・・・(A)
次に、第2の手法について、具体的な手順を、図4(B)を用いて説明する。まず、最初に、元になるテクスチャ1を合成率(α値)に応じて補間しながらレンダリングする。そして、元テクスチャ1に対してずらしベクトル(ΔU1、ΔV1)だけずらした元テクスチャ2を合成率(α値)に応じて補間しながらレンダリングする。このとき、レンダリングした2枚のテクスチャの画像を平均する。つまり、それぞれのテクスチャ画像は1/2の重み(合成率)で合成する。その後にさらに、元テクスチャ1に対してずらしベクトル(ΔU2、ΔV2)だけずらした元テクスチャ3をレンダリングする。ブラーテクスチャ1の画像と元テクスチャ3の画像を2/3対1/3の重み(合成率)で合成する。
In other words, when the number of combined images is N, the texture drawing position is shifted according to the shift vector (ΔU (N−1), ΔV (N−1)), and interpolation is performed with a weight of 1 / N (composition rate). Render. The texel color synthesized on the Nth sheet is CN. When the number of combined images is N, the texel color F (N) can be obtained by the following equation (A).
F (N) = 1 / N × (C1 + C2 + C3 +... + CN) (A)
Next, a specific procedure of the second method will be described with reference to FIG. First, the original texture 1 is rendered while interpolating according to the synthesis rate (α value). Then, the original texture 2 shifted by the shift vector (ΔU1, ΔV1) with respect to the original texture 1 is rendered while being interpolated according to the synthesis rate (α value). At this time, the two texture images rendered are averaged. That is, each texture image is synthesized with a weight of 1/2 (combination rate). Thereafter, the original texture 3 shifted by the shift vector (ΔU2, ΔV2) with respect to the original texture 1 is rendered. The image of the blur texture 1 and the image of the original texture 3 are combined with a weight (combination rate) of 2/3 to 1/3.

つまり、合成枚数がNの場合は、ずらしベクトル(ΔU(N−1)、ΔV(N−1))に応じたピクセル量だけずらしながら、前の合成画像に新しい画像を合成率(α値)に応じて補間しながらレンダリングする。N枚目に合成するテクセル色をCNとする。合成枚数がNの場合において、テクセル色F(N)は、下式(B)によって求めることができる。
F(N)=((N−1)/N)×F(N−1)+1/N×CN・・・(B)
In other words, when the number of combined images is N, a new image is combined with the previous combined image (α value) while shifting by the pixel amount according to the shift vector (ΔU (N−1), ΔV (N−1)). Rendering while interpolating according to. The texel color synthesized on the Nth sheet is CN. When the number of combined images is N, the texel color F (N) can be obtained by the following equation (B).
F (N) = ((N−1) / N) × F (N−1) + 1 / N × CN (B)

2.2 ブラー情報の設定手法についての説明
上述したように、ブラー情報は、オブジェクトにマッピングされるテクスチャのずらしベクトル(ΔU,ΔV)である。以下、ブラー情報であるずらしベクトル(ΔU,ΔV)の設定手法について説明する。
2.2 Description of Blur Information Setting Method As described above, blur information is a texture shift vector (ΔU, ΔV) mapped to an object. Hereinafter, a method for setting a shift vector (ΔU, ΔV) that is blur information will be described.

本実施形態では、ずらしベクトル(ΔU,ΔV)を仮想カメラの移動速度の大きさに応じて求める。仮想カメラの移動速度の大きさに応じたスピード感のある画像を表現することができるからである。   In the present embodiment, the shift vector (ΔU, ΔV) is obtained according to the magnitude of the moving speed of the virtual camera. This is because an image with a sense of speed corresponding to the magnitude of the moving speed of the virtual camera can be expressed.

例えば、仮想カメラが停止している場合は、仮想カメラの移動速度が零なので、ずらしベクトル(ΔU,ΔV)の大きさも零と設定される。したがって、仮想カメラが停止している場合にはブラー処理が施されないようにすることができる。また、ブラーテクスチャを動的に生成しているため、予め仮想カメラの移動速度に応じたブラーテクスチャを記憶するための記憶領域を確保する必要もなくなりメモリの消費量を軽減できる。   For example, when the virtual camera is stopped, since the moving speed of the virtual camera is zero, the magnitude of the shift vector (ΔU, ΔV) is also set to zero. Therefore, it is possible to prevent the blur process from being performed when the virtual camera is stopped. Further, since the blur texture is dynamically generated, it is not necessary to secure a storage area for storing the blur texture corresponding to the moving speed of the virtual camera in advance, and the memory consumption can be reduced.

図5(A)は、仮想カメラCの移動速度の大きさ(微小時間毎の移動量)を示している。図5(B)は、仮想カメラCの移動速度の大きさが、テクスチャのずらし量L(ずらしベクトル(ΔU,ΔV)の大きさ)に対応していることを示している。そして、ずらしベクトル(ΔU,ΔV)に基づいて、図5(B)右図のようなブラーテクスチャが生成される。   FIG. 5A shows the magnitude of the moving speed of the virtual camera C (the amount of movement per minute time). FIG. 5B shows that the moving speed of the virtual camera C corresponds to the texture shift amount L (the size of the shift vector (ΔU, ΔV)). Then, based on the shift vector (ΔU, ΔV), a blur texture as shown in the right diagram of FIG. 5B is generated.

つまり、仮想カメラCの移動速度の大きさと、テクスチャのずらし量Lは相互に関係している。仮想カメラCの移動速度の変化と、テクスチャのずらし量Lの変化とを対応させて、仮想カメラのスピード感の相違を表現している。   That is, the magnitude of the moving speed of the virtual camera C and the texture shift amount L are related to each other. The change in the moving speed of the virtual camera C is associated with the change in the texture shift amount L to express the difference in the feeling of speed of the virtual camera.

次に、仮想カメラCの移動方向に基づいて、ずらしベクトル(ΔU,ΔV)の向きを求める手法を説明する。ずらしベクトル(ΔU,ΔV)の向きが正確でなければ、仮想カメラの移動方向が無視された不自然な画像表示になるおそれがあるからである。   Next, a method for obtaining the direction of the shift vector (ΔU, ΔV) based on the moving direction of the virtual camera C will be described. This is because if the direction of the shift vector (ΔU, ΔV) is not accurate, an unnatural image may be displayed in which the moving direction of the virtual camera is ignored.

図6は、仮想カメラCの移動方向に応じて、テクスチャのずらしベクトル(ΔU,ΔV)の向きを決定する例である。そして、ずらしベクトル(ΔU,ΔV)に基づいて図6右図のようなブラーテクスチャが生成される。   FIG. 6 is an example in which the direction of the texture shift vector (ΔU, ΔV) is determined according to the moving direction of the virtual camera C. Then, based on the shift vector (ΔU, ΔV), a blur texture as shown in the right diagram of FIG. 6 is generated.

つまり、仮想カメラの移動方向と、テクスチャのずらしベクトル(ΔU,ΔV)の向きは相互に関係している。仮想カメラCの移動方向の変化と、テクスチャのずらしベクトル(ΔU,ΔV)の変化とを対応させ、仮想カメラの移動方向の正確さを表現している。   That is, the moving direction of the virtual camera and the direction of the texture shift vector (ΔU, ΔV) are related to each other. The change in the moving direction of the virtual camera C is associated with the change in the texture shift vector (ΔU, ΔV) to express the accuracy of the moving direction of the virtual camera.

次に、コースオブジェクトが配置されている場合のずらしベクトル(ΔU,ΔV)の求め方について説明する。   Next, how to obtain the shift vector (ΔU, ΔV) when the course object is arranged will be described.

例えば、オブジェクト空間内において仮想カメラがコース上を移動している場合には、仮想カメラが移動するスピード感を適切に表現することが望まれる。このような場合には、ずらしベクトル(ΔU,ΔV)に基づいてブラーテクスチャを生成し、生成されたブラーテクスチャをコースオブジェクトにマッピングすることでスピード感を表現することができる。   For example, when the virtual camera is moving on the course in the object space, it is desirable to appropriately express the sense of speed at which the virtual camera moves. In such a case, it is possible to express a sense of speed by generating a blur texture based on the shift vector (ΔU, ΔV) and mapping the generated blur texture to the course object.

本実施例では、コースオブジェクトを構成する面に対する仮想カメラの相対的な移動方向に応じてずらしベクトル(ΔU,ΔV)を求める。つまり、基準方向ベクトル(コースオブジェクトにマッピングされるテクスチャの向き)を考慮してブラーテクスチャを生成する。なぜなら、基準方向ベクトルを考慮せずにブラー処理を施すと、仮想カメラの移動方向とブラー処理が施される方向とが合わなくなるからである。   In the present embodiment, a shift vector (ΔU, ΔV) is obtained in accordance with the relative movement direction of the virtual camera with respect to the plane constituting the course object. That is, the blur texture is generated in consideration of the reference direction vector (the direction of the texture mapped to the course object). This is because if the blur process is performed without considering the reference direction vector, the moving direction of the virtual camera and the direction in which the blur process is performed do not match.

なお、コースオブジェクトを構成する面にマッピングされる複数のテクスチャが、すべて同一のテクスチャであり、かつ、基準方向ベクトルが同じ場合には、1つのブラーテクスチャを生成するだけでよい。ブラーテクスチャを何度も利用しメモリの消費量を抑えることができるからである。   In addition, when the plurality of textures mapped to the surfaces constituting the course object are all the same texture and the reference direction vectors are the same, it is only necessary to generate one blur texture. This is because blur texture can be used many times to reduce memory consumption.

また、ブラーテクスチャをコースオブジェクトの進行方向手前から進行方向に向かってマッピングする。ブラーテクスチャが、プレーヤに注目されやすいオブジェクトからマッピングされるため、仮に描画処理負担が重くなったとしてもプレーヤに違和感を感じさせないようにすることができるからである。   Also, the blur texture is mapped from the front of the course object toward the direction of travel. This is because the blur texture is mapped from an object that is easily noticed by the player, so that even if the drawing processing burden becomes heavy, it is possible to prevent the player from feeling uncomfortable.

図7、8は、コースオブジェクトを構成する面にマッピングされるテクスチャに対して、ずらしベクトル(ΔU,ΔV)を求め、ブラーテクスチャを生成する例である。   7 and 8 are examples of generating a blur texture by obtaining a shift vector (ΔU, ΔV) for a texture mapped to a surface constituting a course object.

図7(A)に示すように、P1,P2,P3・・・,PNは、コースオブジェクトを構成する面(ポリゴンまたはプリミティブ)である。そして、図7(B)に示すように、それぞれの面は、基準方向ベクトルVec1,Vec2,・・・・,VecNに関連付けられている。基準方向ベクトルは、オブジェクト座標系に関連付けて設定されたコースオブジェクトにマッピングされるテクスチャの向きである。また、基準方向ベクトルVec1は、テクスチャ座標系に変換したときに、適切にブラー処理が施されるように設定する。例えば、基準方向ベクトルVec1は、単位ベクトル(X1,Y1,Z1)=(0,0,1)として設定することができる。   As shown in FIG. 7A, P1, P2, P3,..., PN are surfaces (polygons or primitives) constituting the course object. As shown in FIG. 7B, each surface is associated with a reference direction vector Vec1, Vec2,..., VecN. The reference direction vector is the texture direction mapped to the course object set in association with the object coordinate system. Further, the reference direction vector Vec1 is set so that the blur process is appropriately performed when converted into the texture coordinate system. For example, the reference direction vector Vec1 can be set as unit vector (X1, Y1, Z1) = (0, 0, 1).

図8(A)は、面P1は基準方向ベクトルVec1と関連付けられている例を示している。   FIG. 8A shows an example in which the plane P1 is associated with the reference direction vector Vec1.

図8(B)は、オブジェクト空間内において仮想カメラがz軸方向に移動する場合を示している。仮想カメラCの移動速度ベクトルCVecと基準方向ベクトルVec1とに基づいて、ずらしベクトル(ΔU,ΔV)を求め、図8(B)の右図のようなブラーテクスチャを生成する。   FIG. 8B shows a case where the virtual camera moves in the z-axis direction in the object space. Based on the moving speed vector CVec and the reference direction vector Vec1 of the virtual camera C, a shift vector (ΔU, ΔV) is obtained, and a blur texture as shown on the right side of FIG. 8B is generated.

また、図8(C)は、オブジェクト空間内において仮想カメラがx軸方向に移動する場合を示している。仮想カメラCの移動速度ベクトルCVecと基準方向ベクトルVec1とに基づいて、ずらしベクトル(ΔU,ΔV)を求め、図8(C)の右図のようなブラーテクスチャを生成する。   FIG. 8C shows a case where the virtual camera moves in the x-axis direction in the object space. Based on the moving speed vector CVec and the reference direction vector Vec1 of the virtual camera C, a shift vector (ΔU, ΔV) is obtained, and a blur texture as shown on the right side of FIG. 8C is generated.

このように、基準方向ベクトルを考慮して、ブラー処理を施すことで、ブラーテクスチャがオブジェクトにマッピングされたときに、自然で、かつ、仮想カメラのスピード感が表現された画像を生成することができる。   In this way, by performing blur processing in consideration of the reference direction vector, it is possible to generate a natural and virtual camera speed image when blur texture is mapped to an object. it can.

次に、コースオブジェクトを構成する面に対する仮想カメラの相対的な移動速度の大きさに応じてテクスチャのずらしベクトル(ΔU,ΔV)を求める手法を、図9を用いて説明する。   Next, a method for obtaining the texture shift vector (ΔU, ΔV) in accordance with the relative moving speed of the virtual camera with respect to the surface constituting the course object will be described with reference to FIG.

図9(A)に示すように、仮想カメラが、コースオブジェクトを構成する面から低い位置で移動する。そして、図9(A)の仮想カメラC1は、コースオブジェクトを構成する面P1に対して平行に移動している。一方、仮想カメラC2も仮想カメラC1と同じ移動速度と移動方向で移動しているが、コースオブジェクトを構成する面P2に対しては平行ではない。   As shown in FIG. 9A, the virtual camera moves at a low position from the surface constituting the course object. The virtual camera C1 in FIG. 9A moves in parallel to the plane P1 that constitutes the course object. On the other hand, the virtual camera C2 is also moving at the same moving speed and moving direction as the virtual camera C1, but is not parallel to the plane P2 constituting the course object.

このような場合に、仮想カメラC1と仮想カメラC2のスピード感の違いを適切に表現するため、面P1と面P2を構成するオブジェクトにマッピングされるテクスチャのずらしベクトル(ΔU,ΔV)を適切に求める。具体的には、コースオブジェクトを構成する面に対して、相対的に、テクスチャのずらしベクトル(ΔU,ΔV)を求める。   In such a case, in order to appropriately express the difference in speed between the virtual camera C1 and the virtual camera C2, the texture shift vectors (ΔU, ΔV) mapped to the objects constituting the plane P1 and the plane P2 are appropriately set. Ask. Specifically, a texture shift vector (ΔU, ΔV) is obtained relative to the surfaces constituting the course object.

図9(A)の面P1の基準方向ベクトルは、(PVec1,QVec1)であり、面P2の基準方向ベクトル(コースオブジェクトにマッピングされるテクスチャの向き)は、(PVec2,QVec2)である。基準方向ベクトルは、オブジェクト空間内の座標系に関連付けられている。また、仮想カメラC1の移動速度ベクトルをCVec1とし、仮想カメラC2の移動速度ベクトルをCVec2である。   The reference direction vector of the surface P1 in FIG. 9A is (PVec1, QVec1), and the reference direction vector of the surface P2 (the texture direction mapped to the course object) is (PVec2, QVec2). The reference direction vector is associated with a coordinate system in the object space. Further, the moving speed vector of the virtual camera C1 is CVec1, and the moving speed vector of the virtual camera C2 is CVec2.

面P1にマッピングされるテクスチャのずらしベクトル(ΔU,ΔV)は、仮想カメラC1の移動速度ベクトルCVec1を、面P1に投影された大きさL1のベクトルSVec1である。   The texture shift vector (ΔU, ΔV) mapped to the plane P1 is a vector SVec1 of the magnitude L1 projected on the plane P1 from the moving speed vector CVec1 of the virtual camera C1.

面P2にマッピングされるテクスチャのずらしベクトル(ΔU,ΔV)は、仮想カメラC2の移動速度ベクトルCVec2を、面P2に投影された大きさL2のベクトルSVec2である。   The texture shift vector (ΔU, ΔV) mapped to the plane P2 is a vector SVec2 having a magnitude L2 projected onto the plane P2 from the moving speed vector CVec2 of the virtual camera C2.

このようにすればオブジェクト空間内において、コースオブジェクトに近い距離で仮想カメラがさまざまな角度で移動している場合であっても、仮想カメラのスピード感を適切に表現できる。   In this way, even when the virtual camera is moving at various angles within a distance close to the course object in the object space, it is possible to appropriately express the sense of speed of the virtual camera.

なお、図9(C)に示すように、各コースオブジェクトを構成する面は、オブジェクト空間内の座標系に関連づけられた基準方向ベクトルを対応づけることができる。このようにすれば、コースオブジェクトを構成する面の基準方向ベクトルの情報取得が容易となる。   Note that, as shown in FIG. 9C, the surfaces constituting each course object can be associated with a reference direction vector associated with a coordinate system in the object space. In this way, it is easy to obtain information on the reference direction vector of the surface constituting the course object.

次に、オブジェクト空間に存在するオブジェクト(例えば、壁や木)にマッピングされるテクスチャのずらしベクトル(ΔU,ΔV)を求める手法を説明する。仮想カメラがオブジェクト空間内を自由に移動するスピード感を表現することができるからである。   Next, a method for obtaining a texture shift vector (ΔU, ΔV) mapped to an object (for example, a wall or a tree) existing in the object space will be described. This is because the virtual camera can express a sense of speed as it moves freely in the object space.

本実施例では、仮想カメラの移動速度ベクトルと、オブジェクト(例えば、壁や木)にマッピングされるテクスチャの基準方向ベクトルとに基づいて、ずらしベクトル(ΔU,ΔV)を求める。   In this embodiment, the shift vector (ΔU, ΔV) is obtained based on the moving speed vector of the virtual camera and the reference direction vector of the texture mapped to the object (for example, wall or tree).

図10(A)に示すようにP1,P2,...,PNは、オブジェクト空間内のそれぞれのオブジェクトを構成する面(ポリゴン、プリミティブ)である。また、図10(B)に示すように、面P1,P2,...,PNは、オブジェクト空間の座標系に関連付けて設定されたテクスチャの基準方向ベクトル(PVec1,QVec1),(PVec2,QVec2),・・・,(PVecN,QVecN)と関連付けられている。このようにすれば、オブジェクトを構成する面に対する基準方向ベクトルを容易に求めることができる。   As shown in FIG. 10A, P1, P2,. . . , PN are surfaces (polygons, primitives) constituting each object in the object space. Further, as shown in FIG. 10B, the surfaces P1, P2,. . . , PN are associated with texture reference direction vectors (PVec1, QVec1), (PVec2, QVec2),..., (PVecN, QVecN) set in association with the coordinate system of the object space. In this way, the reference direction vector for the surfaces constituting the object can be easily obtained.

そして、図11(A)に示すように、仮想カメラCが、オブジェクト空間内を移動速度ベクトルCVecで移動する場合には、面P1にマッピングされるテクスチャのずらしベクトル(ΔU,ΔV)は以下のように求めることができる。   As shown in FIG. 11A, when the virtual camera C moves in the object space with the moving velocity vector CVec, the texture shift vector (ΔU, ΔV) mapped to the plane P1 is as follows. Can be asking.

まず、基準方向ベクトル(PVec1,QVec1)と、移動速度ベクトルCVecとをUV座標系(テクスチャ座標系)で算出する。そして、移動速度ベクトルCVecをテクスチャTEX1に投影する。投影ベクトルSVecの基準方向ベクトル(PVec1,QVec1)のPVec1成分、QVec1成分を求める。そして、求められた基準方向成分(ΔU,ΔV)が、テクスチャずらしベクトル(ΔU,ΔV)に相当する。   First, a reference direction vector (PVec1, QVec1) and a moving speed vector CVec are calculated using a UV coordinate system (texture coordinate system). Then, the moving speed vector CVec is projected onto the texture TEX1. The PVec1 component and the QVec1 component of the reference direction vector (PVec1, QVec1) of the projection vector SVec are obtained. The obtained reference direction components (ΔU, ΔV) correspond to texture shift vectors (ΔU, ΔV).

このようにすれば、オブジェクト空間内において存在するオブジェクト(壁、木など)に対して、仮想カメラが自由に移動した場合にも、適切にブラー処理を施すことが可能である。   In this way, it is possible to appropriately perform blur processing on an object (wall, tree, etc.) existing in the object space even when the virtual camera moves freely.

ところで、仮想カメラが停止し、敵車オブジェクト(移動体オブジェクトの一例)が、移動している場合、また、敵車オブジェクトが仮想カメラの移動速度よりも高速で移動している場合は、敵車オブジェクトのスピード感を適切に表現することが望ましい。   By the way, if the virtual camera is stopped and the enemy vehicle object (an example of a moving object) is moving, or if the enemy vehicle object is moving faster than the moving speed of the virtual camera, the enemy vehicle It is desirable to appropriately express the sense of speed of the object.

本実施形態では、敵車オブジェクトにマッピングされるテクスチャに対してブラー処理を施して、敵車オブジェクトのスピード感を表現する。   In the present embodiment, blur processing is performed on the texture mapped to the enemy vehicle object to express the sense of speed of the enemy vehicle object.

図12(A)に示すように、仮想カメラCが停止し、移動体オブジェクトOBが高速で移動している場合は、移動体オブジェクトOBの移動速度ベクトルOBVecに基づいて、移動体オブジェクトOBにマッピングされるテクスチャのずらしベクトル(ΔU,ΔV)を求める。   As shown in FIG. 12A, when the virtual camera C is stopped and the moving object OB is moving at a high speed, it is mapped to the moving object OB based on the moving speed vector OBVec of the moving object OB. The texture shift vector (ΔU, ΔV) is obtained.

図12(B)に示すように、移動体オブジェクトOBが仮想カメラCよりも、高速で移動している場合は、移動体オブジェクトOBの移動速度ベクトルOBVecと、仮想カメラの移動速度ベクトルCVecとに基づいて移動体オブジェクトOBにマッピングされるテクスチャのずらしベクトル(ΔU,ΔV)を求める。移動体オブジェクトOBの移動速度ベクトルOBVecと、仮想カメラの移動速度ベクトルCVecの向きが同じ場合は、その差分を求めて、ずらしベクトル(ΔU,ΔV)の大きさを求めることができる。   As shown in FIG. 12B, when the moving object OB is moving at a higher speed than the virtual camera C, the moving speed vector OBVec of the moving object OB and the moving speed vector CVec of the virtual camera are set. Based on this, a texture shift vector (ΔU, ΔV) mapped to the moving object OB is obtained. If the direction of the moving speed vector OBVec of the moving object OB is the same as the direction of the moving speed vector CVec of the virtual camera, the magnitude of the shift vector (ΔU, ΔV) can be obtained by obtaining the difference between them.

例えば、図12(C)は、オブジェクト空間内において、仮想カメラCが停止し、移動体オブジェクトOBがx軸方向へ移動している場合を示している。仮想カメラは停止しているため、仮想カメラに対する移動体オブジェクトOBの相対移動速度の大きさは、移動体オブジェクトOBの移動速度である。そのため、移動体オブジェクトOBの移動速度の大きさに応じて、ずらしベクトル(ΔU,ΔV)の大きさを求める。また、移動体オブジェクトの移動方向に応じて、ずらしベクトル(ΔU,ΔV)の向きを求める。   For example, FIG. 12C shows a case where the virtual camera C is stopped and the moving object OB is moving in the x-axis direction in the object space. Since the virtual camera is stopped, the magnitude of the relative moving speed of the moving object OB relative to the virtual camera is the moving speed of the moving object OB. Therefore, the magnitude of the shift vector (ΔU, ΔV) is obtained according to the magnitude of the moving speed of the moving object OB. Further, the direction of the shift vector (ΔU, ΔV) is obtained according to the moving direction of the moving object.

以上のように求められたずらしベクトル(ΔU,ΔV)に基づいて、ブラーテクスチャが生成される。生成されたブラーテクスチャを移動体オブジェクトOBにマッピングすれば、移動体オブジェクトが、高速に移動している様子を表現することができる。   Based on the displacement vector (ΔU, ΔV) obtained as described above, a blur texture is generated. If the generated blur texture is mapped to the moving object OB, it is possible to express how the moving object is moving at high speed.

ところで、オブジェクト空間には、回転している様子を表現したいオブジェクトが存在する場合がある。例えば、オブジェクト空間内において存在する円盤オブジェクトや観覧車オブジェクト等がある。これらのオブジェクトに対しても、ブラー処理を施し、仮想カメラのスピード感を適切に表現することが望ましい。   By the way, in the object space, there is a case where there is an object for which a state of rotation is to be expressed. For example, there are a disk object and a ferris wheel object that exist in the object space. It is desirable to perform blur processing on these objects to appropriately express the sense of speed of the virtual camera.

本実施形態では、オブジェクトが回転しているかのように見せるために、オブジェクトにマッピングされるテクスチャのUV座標値を時間の経過に伴って変更する手法を採用する。   In this embodiment, in order to make it appear as if the object is rotating, a method of changing the UV coordinate value of the texture mapped to the object with the passage of time is adopted.

図13(A)〜(C)の右図に示すように、三角形のポリゴンからなるオブジェクトがある。オブジェクトは、「A」という模様が付されている。オブジェクトが、反時計回りに回転しているかのように見せるためには、以下のような処理を行う。   As shown in the right diagrams of FIGS. 13A to 13C, there is an object composed of triangular polygons. The object is given a pattern “A”. In order to make an object appear to rotate counterclockwise, the following processing is performed.

まず、図13(A)に示すように、ポリゴンP1〜P8の各頂点のテクスチャ座標を決定する。ポリゴンP1の頂点VX0のテクスチャ座標は(U0,V0)、頂点VX1のテクスチャ座標は(U1,V1)、頂点VX2のテクスチャ座標は(U2,V2)である。同様に、ポリゴンP2〜P8の各頂点のテクスチャ座標も、「A」という模様が付されるように、テクスチャ座標を設定する。そして、テクスチャマッピングを行うと、オブジェクトには、「A」という模様が付されるようになる。   First, as shown in FIG. 13A, the texture coordinates of each vertex of the polygons P1 to P8 are determined. The texture coordinates of the vertex VX0 of the polygon P1 are (U0, V0), the texture coordinates of the vertex VX1 are (U1, V1), and the texture coordinates of the vertex VX2 are (U2, V2). Similarly, the texture coordinates of the vertices of the polygons P2 to P8 are set so that the pattern “A” is added. When texture mapping is performed, a pattern “A” is added to the object.

そして、一定時間経過後(例えば、1秒後)、ポリゴンP1〜P8の各頂点のテクスチャ座標を変更する。図13(B)は、ポリゴンP1の頂点VX0のテクスチャ座標は(U0,V0)のままであるが、頂点VX1のテクスチャ座標は(U2,V2)、頂点VX2のテクスチャ座標は(U3,V3)である。そして、ポリゴンP2〜P8にマッピングするテクスチャの各頂点も、「A」という模様が付されるようにテクスチャ座標を設定する。そして、テクスチャマッピングを行うと、オブジェクトには、「A」という模様が付されるようになる。そして、図13(A)の状態から、オブジェクトが反時計回りに回転しているかのように見える画像を生成することができる。   Then, after a lapse of a certain time (for example, after 1 second), the texture coordinates of each vertex of the polygons P1 to P8 are changed. In FIG. 13B, the texture coordinates of the vertex VX0 of the polygon P1 remain (U0, V0), but the texture coordinates of the vertex VX1 are (U2, V2), and the texture coordinates of the vertex VX2 are (U3, V3). It is. Then, the texture coordinates are set so that each texture vertex mapped to the polygons P2 to P8 is also given the pattern “A”. When texture mapping is performed, a pattern “A” is added to the object. Then, an image that looks as if the object is rotating counterclockwise can be generated from the state of FIG.

図13(C)に示すように、図13(B)から、さらに一定時間経過後(例えば、1秒後)、ポリゴンが反時計回りに回転するようにポリゴンP1〜P8にマッピングするテクスチャの各頂点のテクスチャ座標を変更する。つまり、ポリゴンP1にマッピングするテクスチャの頂点VX0のテクスチャ座標は(U0,V0)、頂点VX1のテクスチャ座標は(U3,V3)、頂点VX2のテクスチャ座標は(U4,V4)である。   As shown in FIG. 13C, from FIG. 13B, each of the textures mapped to the polygons P1 to P8 so that the polygons rotate counterclockwise after a certain period of time has elapsed (for example, after 1 second). Change the vertex texture coordinates. That is, the texture coordinates of the vertex VX0 of the texture mapped to the polygon P1 are (U0, V0), the texture coordinates of the vertex VX1 are (U3, V3), and the texture coordinates of the vertex VX2 are (U4, V4).

つまり、ポリゴンP1〜P8にマッピングするテクスチャの各頂点のテクスチャ座標は、時間経過に伴って、頂点(U0,V0)を原点とした円周上のテクスチャ座標を時計回りに変更している。   That is, the texture coordinates of each vertex of the texture to be mapped to the polygons P1 to P8 are changed clockwise with the passage of time, the texture coordinates on the circumference with the vertex (U0, V0) as the origin.

このようにすることで、時間経過に伴って、オブジェクトは、反時計回りに回転しているかのように見える画像を生成することができる。   By doing so, it is possible to generate an image that looks as if the object is rotating counterclockwise as time passes.

次に、これらのオブジェクトが回転しているかのように見え、かつ、仮想カメラのスピード感を表現する手法について図14を用いて説明する。   Next, a method for expressing these objects as if they are rotating and expressing the sense of speed of the virtual camera will be described with reference to FIG.

まず、オブジェクト空間の仮想カメラCの移動速度ベクトルCVec、テクスチャの基準方向ベクトルVecをUV座標系(テクスチャ座標系)に変換する。そして、基準方向ベクトルVecと仮想カメラの移動速度ベクトルCVecに基づいて、ずらしベクトル(ΔU,ΔV)を求める。   First, the moving speed vector CVec and the texture reference direction vector Vec of the virtual camera C in the object space are converted into a UV coordinate system (texture coordinate system). Then, a shift vector (ΔU, ΔV) is obtained based on the reference direction vector Vec and the moving speed vector CVec of the virtual camera.

図14(A)、(B)、(C)の左図は、ずらしベクトル(ΔU,ΔV)に基づいて、ブラー処理を施したブラーテクスチャを示している。そして右図は、左図のブラーテクスチャがマッピングされたオブジェクトを示している。   The left diagrams of FIGS. 14A, 14B, and 14C show blur textures that have been subjected to blur processing based on shift vectors (ΔU, ΔV). The right figure shows an object to which the blur texture of the left figure is mapped.

以下、ブラーテクスチャをマッピングする手法を説明する。例えば、オブジェクトを構成するポリゴンP1のテクスチャマッピングは、以下のようにして行う。   Hereinafter, a method for mapping the blur texture will be described. For example, texture mapping of the polygon P1 constituting the object is performed as follows.

図14(A)の基準方向ベクトルVecは、テクセル(U0,V0)を始点とし、テクセル(U1,V1)を終点としている。そして、図13(A)で説明したように、ポリゴンP1の各頂点VX0、VX1、VX2それぞれにテクスチャ座標(U0,V0)、(U1,V1)、(U2,V2)の領域をマッピングする。   The reference direction vector Vec in FIG. 14A has a texel (U0, V0) as a start point and a texel (U1, V1) as an end point. Then, as described with reference to FIG. 13A, the texture coordinate (U0, V0), (U1, V1), and (U2, V2) regions are mapped to the respective vertices VX0, VX1, and VX2 of the polygon P1.

図14(B)は、図14(A)から、一定時間経過後(例えば、1秒後)、テクスチャの基準方向ベクトルVecが変更された場合の例である。この場合、基準方向ベクトルは、テクセル(U0,V0)を始点とし、テクセル(U2,V2)を終点としている。そして、図13(B)で説明したように、ポリゴンP1の各頂点VX0、VX1、VX2それぞれにテクスチャ座標(U0,V0)、(U2,V2)、(U3,V3)の領域をマッピングする。   FIG. 14B shows an example in which the texture reference direction vector Vec is changed after a predetermined time has elapsed (for example, after 1 second) from FIG. 14A. In this case, the reference direction vector has a texel (U0, V0) as a start point and a texel (U2, V2) as an end point. Then, as described with reference to FIG. 13B, the texture coordinate (U0, V0), (U2, V2), and (U3, V3) regions are mapped to the respective vertices VX0, VX1, and VX2 of the polygon P1.

図14(C)は、図14(B)から、さらに一定時間経過後(例えば、一秒後)、テクスチャの基準方向ベクトルVecが変更された場合の例である。この場合、基準方向ベクトルは、テクセル(U0,V0)を始点とし、テクセル(U3,V3)を終点としている。そして、図13(C)で説明したように、ポリゴンP1の各頂点VX0、VX1、VX2それぞれにテクスチャ座標(U0,V0)、(U3,V3)、(U4,V4)の領域をマッピングする。   FIG. 14C illustrates an example in which the texture reference direction vector Vec is changed after a predetermined time has elapsed (for example, after one second) from FIG. 14B. In this case, the reference direction vector has a texel (U0, V0) as a start point and a texel (U3, V3) as an end point. Then, as described with reference to FIG. 13C, the texture coordinates (U0, V0), (U3, V3), and (U4, V4) are mapped to the vertices VX0, VX1, and VX2 of the polygon P1, respectively.

このようにすることで、オブジェクトが反時計回りに回転しているかのように見せつつ、仮想カメラの移動速度ベクトルCVecに応じて、適切にブラー処理を施すことができ、仮想カメラのスピード感を適切に表現することができる。   By doing so, it is possible to perform blur processing appropriately according to the moving speed vector CVec of the virtual camera while making it appear as if the object is rotating counterclockwise, and the speed feeling of the virtual camera can be increased. Can be expressed appropriately.

なお、基準方向ベクトルVecの変化と、ポリゴンの各頂点のテクスチャ座標の変更は、同期するようにしなければならない。つまり、基準方向ベクトルVecが、時計回りに一周する周期と、ポリゴンP1〜P8にマッピングするテクスチャの各頂点のテクスチャ座標が1周する周期は同じでなければならない。仮想カメラの移動方向とブラー処理が施される方向とが合わなくなるからである。   It should be noted that the change of the reference direction vector Vec and the change of the texture coordinates of each vertex of the polygon must be synchronized. That is, the period in which the reference direction vector Vec makes one round clockwise must be the same as the period in which the texture coordinates of each vertex of the texture mapped to the polygons P1 to P8 make one round. This is because the moving direction of the virtual camera does not match the direction in which the blur process is performed.

例えば、基準方向ベクトルVecの終点が、図(A)の(U1,V1)から図(B)の(U2,V2)に変更するタイミングと、ポリゴンP1のVX1のテクスチャ座標を(U1,V1)から(U2,V2)に変更するタイミングは同じである。   For example, the end point of the reference direction vector Vec changes from (U1, V1) in FIG. (A) to (U2, V2) in FIG. (B), and the texture coordinates of VX1 of the polygon P1 are (U1, V1). The timing for changing from to (U2, V2) is the same.

次に本画像生成システム(ゲームシステム)を、複数のプレーヤがプレイする場合について説明する。   Next, a case where a plurality of players play this image generation system (game system) will be described.

オブジェクト空間における仮想カメラから見た画像をプレーヤ毎に生成する場合は、プレーヤ毎にオブジェクトにマッピングされるブラーテクスチャを生成する。仮想カメラの移動速度はプレーヤ毎に異なるため、プレーヤが操作する仮想カメラのスピード感を適切に表現すべきだからである。   When an image viewed from the virtual camera in the object space is generated for each player, a blur texture mapped to the object is generated for each player. This is because the moving speed of the virtual camera varies from player to player, so that the feeling of speed of the virtual camera operated by the player should be appropriately expressed.

したがって、図15(A)に示すように、オブジェクトにマッピングされるテクスチャは、1P用(プレーヤ1用)のブラーテクスチャ1、2P用(プレーヤ2用)のブラーテクスチャ2が生成され、それぞれが、画面R1(1P用の画面)、画面R2(2P用の画面)に表示するオブジェクトにマッピングされる。   Therefore, as shown in FIG. 15A, 1P (for player 1) blur texture 1 and 2P (for player 2) blur texture 2 are generated as textures mapped to the objects. It is mapped to an object to be displayed on screen R1 (screen for 1P) and screen R2 (screen for 2P).

このようにすれば、図15(B)に示すように、各プレーヤごとに、仮想カメラのスピード感を表現することが可能となる。   In this way, it is possible to express the sense of speed of the virtual camera for each player as shown in FIG.

3.本実施形態の処理
次に、本実施形態の詳細な処理例について図16のフローチャートを用いて説明する。
3. Processing of the present embodiment Next, a detailed processing example of the present embodiment will be described with reference to the flowchart of FIG.

まずオブジェクト空間内における仮想カメラの移動速度ベクトルを求める(ステップS10)。これにより仮想カメラの移動速度の大きさと、移動方向が決定される。   First, a moving speed vector of the virtual camera in the object space is obtained (step S10). Thereby, the magnitude of the moving speed of the virtual camera and the moving direction are determined.

次に、テクスチャの基準方向ベクトルを取得する(ステップS11)。これによりオブジェクトにマッピングされるテクスチャの向きが決定される。   Next, a texture reference direction vector is acquired (step S11). This determines the orientation of the texture mapped to the object.

次に、仮想カメラの移動速度ベクトルとテクスチャの基準方向ベクトルとに基づいて、テクスチャのずらしベクトル(ΔU,ΔV)を求める(ステップS12)。ずらしベクトル(ΔU,ΔV)は、テクスチャのずらし量、ずらし方向である。ずらし量は、仮想カメラの移動速度の大きさに応じて求める。ずらし方向は、仮想カメラの移動方向に応じて求める。   Next, a texture shift vector (ΔU, ΔV) is obtained based on the moving speed vector of the virtual camera and the reference direction vector of the texture (step S12). The shift vector (ΔU, ΔV) is a texture shift amount and a shift direction. The shift amount is obtained according to the moving speed of the virtual camera. The shifting direction is obtained according to the moving direction of the virtual camera.

続いて、ずらしベクトルΔUの大きさ、ΔVの大きさに応じて半透明合成の合成枚数を決める(ステップS13)。   Subsequently, the number of semi-transparent composites is determined according to the magnitude of the shift vector ΔU and the magnitude of ΔV (step S13).

次に、合成枚数毎のテクスチャのずらしベクトルと合成率(α値)とを求める。(ステップS14)
そして、半透明合成を行い、ブラーテクスチャを生成する(ステップS15)。合成枚数毎のテクスチャのずらしベクトルとの合成率(α値)に基づいて、半透明合成を行う。なお、ブラーテクスチャはテクスチャ記憶部に生成される。
Next, a texture shift vector and a composition rate (α value) are obtained for each composite number. (Step S14)
Then, semi-transparent synthesis is performed to generate a blur texture (step S15). Translucent composition is performed based on the composition ratio (α value) with the texture shift vector for each composition number. Note that the blur texture is generated in the texture storage unit.

最終的には、オブジェクトにブラーテクスチャをマッピングしながら描画する(ステップS16)。   Finally, drawing is performed while mapping the blur texture onto the object (step S16).

4.ハードウェア構成
図17に本実施形態を実現できるハードウェア構成の例を示す。メインプロセッサ900は、DVD982(情報記憶媒体。CDでもよい。)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
4). Hardware Configuration FIG. 17 shows an example of a hardware configuration capable of realizing this embodiment. The main processor 900 operates based on a program stored in a DVD 982 (information storage medium, which may be a CD), a program downloaded via the communication interface 990, a program stored in the ROM 950, or the like. Perform processing, sound processing, etc. The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is required for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.

ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。   The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and executes matrix calculation at high speed. The data decompression processor 906 performs decoding processing of compressed image data and sound data, and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエイリアシング、シェーディング処理なども行う。頂点シェーダやピクセルシェーダなどのプログラマブルシェーダが実装されている場合には、シェーダプログラムに従って、頂点データの作成・変更(更新)やピクセル(あるいはフラグメント)の描画色の決定を行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。   The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture. The drawing processor 910 also performs α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When a programmable shader such as a vertex shader or a pixel shader is installed, the vertex data is created / changed (updated) and the drawing color of a pixel (or fragment) is determined according to the shader program. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.

ROM950にはシステムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。DVDドライブ980(CDドライブでもよい。)は、プログラム、画像データ、或いは音データなどが格納されるDVD982(CDでもよい。)にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950. The RAM 960 is a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The DVD drive 980 (may be a CD drive) accesses a DVD 982 (may be a CD) in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).

なお本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   The processing of each unit (each unit) in this embodiment may be realized entirely by hardware, or may be realized by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be realized by both hardware and a program.

そして本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。   When the processing of each part of this embodiment is realized by both hardware and a program, a program for causing the hardware (computer) to function as each part of this embodiment is stored in the information storage medium. More specifically, the program instructs the processors 902, 904, 906, 910, and 930, which are hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930 realizes the processing of each unit of the present invention based on the instruction and the passed data.

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。また接触痕跡の表現手法も、本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。   The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings. Further, the method of expressing the contact trace is not limited to that described in the present embodiment, and a method equivalent to these is also included in the scope of the present invention.

また上記実施形態では、コースオブジェクトが固定オブジェクトであるが、川やベルトコンベアーのようにコースオブジェクトにマッピングするテクスチャが動いている様子を表現する場合は、テクスチャの移動速度と仮想カメラの相対速度を求めて、ずらしベクトル(ΔU,ΔV)を設定し、ブラーテクスチャを生成してもよい。   In the above embodiment, the course object is a fixed object. However, when expressing a texture moving to the course object such as a river or a belt conveyor, the movement speed of the texture and the relative speed of the virtual camera are set. Then, the shift vector (ΔU, ΔV) may be set to generate a blur texture.

また、例えば、仮想カメラが、立体交差のコースの上を移動する場合や、レースゲームのコース全体が見える位置から移動する場合には、オブジェクトにマッピングされるテクスチャにブラー処理を施すと不自然な画像が生成されるおそれがある。このような場合は、ブラー処理を禁止してもよい。   In addition, for example, when the virtual camera moves on the course of a solid intersection or moves from a position where the entire course of the racing game can be seen, it is unnatural if blurring is applied to the texture mapped to the object. An image may be generated. In such a case, blur processing may be prohibited.

なお、半透明合成を行う場合は、上述した方法とは、別の方法で行ってもよい。   In addition, when performing semi-transparent composition, you may perform by the method different from the method mentioned above.

また本発明は種々のゲーム(レーシングゲーム、格闘ゲーム、シューティングゲーム、ロボット対戦ゲーム、スポーツゲーム、競争ゲーム、ロールプレイングゲーム、音楽演奏ゲーム、ダンスゲーム等)に適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   The present invention can be applied to various games (racing game, fighting game, shooting game, robot battle game, sports game, competition game, role playing game, music playing game, dance game, etc.). The present invention is also applicable to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating game images, and a mobile phone. it can.

本実施形態の画像生成システムの機能ブロック図の例。The example of a functional block diagram of the image generation system of this embodiment. 図2(A)(B)はテクスチャ生成手法の説明図。2A and 2B are explanatory diagrams of a texture generation method. 図3(A)(B)は半透明合成の合成枚数の決定手法の説明図。FIGS. 3A and 3B are explanatory diagrams of a method for determining the number of composites for translucent composition. 図4(A)(B)は半透明合成の手法の説明図。4 (A) and 4 (B) are explanatory diagrams of a semi-transparent composition method. 図5(A)(B)はブラー情報の設定手法の説明図。5A and 5B are explanatory diagrams of a blur information setting method. ブラー情報の設定手法の説明図。Explanatory drawing of the setting method of blur information. 図7(A)(B)はブラー情報の設定手法の説明図。7A and 7B are explanatory diagrams of a blur information setting method. 図8(A)(B)(C)はブラー情報の設定手法の説明図。8A, 8B, and 8C are explanatory diagrams of a blur information setting method. 図9(A)(B)(C)はブラー情報の設定手法の説明図。9A, 9B, and 9C are explanatory diagrams of a blur information setting method. 図10(A)(B)はブラー情報の設定手法の説明図。10A and 10B are explanatory diagrams of a blur information setting method. 図11(A)(B)はブラー情報の設定手法の説明図。11A and 11B are explanatory diagrams of a blur information setting method. 図12(A)(B)(C)はブラー情報の設定手法の説明図。12A, 12B, and 12C are explanatory diagrams of a blur information setting method. 図13(A)(B)(C)はブラー情報の設定手法の説明図。13A, 13B, and 13C are explanatory diagrams of a blur information setting method. 図14(A)(B)(C)はブラー情報の設定手法の説明図。14A, 14B, and 14C are explanatory diagrams of a blur information setting method. 図15(A)(B)はプレーヤ毎にブラーテクスチャを生成する手法の説明図。15A and 15B are explanatory diagrams of a method for generating a blur texture for each player. 本実施形態の処理のフローチャート。The flowchart of the process of this embodiment. ハードウェア構成例。Hardware configuration example.

符号の説明Explanation of symbols

C 仮想カメラ
OB 移動体オブジェクト
100 処理部、110 オブジェクト空間設定部、112 移動・動作処理部、
112a 移動体演算部、114 仮想カメラ制御部、120 描画部、
122 ブラー情報設定部、124 テクスチャ生成部
130 音生成部、160 操作部、170 記憶部、172 主記憶部、
174 描画バッファ、176 オブジェクトデータ記憶部、
178 テクスチャ記憶部、179 zバッファ、180 情報記憶媒体、
190 表示部、192 音出力部、194 携帯型情報記憶装置、196 通信部、
C virtual camera OB moving object 100 processing unit, 110 object space setting unit, 112 movement / motion processing unit,
112a mobile object calculation unit, 114 virtual camera control unit, 120 drawing unit,
122 blur information setting unit, 124 texture generation unit 130 sound generation unit, 160 operation unit, 170 storage unit, 172 main storage unit,
174 Drawing buffer, 176 Object data storage unit,
178 texture storage unit, 179 z buffer, 180 information storage medium,
190 display unit, 192 sound output unit, 194 portable information storage device, 196 communication unit,

Claims (11)

オブジェクト空間における仮想カメラから見た画像を生成するためのプログラムであって、
仮想カメラのオブジェクト空間内における位置、向きを制御する仮想カメラ制御部と、
仮想カメラの制御情報に基づいて、ブラー情報を設定するブラー情報設定部と、
設定されたブラー情報に基づいて、所与のオブジェクトにマッピングされるテクスチャに対してブラー処理を施したブラーテクスチャを生成するテクスチャ生成部と、
オブジェクト空間に設定された前記所与のオブジェクトに対して前記ブラーテクスチャをマッピングしながら描画する描画部としてコンピュータを機能させ、
前記ブラー情報設定部が、
前記仮想カメラの移動速度の大きさに応じて求めたテクスチャのずらし量を前記ブラー情報として設定し、
前記テクスチャ生成部が、
設定されたずらし量に基づいて前記テクスチャに対して前記ブラー処理を行うことを特徴とするプログラム。
A program for generating an image viewed from a virtual camera in an object space,
A virtual camera control unit that controls the position and orientation of the virtual camera in the object space;
A blur information setting unit for setting blur information based on the control information of the virtual camera;
A texture generation unit that generates a blur texture obtained by performing a blur process on a texture mapped to a given object based on the set blur information;
Causing the computer to function as a drawing unit for drawing while mapping the blur texture to the given object set in the object space;
The blur information setting unit
The amount of texture shift determined according to the moving speed of the virtual camera is set as the blur information,
The texture generator
A program which performs the blur processing on the texture based on a set shift amount.
請求項1において、
前記ブラー情報設定部が、
前記仮想カメラの移動方向に応じて求めたテクスチャのずらし方向を前記ブラー情報として設定し、
前記テクスチャ生成部が、
設定されたずらし方向と、前記仮想カメラの移動速度の大きさに応じて設定されたずらし量とに基づいて前記テクスチャに対して前記ブラー処理を行うことを特徴とするプログラム。
In claim 1,
The blur information setting unit
The texture shift direction obtained according to the moving direction of the virtual camera is set as the blur information,
The texture generator
A program for performing the blur processing on the texture based on a set shift direction and a shift amount set according to a moving speed of the virtual camera.
請求項2において、
オブジェクト空間内を移動する移動体オブジェクトの移動経路に沿ってコースオブジェクトが配置されている場合に、
前記ブラー情報設定部が、
前記コースオブジェクトを構成する面に対する前記仮想カメラの相対的な移動方向に応じてブラー情報としてテクスチャのずらし方向を設定することを特徴とするプログラム。
In claim 2,
When a course object is placed along the movement path of a moving object that moves in the object space,
The blur information setting unit
A program for setting a texture shift direction as blur information according to a relative movement direction of the virtual camera with respect to a surface constituting the course object.
請求項1〜3のいずれかにおいて、
オブジェクト空間内を移動する移動体オブジェクトの移動経路に沿ってコースオブジェクトが配置されている場合に、
前記ブラー情報設定部が、
前記コースオブジェクトを構成する面に対する前記仮想カメラの相対的な移動速度の大きさに前記テクスチャのずらし量を設定することを特徴とするプログラム。
In any one of Claims 1-3,
When a course object is placed along the movement path of a moving object that moves in the object space,
The blur information setting unit
A program for setting a texture shift amount to a magnitude of a relative moving speed of the virtual camera with respect to a surface constituting the course object.
請求項1〜4において、
前記ブラー情報設定部が、
前記仮想カメラの制御情報から得られる移動速度ベクトルと、オブジェクト空間の座標系に関連付けて設定されたテクスチャの基準方向とに基づいて、前記仮想カメラの移動速度ベクトルの基準方向成分を求め、求められた基準方向成分に基づいて、前記基準方向に対する前記テクスチャのずらし量を設定することを特徴とするプログラム。
In claims 1 to 4,
The blur information setting unit
A reference direction component of the moving speed vector of the virtual camera is obtained based on a moving speed vector obtained from the control information of the virtual camera and a texture reference direction set in association with the coordinate system of the object space. A program for setting a shift amount of the texture with respect to the reference direction based on the reference direction component.
オブジェクト空間における仮想カメラから見た画像を生成するためのプログラムであって、
仮想カメラのオブジェクト空間内における位置、向きを制御する仮想カメラ制御部と、
オブジェクト空間内で移動体オブジェクトを移動させる演算を行う移動体演算部と、
仮想カメラの制御情報と前記移動体オブジェクトの移動情報とに基づいてブラー情報を設定するブラー情報設定部と、
設定されたブラー情報に基づいて前記移動体オブジェクトにマッピングされるテクスチャに対してブラー処理を施したブラーテクスチャを生成するテクスチャ生成部と、
オブジェクト空間に設定された前記移動体オブジェクトに対して前記ブラーテクスチャをマッピングしながら描画する描画部としてコンピュータを機能させ、
前記ブラー情報設定部が、
前記仮想カメラに対する前記移動体オブジェクトの相対移動速度の大きさに応じて求めたテクスチャのずらし量を前記ブラー情報として設定し、
前記テクスチャ生成部が、
設定されたずらし量に基づいて前記テクスチャに対して前記ブラー処理を行うことを特徴とするプログラム。
A program for generating an image viewed from a virtual camera in an object space,
A virtual camera control unit that controls the position and orientation of the virtual camera in the object space;
A moving object calculation unit that performs an operation for moving the moving object in the object space;
A blur information setting unit for setting blur information based on control information of the virtual camera and movement information of the moving object;
A texture generation unit that generates a blur texture obtained by performing a blur process on the texture mapped to the moving object based on the set blur information;
Causing the computer to function as a drawing unit for drawing while mapping the blur texture to the moving object set in the object space;
The blur information setting unit
A texture shift amount determined according to the relative moving speed of the moving object relative to the virtual camera is set as the blur information.
The texture generator
A program which performs the blur processing on the texture based on a set shift amount.
オブジェクト空間における仮想カメラから見た画像を生成するためのプログラムであって、
仮想カメラのオブジェクト空間内における位置、向きを制御する仮想カメラ制御部と、
仮想カメラの制御情報に基づいてブラー情報を設定するブラー情報設定部と、
設定されたブラー情報に基づいて所与のオブジェクトにマッピングされるテクスチャに対してブラー処理を施したブラーテクスチャを生成するテクスチャ生成部と、
オブジェクト空間に設定された前記所与のオブジェクトに対して前記ブラーテクスチャをマッピングしながら描画する描画部としてコンピュータを機能させ、
前記ブラー情報設定部が、
前記仮想カメラの移動方向に応じて求めたテクスチャのずらし方向を前記ブラー情報として設定し、
前記テクスチャ生成部が、
設定されたずらし方向に基づいて前記テクスチャに対して前記ブラー処理を行うことを特徴とするプログラム。
A program for generating an image viewed from a virtual camera in an object space,
A virtual camera control unit that controls the position and orientation of the virtual camera in the object space;
A blur information setting unit for setting blur information based on control information of the virtual camera;
A texture generation unit that generates a blur texture obtained by blurring a texture mapped to a given object based on the set blur information;
Causing the computer to function as a drawing unit for drawing while mapping the blur texture to the given object set in the object space;
The blur information setting unit
The texture shift direction obtained according to the moving direction of the virtual camera is set as the blur information,
The texture generator
A program that performs the blur processing on the texture based on a set shift direction.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1〜7のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 7 is stored. オブジェクト空間における仮想カメラから見た画像を生成するための画像生成システムであって、
仮想カメラのオブジェクト空間内における位置、向きを制御する仮想カメラ制御部と、
仮想カメラの制御情報に基づいて、ブラー情報を設定するブラー情報設定部と、
設定されたブラー情報に基づいて、所与のオブジェクトにマッピングされるテクスチャに対してブラー処理を施したブラーテクスチャを生成するテクスチャ生成部と、
オブジェクト空間に設定された前記所与のオブジェクトに対して前記ブラーテクスチャをマッピングしながら描画する描画部とを含み、
前記ブラー情報設定部が、
前記仮想カメラの移動速度の大きさに応じて求めたテクスチャのずらし量を前記ブラー情報として設定し、
前記テクスチャ生成部が、
設定されたずらし量に基づいて前記テクスチャに対して前記ブラー処理を行うことを特徴とする画像生成システム。
An image generation system for generating an image viewed from a virtual camera in an object space,
A virtual camera control unit that controls the position and orientation of the virtual camera in the object space;
A blur information setting unit for setting blur information based on the control information of the virtual camera;
A texture generation unit that generates a blur texture obtained by performing a blur process on a texture mapped to a given object based on the set blur information;
A drawing unit for drawing while mapping the blur texture to the given object set in the object space,
The blur information setting unit
The amount of texture shift determined according to the moving speed of the virtual camera is set as the blur information,
The texture generator
An image generation system, wherein the blur processing is performed on the texture based on a set shift amount.
オブジェクト空間における仮想カメラから見た画像を生成するための画像生成システムであって、
仮想カメラのオブジェクト空間内における位置、向きを制御する仮想カメラ制御部と、
オブジェクト空間内で移動体オブジェクトを移動させる演算を行う移動体演算部と、
仮想カメラの制御情報と前記移動体オブジェクトの移動情報とに基づいてブラー情報を設定するブラー情報設定部と、
設定されたブラー情報に基づいて前記移動体オブジェクトにマッピングされるテクスチャに対してブラー処理を施したブラーテクスチャを生成するテクスチャ生成部と、
オブジェクト空間に設定された前記移動体オブジェクトに対して前記ブラーテクスチャをマッピングしながら描画する描画部とを含み、
前記ブラー情報設定部が、
前記仮想カメラに対する前記移動体オブジェクトの相対移動速度の大きさに応じて求めたテクスチャのずらし量を前記ブラー情報として設定し、
前記テクスチャ生成部が、
設定されたずらし量に基づいて前記テクスチャに対して前記ブラー処理を行うことを特徴とする画像生成システム。
An image generation system for generating an image viewed from a virtual camera in an object space,
A virtual camera control unit that controls the position and orientation of the virtual camera in the object space;
A moving object calculation unit that performs an operation for moving the moving object in the object space;
A blur information setting unit for setting blur information based on control information of the virtual camera and movement information of the moving object;
A texture generation unit that generates a blur texture obtained by performing a blur process on the texture mapped to the moving object based on the set blur information;
A drawing unit for drawing while mapping the blur texture to the moving object set in the object space,
The blur information setting unit
A texture shift amount determined according to the relative moving speed of the moving object relative to the virtual camera is set as the blur information.
The texture generator
An image generation system, wherein the blur processing is performed on the texture based on a set shift amount.
オブジェクト空間における仮想カメラから見た画像を生成するための画像生成システムであって、
仮想カメラのオブジェクト空間内における位置、向きを制御する仮想カメラ制御部と、
仮想カメラの制御情報に基づいてブラー情報を設定するブラー情報設定部と、
設定されたブラー情報に基づいて所与のオブジェクトにマッピングされるテクスチャに対してブラー処理を施したブラーテクスチャを生成するテクスチャ生成部と、
オブジェクト空間に設定された前記所与のオブジェクトに対して前記ブラーテクスチャをマッピングしながら描画する描画部とを含み、
前記ブラー情報設定部が、
前記仮想カメラの移動方向に応じて求めたテクスチャのずらし方向を前記ブラー情報として設定し、
前記テクスチャ生成部が、
設定されたずらし方向に基づいて前記テクスチャに対して前記ブラー処理を行うことを特徴とする画像生成システム。
An image generation system for generating an image viewed from a virtual camera in an object space,
A virtual camera control unit that controls the position and orientation of the virtual camera in the object space;
A blur information setting unit for setting blur information based on control information of the virtual camera;
A texture generation unit that generates a blur texture obtained by blurring a texture mapped to a given object based on the set blur information;
A drawing unit for drawing while mapping the blur texture to the given object set in the object space,
The blur information setting unit
The texture shift direction obtained according to the moving direction of the virtual camera is set as the blur information,
The texture generator
An image generation system, wherein the blur process is performed on the texture based on a set shift direction.
JP2006093523A 2006-03-30 2006-03-30 Image generation system, program, and information storage medium Active JP4743770B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006093523A JP4743770B2 (en) 2006-03-30 2006-03-30 Image generation system, program, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006093523A JP4743770B2 (en) 2006-03-30 2006-03-30 Image generation system, program, and information storage medium

Publications (2)

Publication Number Publication Date
JP2007272273A true JP2007272273A (en) 2007-10-18
JP4743770B2 JP4743770B2 (en) 2011-08-10

Family

ID=38675059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006093523A Active JP4743770B2 (en) 2006-03-30 2006-03-30 Image generation system, program, and information storage medium

Country Status (1)

Country Link
JP (1) JP4743770B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109972A (en) * 2012-12-04 2014-06-12 Mitsubishi Precision Co Ltd Image generation apparatus
JP2020089494A (en) * 2018-12-04 2020-06-11 株式会社ミクシィ Game program, game processing method and game terminal
CN113240783A (en) * 2021-05-27 2021-08-10 网易(杭州)网络有限公司 Stylized rendering method and device, readable storage medium and electronic equipment
CN117472592A (en) * 2023-12-27 2024-01-30 中建三局集团有限公司 Three-dimensional model explosion method and system based on vertex shader and texture mapping

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793586A (en) * 1993-06-30 1995-04-07 Nippon Steel Corp Method for expressing motion blur in three-dimensional computer graphics animation
JPH09115000A (en) * 1995-10-13 1997-05-02 Hitachi Ltd Real time simulation device and video generation method
JPH10222694A (en) * 1996-12-06 1998-08-21 Sega Enterp Ltd Picture processor and method therefor
JP2001250127A (en) * 1999-12-31 2001-09-14 Square Co Ltd Computer-readable recording medium with recorded program for three-dimensional computer image processing, shading drawing method, and video game device
JP2002015335A (en) * 2000-06-28 2002-01-18 Toshiba Corp Method and device for drawing motion blur image
JP2002170131A (en) * 2000-11-30 2002-06-14 Konami Co Ltd Image processing device and method and information storage medium
JP2003051024A (en) * 2002-05-24 2003-02-21 Namco Ltd Image generation system and information storage medium
JP2006068079A (en) * 2004-08-31 2006-03-16 Konami Co Ltd Game program and game apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793586A (en) * 1993-06-30 1995-04-07 Nippon Steel Corp Method for expressing motion blur in three-dimensional computer graphics animation
JPH09115000A (en) * 1995-10-13 1997-05-02 Hitachi Ltd Real time simulation device and video generation method
JPH10222694A (en) * 1996-12-06 1998-08-21 Sega Enterp Ltd Picture processor and method therefor
JP2001250127A (en) * 1999-12-31 2001-09-14 Square Co Ltd Computer-readable recording medium with recorded program for three-dimensional computer image processing, shading drawing method, and video game device
JP2002015335A (en) * 2000-06-28 2002-01-18 Toshiba Corp Method and device for drawing motion blur image
JP2002170131A (en) * 2000-11-30 2002-06-14 Konami Co Ltd Image processing device and method and information storage medium
JP2003051024A (en) * 2002-05-24 2003-02-21 Namco Ltd Image generation system and information storage medium
JP2006068079A (en) * 2004-08-31 2006-03-16 Konami Co Ltd Game program and game apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109972A (en) * 2012-12-04 2014-06-12 Mitsubishi Precision Co Ltd Image generation apparatus
JP2020089494A (en) * 2018-12-04 2020-06-11 株式会社ミクシィ Game program, game processing method and game terminal
CN113240783A (en) * 2021-05-27 2021-08-10 网易(杭州)网络有限公司 Stylized rendering method and device, readable storage medium and electronic equipment
CN113240783B (en) * 2021-05-27 2023-06-27 网易(杭州)网络有限公司 Stylized rendering method and device, readable storage medium and electronic equipment
CN117472592A (en) * 2023-12-27 2024-01-30 中建三局集团有限公司 Three-dimensional model explosion method and system based on vertex shader and texture mapping
CN117472592B (en) * 2023-12-27 2024-03-19 中建三局集团有限公司 Three-dimensional model explosion method and system based on vertex shader and texture mapping

Also Published As

Publication number Publication date
JP4743770B2 (en) 2011-08-10

Similar Documents

Publication Publication Date Title
JP4771821B2 (en) Program, information storage medium, and image generation system
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP4651527B2 (en) Program, information storage medium, and image generation system
JP2007164557A (en) Program, information recording medium and image generation system
JP4743770B2 (en) Image generation system, program, and information storage medium
JP4749198B2 (en) Program, information storage medium, and image generation system
JP4754384B2 (en) Program, information recording medium, and image generation system
JP4073031B2 (en) Program, information storage medium, and image generation system
JP2006323512A (en) Image generation system, program, and information storage medium
JP2006252426A (en) Program, information storage medium, and image generation system
JP4913399B2 (en) Program, information storage medium, and image generation system
JP4632855B2 (en) Program, information storage medium, and image generation system
JP4574058B2 (en) Image generation system, program, and information storage medium
JP4592087B2 (en) Image generation system, program, and information storage medium
JP4662260B2 (en) Program, information storage medium, and image generation system
JP2006318196A (en) Program, information storage medium and image generation system
JP2004038639A (en) System for generating picture, program and medium for recording information
JP2008077406A (en) Image generation system, program, and information storage medium
JP4162125B2 (en) Image generation system, program, and information storage medium
JP2010033295A (en) Image generation system, program and information storage medium
JP2006252423A (en) Program, information storage medium and image generation system
JP4521811B2 (en) Program, information storage medium, and image generation system
JP4680670B2 (en) Program, information storage medium, and image generation system
JP2008310377A (en) Image generation system, program and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110427

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110506

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4743770

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250