JP2005275796A - Program, information storage medium, and image generation system - Google Patents

Program, information storage medium, and image generation system Download PDF

Info

Publication number
JP2005275796A
JP2005275796A JP2004087992A JP2004087992A JP2005275796A JP 2005275796 A JP2005275796 A JP 2005275796A JP 2004087992 A JP2004087992 A JP 2004087992A JP 2004087992 A JP2004087992 A JP 2004087992A JP 2005275796 A JP2005275796 A JP 2005275796A
Authority
JP
Japan
Prior art keywords
billboard
normal vector
virtual
unit
lighting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004087992A
Other languages
Japanese (ja)
Other versions
JP4528008B2 (en
Inventor
Yoshitsugu Kondo
義次 近藤
Hisato Sotoosa
久人 外筬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2004087992A priority Critical patent/JP4528008B2/en
Publication of JP2005275796A publication Critical patent/JP2005275796A/en
Application granted granted Critical
Publication of JP4528008B2 publication Critical patent/JP4528008B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program, an information storage medium and an image generation system to realize a realistic representation of a lighting object. <P>SOLUTION: A virtual normal vector N for a lighting effect is set at each point of the lighting object LOB. An angle parameter AP representing how large an angle made by a line of sight direction vector SD of a virtual camera VC and the virtual normal vector N is calculated based on virtual normal vector information. At least one of a size, an α value, luminance, brightness and color saturation of a billboard primitive face BP for a lighting effect, which is disposed and set so as to squarely face the virtual camera VC, is established based on the angle parameter AP, and a billboard primitive face N is drawn. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、プログラム、情報記憶媒体、及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

従来より、キャラクタなどのオブジェクトが配置設定されるオブジェクト空間内(仮想的な3次元空間)において仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。野球ゲームの画像を生成する画像生成システムを例にとれば、守備側のプレーヤが投手キャラクタを操作してボールを投げ、攻撃側のプレーヤが打者キャラクタを操作して投げられたボールを打つゲームの画像を生成する。   Conventionally, an image generation system (game system) that generates an image that can be viewed from a virtual camera (a given viewpoint) in an object space (virtual three-dimensional space) in which an object such as a character is set is known. It is popular as a place to experience so-called virtual reality. Taking an example of an image generation system that generates an image of a baseball game, a defensive player operates a pitcher character to throw a ball, and an attacking player operates a batter character to hit a thrown ball. Generate an image.

このような画像生成システムでは、例えば球場のナイター照明のハイライトエフェクトなどについてもリアルに表現できることが望ましい。そしてこのようなハイライト表現を実現する手法として、ハイライトエフェクトオブジェクトを表示物上に配置して、ハイライトエフェクト画像が表示物にオーバーラップして表示される画像を生成する手法がある。   In such an image generation system, it is desirable to be able to express realistically, for example, a highlight effect of night game lighting in a stadium. As a technique for realizing such highlight expression, there is a technique in which a highlight effect object is arranged on a display object, and an image in which a highlight effect image is displayed overlapping the display object is generated.

しかしながらこの手法では、仮想カメラの視線ベクトルの方向が変化しても、ハイライトエフェクトの見え方は変化しないため、今ひとつリアルな画像を生成できないという課題がある。
特開2001−325605号公報
However, this method has a problem that even if the direction of the line-of-sight vector of the virtual camera changes, the appearance of the highlight effect does not change.
JP 2001-325605 A

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、照明オブジェクトのリアルな表現を可能にするプログラム、情報記憶媒体及び画像生成システムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a program, an information storage medium, and an image generation system that enable realistic expression of a lighting object. .

本発明は、オブジェクト空間において仮想カメラから見える画像を生成する画像生成システムであって、照明オブジェクトを含む複数のオブジェクトをオブジェクト空間に配置設定するオブジェクト空間設定部と、仮想カメラを制御する仮想カメラ制御部と、前記照明オブジェクトの各点に設定される照明エフェクト用の仮想法線ベクトルの情報を記憶する仮想法線ベクトル情報記憶部と、仮想カメラの視線方向ベクトルと仮想法線ベクトルとのなす角度の大小を表す角度パラメータを、前記仮想法線ベクトル情報に基づいて求めるパラメータ演算部と、仮想カメラに正対するように配置設定される照明エフェクト用のビルボードプリミティブ面のサイズ、α値、輝度、明度及び彩度の少なくとも1つを、前記角度パラメータに基づいて設定するビルボード設定部と、前記ビルボードプリミティブ面を描画する描画部とを含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。   The present invention is an image generation system for generating an image that can be viewed from a virtual camera in an object space, and an object space setting unit that sets a plurality of objects including a lighting object in the object space, and a virtual camera control that controls the virtual camera An angle formed by a virtual normal vector information storage unit that stores information on a virtual normal vector for a lighting effect set at each point of the lighting object, and a visual direction vector and a virtual normal vector of the virtual camera An angle parameter that represents the size of a parameter calculation unit that is obtained based on the virtual normal vector information, and the size, α value, brightness, and size of the billboard primitive surface for a lighting effect that is arranged and set to face the virtual camera. Set at least one of brightness and saturation based on the angle parameter A billboard setting unit that relates to an image generation system that includes a drawing unit for drawing the billboard primitive surface. The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

本発明によれば、照明オブジェクトの各点に照明エフェクト用の仮想法線ベクトルが設定される。そして仮想カメラの視線方向ベクトルと仮想法線ベクトルとのなす角度の大小を表す角度パラメータが、仮想法線ベクトル情報に基づいて求められる。そして、そのサイズ、α値、輝度、明度及び彩度の少なくとも1つが角度パラメータに基づいて設定される照明エフェクト用のビルボードプリミティブ面が描画される。このようにすれば、使用されるプリミティブ面数を最小限に抑えながら、照明オブジェクトのリアルな表現が可能になる。   According to the present invention, a virtual normal vector for lighting effects is set at each point of the lighting object. Then, an angle parameter indicating the magnitude of the angle formed by the visual line direction vector and the virtual normal vector of the virtual camera is obtained based on the virtual normal vector information. Then, a billboard primitive surface for the lighting effect is drawn in which at least one of the size, α value, luminance, brightness, and saturation is set based on the angle parameter. This makes it possible to realistically represent the lighting object while minimizing the number of primitive surfaces used.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記仮想法線ベクトル情報記憶部が、前記照明オブジェクトの照明画像が描かれる面である照明面の中心点から端辺に向かうにつれて、仮想法線ベクトルと前記照明面とのなす角度が90度から徐々に減少するように設定された仮想法線ベクトルの情報を記憶するようにしてもよい。   Further, in the image generation system, the program, and the information storage medium according to the present invention, as the virtual normal vector information storage unit moves from the center point of the illumination surface, which is the surface on which the illumination image of the illumination object is drawn, toward the end side, Information on the virtual normal vector set so that the angle formed by the virtual normal vector and the illumination surface may gradually decrease from 90 degrees may be stored.

このようにすれば、照明オブジェクトの例えば左手前側や右手前側に設定される仮想カメラから見た場合に、照明オブジェクトの照明面の左側や右側にハイライトエフェクトが表示されるリアルな画像を生成できる。   In this way, it is possible to generate a realistic image in which a highlight effect is displayed on the left or right side of the illumination surface of the lighting object when viewed from a virtual camera set on the left front side or right front side of the lighting object, for example. .

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記ビルボード設定部が、前記角度パラメータに基づいてビルボードプリミティブ面のα値を設定し、前記描画部が、照明テクスチャがマッピングされるビルボードプリミティブ面を、設定された前記α値に基づいてα加算ブレンディングで描画するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the billboard setting unit sets an α value of a billboard primitive surface based on the angle parameter, and the drawing unit maps an illumination texture. The billboard primitive surface may be drawn by α addition blending based on the set α value.

このようにすれば、角度パラメータに応じてα値が変化し、そのα値に応じてビルボードプリミティブ面で表現されるハイライトの明るさが変化するようになり、リアルな画像表現を実現できる。   In this way, the α value changes according to the angle parameter, and the brightness of the highlight expressed on the billboard primitive surface changes according to the α value, thereby realizing a realistic image expression. .

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記ビルボード設定部が、ベースサイズが異なる複数種類のビルボードプリミティブ面の設定処理を行うようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the billboard setting unit may perform setting processing for a plurality of types of billboard primitive surfaces having different base sizes.

このようにすれば、照明の多様な画像表現を実現できる。   In this way, various image representations of illumination can be realized.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記描画部が、照明エフェクトのベーステクスチャがマッピングされるベースプリミティブ面を描画し、そのベースプリミティブ面にオーバーラップするように、前記ビルボードプリミティブ面を描画するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the drawing unit draws a base primitive surface to which the base texture of the lighting effect is mapped, and the building primitive is overlapped with the base primitive surface. The board primitive surface may be drawn.

このようにすれば、照明オブジェクト全体が光ってみえる画像の生成が可能になる。   In this way, it is possible to generate an image in which the entire lighting object looks shining.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記描画部が、前記仮想法線ベクトルが設定される照明オブジェクトの各点をスクリーン上に透視投影した点に、ビルボードプリミティブ面を描画するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the drawing unit adds a billboard primitive surface to a point obtained by perspectively projecting each point of the illumination object on which the virtual normal vector is set on the screen. You may make it draw.

このようにすればビルボードプリミティブ面の描画処理を簡素化できる。   In this way, the billboard primitive surface drawing process can be simplified.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記ビルボード設定部が、前記角度パラメータに基づいてビルボードプリミティブ面のサイズを設定し、設定されたサイズと前記透視投影点の座標とに基づいてビルボードプリミティブ面の頂点座標を求め、前記描画部が、求められた頂点座標で特定されるビルボードプリミティブ面を描画するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the billboard setting unit sets the size of the billboard primitive plane based on the angle parameter, and the set size and the coordinates of the perspective projection point are set. Based on the above, the vertex coordinates of the billboard primitive surface may be obtained, and the drawing unit may draw the billboard primitive surface specified by the obtained vertex coordinates.

このようにすれば、角度パラメータに基づいてビルボードプリミティブ面のサイズが変化し、ビルボードプリミティブ面で表現されるハイライトの全体的な明るさが変化するようになり、リアルな画像を生成できる。   In this way, the size of the billboard primitive surface changes based on the angle parameter, and the overall brightness of the highlight expressed on the billboard primitive surface changes, and a realistic image can be generated. .

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記パラメータ演算部が、仮想カメラのカメラ回転行列に基づいて前記仮想法線ベクトルを回転させ、回転後の仮想法線ベクトルのZ成分を符号反転したものを、前記角度パラメータとして求めるようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the parameter calculation unit rotates the virtual normal vector based on a camera rotation matrix of the virtual camera, and the Z component of the rotated virtual normal vector May be obtained as the angle parameter.

このようにすれば、少ない処理負荷で角度パラメータを求めることが可能になる。   In this way, the angle parameter can be obtained with a small processing load.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game system) of the present embodiment. Note that the image generation system of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。   The operation unit 160 is for a player to input operation data, and the function can be realized by a lever, a button, a steering, a microphone, a touch panel display, a housing, or the like. The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

携帯型情報記憶装置194は、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。通信部196は外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device. The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or communication ASICs, programs, and the like. It can be realized by.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of this embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (storage unit 170) via the network and communication unit 196. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は記憶部170をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, as the game process, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result are calculated. There is a process or a process of ending a game when a game end condition is satisfied. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部114、パラメータ演算部116、ビルボード設定部118、描画部120、音生成部130を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 114, a parameter calculation unit 116, a billboard setting unit 118, a drawing unit 120, and a sound generation unit 130. Note that some of these may be omitted.

オブジェクト空間設定部110は、キャラクタ、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクト(モデルオブジェクト)の位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 110 includes various objects (primitive surfaces such as polygons, free-form surfaces, and subdivision surfaces) representing display objects such as characters, buildings, stadiums, cars, trees, columns, walls, and maps (terrain). (Object) is set in the object space. That is, the position and rotation angle (synonymous with direction and direction) of the object (model object) in the world coordinate system are determined, and the rotation angle (X, Y, Z axis around the position (X, Y, Z)) is determined. Arrange objects at (rotation angle).

移動・動作処理部112は、オブジェクト(キャラクタ、車、又は飛行機等)の移動・動作演算(移動・動作シミュレーション)を行う。即ち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、オブジェクト(移動オブジェクト)をオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させる処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of an object (such as a character, a car, or an airplane). That is, an object (moving object) is moved in the object space or an object is moved based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), or the like. Perform processing (motion, animation). Specifically, a simulation process for sequentially obtaining object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part object) every frame (1/60 second). I do. A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。   The virtual camera control unit 114 performs a virtual camera (viewpoint) control process for generating an image viewed from a given (arbitrary) viewpoint in the object space. Specifically, a process for controlling the position (X, Y, Z) or the rotation angle (rotation angle about the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position and the line-of-sight direction) is performed.

例えば仮想カメラによりオブジェクト(例えばキャラクタ、ボール、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。   For example, when an object (eg, character, ball, car) is photographed from behind using a virtual camera, the position or rotation angle of the virtual camera (the direction of the virtual camera is set so that the virtual camera follows changes in the position or rotation of the object. ) To control. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera.

パラメータ演算部116は、ゲーム処理に使用される各種のパラメータの演算処理(更新処理)を行う。ここでパラメータとは、ゲーム状況やキャラクタの状態などを質的、量的に表す変数であり、ゲーム処理における各種の判断(ゲーム進行の判断、ゲーム結果の判断等)に使用されるものである。   The parameter calculation unit 116 performs calculation processing (update processing) of various parameters used for the game processing. Here, the parameter is a variable that qualitatively and quantitatively represents a game situation, a character state, etc., and is used for various determinations in the game processing (determination of game progress, determination of game results, etc.). .

具体的には本実施形態では、オブジェクト空間設定部110が、照明オブジェクト(照明を表現するためのモデルオブジェクト)をオブジェクト空間に配置設定する。また記憶部170の仮想法線ベクトル情報記憶部176が、照明エフェクト用の仮想法線ベクトルの情報(例えば仮想法線ベクトルのX、Y、Z成分や仮想法線ベクトルの始点の座標)を記憶する。この仮想法線ベクトル(仮想法線ベクトルの始点)は、照明オブジェクト(例えば球場や競技場のナイター照明を表現するオブジェクト)の各点に設定される。この各点は、例えば照明オブジェクトが複数のライトを有する場合に、これらのライトの各位置に対応する点であり、照明オブジェクトの面上に設定されていてもよいし、照明オブジェクトから離れた位置に設定されていもよい。また仮想法線ベクトルは、照明のハイライト表現のために用いられる仮想的な法線ベクトルである。仮想法線ベクトルの方向は、照明オブジェクトの面に垂直な方向のみならず、それ以外の任意の方向に設定でき、その意味で本実施形態では「仮想的」な法線ベクトルと呼ぶ。   Specifically, in the present embodiment, the object space setting unit 110 places and sets a lighting object (a model object for expressing lighting) in the object space. The virtual normal vector information storage unit 176 of the storage unit 170 stores information on the virtual normal vector for lighting effects (for example, the X, Y, Z components of the virtual normal vector and the coordinates of the start point of the virtual normal vector). To do. This virtual normal vector (the start point of the virtual normal vector) is set at each point of a lighting object (for example, an object representing night lighting in a stadium or a stadium). For example, when the lighting object has a plurality of lights, each point corresponds to each position of these lights, and may be set on the surface of the lighting object, or may be a position away from the lighting object. It may be set to. The virtual normal vector is a virtual normal vector used for highlight expression of illumination. The direction of the virtual normal vector can be set not only in the direction perpendicular to the surface of the illumination object but also in any other direction, and in this sense, it is called a “virtual” normal vector.

そしてパラメータ演算部116は、仮想カメラの視線方向ベクトルと仮想法線ベクトルとのなす角度の大小を表す角度パラメータを、仮想法線ベクトル情報(ベクトル成分等)に基づいて求める。このような角度パラメータ(AP)としては、仮想カメラのカメラ回転行列(X軸、Y軸、Z軸回りでの回転行列)に基づいて仮想法線ベクトルを回転させ(座標変換し)、回転後の仮想法線ベクトルのZ成分(NZ)を符号反転(AP=−NZ)したものを用いることができる。或いは、仮想カメラの視線方向ベクトル(SD)と仮想法線ベクトル(N)との内積(AP=SD・N)を、角度パラメータとして用いてもよい。   Then, the parameter calculation unit 116 obtains an angle parameter indicating the magnitude of the angle formed between the visual line direction vector of the virtual camera and the virtual normal vector based on the virtual normal vector information (vector component or the like). As such an angle parameter (AP), a virtual normal vector is rotated (coordinate conversion) based on the camera rotation matrix (rotation matrix around the X axis, Y axis, and Z axis) of the virtual camera, and after rotation Can be obtained by inverting the sign (AP = −NZ) of the Z component (NZ) of the virtual normal vector. Alternatively, the inner product (AP = SD · N) of the visual direction vector (SD) of the virtual camera and the virtual normal vector (N) may be used as the angle parameter.

ビルボード設定部118は、ビルボードの設定処理(生成処理)を行う。具体的には、照明エフェクト用のビルボードプリミティブ面(ポリゴン、スプライト等)のサイズ、α値、輝度、明度及び彩度の少なくとも1つを、角度パラメータ(AP)に基づいて設定する。別の言い方をすれば、角度パラメータによりそのサイズやα値や輝度や明度や彩度が設定されるビルボードプリミティブ面のデータ(ポリゴンデータ、スプライトデータ)を生成する。更に具体的にはビルボード設定部118は、照明オブジェクトの各点(各頂点)に設定された各仮想法線ベクトルと仮想カメラの視線方向ベクトルとにより求められた各角度パラメータに基づいて、その各点(各点に対応する位置)に配置設定される各ビルボードプリミティブ面のサイズやα値や輝度や明度や彩度を設定する。この場合、ビルボードプリミティブ面は、仮想カメラに正対するように配置される。即ちビルボードプリミティブ面は、その照明面(照明画像が描かれる面。照明テクスチャがマッピングされる面)の法線ベクトルと、仮想カメラの視線方向ベクトルとのなす角度が180度になるように、配置設定される。このビルボードプリミティブ面は3次元のオブジェクト空間内に配置設定してもよいし、照明オブジェクトの各点(各仮想法線ベクトルの始点)に対応する2次元スクリーン(透視投影スクリーン)上の透視投影点(透視変換点)に配置設定しもよい。   The billboard setting unit 118 performs billboard setting processing (generation processing). Specifically, at least one of the size, α value, luminance, brightness, and saturation of a billboard primitive surface (polygon, sprite, etc.) for lighting effect is set based on the angle parameter (AP). In other words, billboard primitive surface data (polygon data, sprite data) whose size, α value, luminance, brightness, and saturation are set by the angle parameter is generated. More specifically, the billboard setting unit 118 is based on each angle parameter obtained from each virtual normal vector set at each point (each vertex) of the lighting object and the visual direction vector of the virtual camera. The size, α value, brightness, lightness, and saturation of each billboard primitive plane placed and set at each point (position corresponding to each point) are set. In this case, the billboard primitive surface is arranged so as to face the virtual camera. In other words, the billboard primitive surface is 180 degrees so that the angle formed by the normal vector of the illumination surface (surface on which the illumination image is drawn. Surface on which the illumination texture is mapped) and the visual direction vector of the virtual camera is 180 degrees. Placement is set. This billboard primitive plane may be placed and set in a three-dimensional object space, or a perspective projection on a two-dimensional screen (perspective projection screen) corresponding to each point (start point of each virtual normal vector) of the illumination object. The arrangement may be set to a point (perspective transformation point).

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まず、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、或いは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を描画バッファ172(フレームバッファ、中間バッファなどのピクセル単位で画像情報を記憶できるバッファ。VRAM)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. In the case of generating a so-called three-dimensional game image, first, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, or perspective transformation is performed, and drawing data ( The position coordinates, texture coordinates, color data, normal vector, α value, etc.) of the vertexes of the primitive surface are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is stored as image data in units of pixels such as a drawing buffer 172 (frame buffer, intermediate buffer, etc.) Can be drawn in a VRAM). Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

描画部120は、テクスチャマッピング部122、αブレンディング部124を含む。   The drawing unit 120 includes a texture mapping unit 122 and an α blending unit 124.

テクスチャマッピング部122は、テクスチャ記憶部174に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理を行う。具体的には、オブジェクト(プリミティブ面)の頂点に設定(付与)されるテクスチャ座標等を用いてテクスチャ記憶部174からテクスチャ(色、α値などの表面プロパティ)を読み出す。そして、2次元の画像又はパターンであるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理やバイリニア補間(テクセル補間)などを行う。   The texture mapping unit 122 performs processing for mapping the texture (texel value) stored in the texture storage unit 174 to an object. Specifically, the texture (surface properties such as color and α value) is read from the texture storage unit 174 using the texture coordinates set (given) at the vertices of the object (primitive surface). Then, a texture that is a two-dimensional image or pattern is mapped to the object. In this case, processing for associating pixels and texels, bilinear interpolation (texel interpolation), and the like are performed.

αブレンディング部124はα値(A値)に基づくαブレンディング処理(通常αブレンディング、α加算ブレンディング又はα減算ブレンディング等)を行う。例えば通常αブレンディングの場合には下式の処理を行う。   The α blending unit 124 performs α blending processing (usually α blending, α addition blending, α subtraction blending, or the like) based on the α value (A value). For example, in the case of normal α blending, the following processing is performed.

Q=(1−α)×R1+α×R2 (1)
Q=(1−α)×G1+α×G2 (2)
Q=(1−α)×B1+α×B2 (3)
一方、加算αブレンディングの場合には下式の処理を行う。
R Q = (1−α) × R 1 + α × R 2 (1)
G Q = (1−α) × G 1 + α × G 2 (2)
B Q = (1−α) × B 1 + α × B 2 (3)
On the other hand, in the case of addition α blending, the following processing is performed.

Q=R1+α×R2 (4)
Q=G1+α×G2 (5)
Q=B1+α×B2 (6)
ここで、R1、G1、B1は、描画バッファ172に既に描画されている画像(元画像)のRGB成分であり、R2、G2、B2は、描画バッファ172に描画すべき画像のRGB成分である。また、RQ、GQ、BQは、αブレンディングにより得られる画像のRGB成分である。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。
R Q = R 1 + α × R 2 (4)
G Q = G 1 + α × G 2 (5)
B Q = B 1 + α × B 2 (6)
Here, R 1 , G 1 , and B 1 are RGB components of an image (original image) already drawn in the drawing buffer 172, and R 2 , G 2 , and B 2 should be drawn in the drawing buffer 172. This is the RGB component of the image. R Q , G Q , and B Q are RGB components of an image obtained by α blending. The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

本実施形態ではビルボード設定部118が、パラメータ演算部116で求められた角度パラメータに基づいてビルボードプリミティブ面のα値を設定する。そしてテクスチャマッピング部122(描画部120)が、テクスチャ記憶部174に記憶される照明テクスチャ(ハイライトテクスチャ)をビルボードプリミティブ面にマッピングする。またαブレンディング部(描画部120)が、照明テクスチャがマッピングされるビルボードプリミティブ面を、ビルボード設定部118により設定されたα値に基づいて、照明オブジェクトの各点に対応する位置(各点の位置、各点の透視投影点等)にα加算ブレンディングで描画する。これにより照明のハイライトをリアルに表現できる。   In the present embodiment, the billboard setting unit 118 sets the α value of the billboard primitive surface based on the angle parameter obtained by the parameter calculation unit 116. Then, the texture mapping unit 122 (drawing unit 120) maps the illumination texture (highlight texture) stored in the texture storage unit 174 to the billboard primitive surface. Further, the α blending unit (drawing unit 120) sets the position (each point) corresponding to each point of the lighting object based on the α value set by the billboard setting unit 118 for the billboard primitive surface to which the lighting texture is mapped. , The perspective projection points of each point, etc.) are drawn by α addition blending. Thereby, the highlight of illumination can be expressed realistically.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
次に本実施形態の手法について図面を用いて説明する。なお以下では、球場(競技場)のナイター照明のハイライト表現に本実施形態の手法を採用した場合について主に説明するが、本実施形態の手法は、このようなナイター照明のハイライト表現のみならず、種々の画像表現に適用できる。
2. Next, the method of this embodiment will be described with reference to the drawings. In the following, the case where the method of the present embodiment is used for highlight expression of the night game lighting of the stadium (the stadium) will be mainly described. However, the method of the present embodiment is only the highlight expression of such night game lighting. It can be applied to various image representations.

2.1 仮想法線ベクトルを用いたハイライト表現
図2に照明オブジェクトLOBの例を示す。このLOBは、球場等に設置される照明を表現するためのモデルオブジェクトである。この照明オブジェクトLOBは、複数のライトを有しており、本実施形態では、これらのライトが異なる照明方向に向いていることを、仮想法線ベクトルを用いて擬似的に表現している。
2.1 Highlight Expression Using Virtual Normal Vector FIG. 2 shows an example of a lighting object LOB. This LOB is a model object for expressing lighting installed in a stadium or the like. This illumination object LOB has a plurality of lights, and in the present embodiment, the fact that these lights are directed in different illumination directions is expressed in a pseudo manner using virtual normal vectors.

図3に、照明オブジェクトLOBの各点に設定される仮想法線ベクトルNの例を示す。これらの仮想法線ベクトルNは、図4(A)に示すように、照明オブジェクトLOBの照明面(照明画像が描かれる面、照明テクスチャがマッピングされる面)に対して必ずしも直交していない。この意味において本実施形態ではこのベクトルを「仮想的」な法線ベクトルと呼ぶ。   FIG. 3 shows an example of the virtual normal vector N set at each point of the illumination object LOB. As shown in FIG. 4A, these virtual normal vectors N are not necessarily orthogonal to the illumination surface of the illumination object LOB (surface on which the illumination image is drawn, surface on which the illumination texture is mapped). In this sense, in the present embodiment, this vector is referred to as a “virtual” normal vector.

具体的には本実施形態では、照明オブジェクトLOBの照明面の中心点から端辺(第1〜第4の辺)に向かうにつれて、仮想法線ベクトルNと照明面とのなす角度が90度から減少(徐々に減少)するように設定される。例えば照明オブジェクトLOBの照明面の中心点においては、図4(A)のC1に示すように、仮想法線ベクトルNと照明面とのなす角度は90度になっている。一方、照明面の端辺においては、C2、C3に示すように、仮想法線ベクトルNと照明面とのなす角度(小さい方の角度)は90度よりも小さい角度になっている。このように本実施形態では、照明面の中心点から端辺に向かうにつれて、端辺側に広がるように仮想法線ベクトルNの方向が設定されている。このようにすることで、図4(A)に示すように照明オブジェクトLOBの例えば左手前側に設定される仮想カメラVCで見た場合に、照明オブジェクトLOBの左側にハイライトが形成される画像を生成でき、ナイター照明のリアルな表現が可能になる。   Specifically, in the present embodiment, the angle formed by the virtual normal vector N and the illumination surface is 90 degrees from the center point of the illumination surface of the illumination object LOB toward the end sides (first to fourth sides). It is set to decrease (decrease gradually). For example, at the center point of the illumination surface of the illumination object LOB, the angle formed by the virtual normal vector N and the illumination surface is 90 degrees as indicated by C1 in FIG. On the other hand, at the edge of the illumination surface, as shown by C2 and C3, the angle (smaller angle) formed by the virtual normal vector N and the illumination surface is smaller than 90 degrees. Thus, in this embodiment, the direction of the virtual normal vector N is set so as to spread toward the end side from the center point of the illumination surface toward the end side. By doing so, as shown in FIG. 4A, when viewed with the virtual camera VC set on the front left side of the lighting object LOB, for example, an image in which highlights are formed on the left side of the lighting object LOB is displayed. It is possible to create a realistic expression of night lighting.

なお仮想法線ベクトルNの方向や始点位置の設定は図3、図4(A)の例に限定されず、種々の変形実施が可能である。また仮想法線ベクトルNが設定される照明オブジェクトLOBの各点(Nの始点)は、LOBの照明面上の点であってもよいし、照明面から離れた点でもよい。そして例えば図2のような照明を表現する場合には、この各点は、照明オブジェクトLOBが有する各ライトの位置に設定することが望ましい。また仮想法線ベクトルNの情報は、各仮想法線ベクトルNのベクトル成分(NX、NY、NZ)と、各仮想法線ベクトルNの始点位置の座標(XS、YS、ZS)などを含むことができる。   The setting of the direction of the virtual normal vector N and the start point position are not limited to the examples in FIGS. 3 and 4A, and various modifications can be made. Further, each point (starting point of N) of the illumination object LOB for which the virtual normal vector N is set may be a point on the illumination surface of the LOB or a point away from the illumination surface. For example, when expressing the illumination as shown in FIG. 2, it is desirable to set each point at the position of each light included in the illumination object LOB. The information of the virtual normal vector N includes the vector component (NX, NY, NZ) of each virtual normal vector N, the coordinates (XS, YS, ZS) of the start point position of each virtual normal vector N, and the like. Can do.

図4(B)に示すように本実施形態では、図4(A)のように設定された仮想法線ベクトルNと、仮想カメラVCの視線方向ベクトルSDとのなす角度θの大小を表す角度パラメータAP(倍率パラメータ)を、仮想法線ベクトル情報に基づいて求める。この角度パラメータAPは、仮想法線ベクトルNと視線法線ベクトルSDとの内積などに対応するパラメータである。そして本実施形態では、この角度パラメータAPに基づいて、照明エフェクト用のビルボードプリミティブ面(ビルボードポリゴン、ビルボードスプライト)のサイズやα値(輝度や明度や彩度でもよい。他の説明でも同様)を設定している。   As shown in FIG. 4B, in the present embodiment, an angle representing the magnitude of the angle θ formed by the virtual normal vector N set as shown in FIG. 4A and the line-of-sight direction vector SD of the virtual camera VC. A parameter AP (magnification parameter) is obtained based on the virtual normal vector information. This angle parameter AP is a parameter corresponding to the inner product of the virtual normal vector N and the line-of-sight normal vector SD. In the present embodiment, the size and α value (brightness, brightness, and saturation) of the billboard primitive plane (billboard polygon, billboard sprite) for lighting effects may be used based on the angle parameter AP. The same) is set.

例えば図5(A)のように仮想カメラVCが設定されている場合に、図5(A)のD1では、仮想法線ベクトルNと視線方向ベクトルSDとのなす角度は180度に近い。従ってNとSDのなす角度θの大小を表す角度パラメータAPの値も大きくなり(例えばAP=1.0程度)、この仮想法線ベクトルNの始点に設定されるビルボードプリミティブ面BPのサイズやα値も大きな値に設定される。そしてこの大きなサイズのビルボードプリミティブ面が、この大きな値に設定されたα値に基づいて、加算αブレンディング(広義にはαブレンディング)で、その位置(仮想法線ベクトルNの始点に対応する位置)に描画される。   For example, when the virtual camera VC is set as shown in FIG. 5A, in D1 of FIG. 5A, the angle formed by the virtual normal vector N and the line-of-sight direction vector SD is close to 180 degrees. Accordingly, the value of the angle parameter AP indicating the magnitude of the angle θ formed by N and SD also increases (for example, AP = about 1.0), and the size of the billboard primitive plane BP set at the starting point of the virtual normal vector N The α value is also set to a large value. And this large-sized billboard primitive surface is added by α blending (α blending in a broad sense) based on the α value set to this large value, and the position corresponding to the starting point of the virtual normal vector N ) Is drawn.

一方、図5(A)のD2では、仮想法線ベクトルNと視線方向ベクトルSDとのなす角度は90度に近い。従って角度パラメータAPの値も小さくなり(例えばAP=0.0)、この仮想法線ベクトルNの始点に設定されるビルボードプリミティブ面BPのサイズやα値も小さな値に設定される。そしてこの小さなサイズのビルボードプリミティブ面が、この小さな値に設定されたα値に基づいて、加算αブレンディングでその位置に描画される。   On the other hand, in D2 of FIG. 5A, the angle formed by the virtual normal vector N and the line-of-sight direction vector SD is close to 90 degrees. Accordingly, the value of the angle parameter AP also decreases (for example, AP = 0.0), and the size and α value of the billboard primitive plane BP set at the starting point of the virtual normal vector N are also set to small values. The small-sized billboard primitive surface is drawn at the position by addition α blending based on the α value set to the small value.

また図5(B)のように仮想カメラVCが設定されている場合に、図5(B)のE1では、仮想法線ベクトルNと視線方向ベクトルSDとのなす角度は180度に近い。従って角度パラメータAPの値も大きくなり、大きなサイズで大きなα値が設定されたビルボードプリミティブ面BPがその位置に描画される。一方、図5(B)のE2、E3では、仮想法線ベクトルNと視線方向ベクトルSDとのなす角度は180度より小さい。従って角度パラメータAPの値も小さくなり、小さなサイズで小さなα値が設定されたビルボードプリミティブ面BPがその位置に描画される。   When the virtual camera VC is set as shown in FIG. 5B, the angle formed by the virtual normal vector N and the line-of-sight direction vector SD is close to 180 degrees at E1 in FIG. 5B. Accordingly, the value of the angle parameter AP is also increased, and the billboard primitive surface BP having a large α value set with a large size is drawn at that position. On the other hand, at E2 and E3 in FIG. 5B, the angle formed by the virtual normal vector N and the line-of-sight direction vector SD is smaller than 180 degrees. Accordingly, the value of the angle parameter AP is also reduced, and the billboard primitive surface BP having a small α value set with a small size is drawn at that position.

図6、図7、図8に、本実施形態の手法で生成された照明オブジェクトLOBの画像の例を示す。   FIG. 6, FIG. 7, and FIG. 8 show examples of images of the illumination object LOB generated by the method of the present embodiment.

図6は、図5(A)のように照明オブジェクトLOBの左手前側に仮想カメラが配置されている時に生成される画像の例である。図6に示すように、仮想カメラから見て照明オブジェクトLOBの左側に強いハイライトが生じている。一方、LOBの右側ではハイライトは弱くなっている。   FIG. 6 is an example of an image generated when a virtual camera is arranged on the left front side of the illumination object LOB as shown in FIG. As shown in FIG. 6, a strong highlight is generated on the left side of the illumination object LOB as viewed from the virtual camera. On the other hand, the highlight is weak on the right side of the LOB.

図7は、図5(B)のように照明オブジェクトLOBの正面付近に仮想カメラが配置されている時に生成される画像の例である。図7に示すように、仮想カメラから見て照明オブジェクトLOBの中央付近に強いハイライトが生じている。一方、LOBの右側、左側ではハイライトは比較的弱くなっている。   FIG. 7 is an example of an image generated when a virtual camera is arranged near the front of the illumination object LOB as shown in FIG. As shown in FIG. 7, a strong highlight is generated near the center of the illumination object LOB as viewed from the virtual camera. On the other hand, highlights are relatively weak on the right and left sides of the LOB.

図8は、照明オブジェクトLOBの右手間側に仮想カメラが配置されている時に生成される画像の例である。図8に示すように、仮想カメラから見て照明オブジェクトLOBの右側に強いハイライトが生じている。   FIG. 8 is an example of an image generated when a virtual camera is arranged on the right-hand side of the lighting object LOB. As shown in FIG. 8, a strong highlight is generated on the right side of the illumination object LOB as viewed from the virtual camera.

このように本実施形態では、現実世界のナイター照明に生じるハイライトを、擬似的な手法を用いながらもリアルに表現することに成功している。   As described above, in the present embodiment, highlights generated in real-time night lighting are successfully expressed realistically using a pseudo technique.

例えば本実施形態の第1の比較例として次のような手法も考えられる。即ち、画面中央に照明オブジェクトが位置する場合には、照明オブジェクトの照明面全体のハイライトを強くする。一方、画面中央から離れた位置に照明オブジェクトが位置する場合には、照明面全体のハイライトを弱くする。   For example, the following method is also conceivable as a first comparative example of the present embodiment. That is, when the illumination object is located at the center of the screen, the highlight of the entire illumination surface of the illumination object is strengthened. On the other hand, when the illumination object is located at a position away from the center of the screen, the highlight of the entire illumination surface is weakened.

しかしながら、現実世界においては、野球の中継カメラの撮影画面の中央から離れた位置に、ナイター照明が位置していた場合にも、例えば図6に示すように、ナイター照明の端辺に位置するライトによりハイライトが生じる場合がある。従って、上述のように照明オブジェクトの画面上の位置に応じて照明面全体のハイライトの強弱を制御する第1の比較例の手法では、このような現実世界のナイター照明をリアルに表現できない。   However, in the real world, even when the night lighting is located at a position away from the center of the shooting screen of the baseball broadcast camera, for example, as shown in FIG. May cause highlights. Therefore, the above-described method of the first comparative example that controls the intensity of the highlight on the entire illumination surface according to the position of the illumination object on the screen as described above cannot realistically represent such real-world night illumination.

これに対して本実施形態では、図5(A)(B)に示すような仮想的な法線ベクトルNを設定することで、図6〜図8に示すようにナイター照明のリアルなハイライト表現を実現できる。例えば図5(A)のD1のように仮想法線ベクトルNを設定すれば、たとえ照明オブジェクトLOBが画面中央から離れた位置に映っている場合にも、D1の仮想法線ベクトルNにより、図6のように照明オブジェクトLOBの左側にハイライトが生じる。従って、照明オブジェクトLOBの左側に、仮想カメラに正対するライトが配置されているかのように見える画像を生成でき、リアルな照明の表現を実現できる。   On the other hand, in this embodiment, by setting a virtual normal vector N as shown in FIGS. 5A and 5B, realistic highlights of night lighting as shown in FIGS. Expression can be realized. For example, if the virtual normal vector N is set as D1 in FIG. 5A, even if the illumination object LOB is reflected at a position away from the center of the screen, the virtual normal vector N of D1 As shown in FIG. 6, a highlight is generated on the left side of the lighting object LOB. Therefore, it is possible to generate an image that looks as if the light directly facing the virtual camera is arranged on the left side of the lighting object LOB, thereby realizing realistic expression of lighting.

更に本実施形態では図5(A)(B)に示すように、仮想法線ベクトルNとビルボードプリミティブ面BPとは必ずしも直交しない。具体的には、強いハイライトが生じる点(D1、E1に示す点)においては、仮想法線ベクトルNとビルボードプリミティブ面BPが直交するが、それ以外の点(E2、E3に示す点)においては直交しない。   Furthermore, in this embodiment, as shown in FIGS. 5A and 5B, the virtual normal vector N and the billboard primitive plane BP are not necessarily orthogonal. Specifically, the virtual normal vector N and the billboard primitive plane BP are orthogonal to each other at points where strong highlights occur (points indicated by D1, E1), but other points (points indicated by E2, E3) Is not orthogonal.

そしてビルボードプリミティブ面BPは、仮想法線ベクトルNの方向とは無関係に、常に仮想カメラVCに正対するように配置設定される。このようにすることで、少ないプリミティブ面数で、広い範囲の照明画像を生成できるようになる。   The billboard primitive plane BP is arranged and set so as to always face the virtual camera VC regardless of the direction of the virtual normal vector N. In this way, a wide range of illumination images can be generated with a small number of primitive surfaces.

例えば本実施形態の第2の比較例として、仮想カメラVCに正対するようにビルボードプリミティブ面BPを配置設定すると共に、そのビルボードプリミティブ面BPに常に直交するように仮想法線ベクトルNを設定する手法も考えられる。   For example, as a second comparative example of the present embodiment, the billboard primitive plane BP is arranged and set so as to face the virtual camera VC, and the virtual normal vector N is set so as to be always orthogonal to the billboard primitive plane BP. A technique to do this is also possible.

しかしながら、この第2の比較例の手法では、どの場所に仮想カメラVCが配置されていても、視線方向ベクトルSDと仮想法線ベクトルNとのなす角度が常に180度になってしまい、図6〜図8に示すようなナイター照明のリアルな表現を実現できない。   However, in the method of the second comparative example, the angle formed by the line-of-sight direction vector SD and the virtual normal vector N is always 180 degrees regardless of where the virtual camera VC is placed. ~ Realistic expression of night lighting as shown in Fig. 8 cannot be realized.

また第3の比較例として、ビルボードプリミティブ面を用いずに、図4(A)のように設定された仮想法線ベクトルに直交するようにビルボードではない通常のプリミティブ面を配置する手法も考えられる。しかしながら、この第3の比較例の手法では、ビルボードプリミティブ面を用いないため、照明画像を生成するために必要なプリミティブ面の数が増えてしまい、処理負荷の増加等を招く。   As a third comparative example, there is also a method of arranging a normal primitive surface that is not a billboard so as to be orthogonal to the virtual normal vector set as shown in FIG. 4A without using the billboard primitive surface. Conceivable. However, since the billboard primitive surface is not used in the method of the third comparative example, the number of primitive surfaces necessary for generating an illumination image increases, resulting in an increase in processing load.

これに対して本実施形態では、図4(A)〜図5(B)に示すように、仮想法線ベクトルの配置設定とは独立にビルボードプリミティブ面が配置設定される。従って、図4(A)のように配置設定された仮想法線ベクトルNを用いて図6〜図8に示すようなナイター照明のリアルな表現を実現しながらも、図5(A)(B)に示すようにビルボードプリミティブ面を配置設定することで、使用されるプリミティブ面数を節約できる。従って、少ない処理負荷、少ない使用メモリ容量でリアルなハイライト表現を実現できる。   On the other hand, in the present embodiment, as shown in FIGS. 4A to 5B, the billboard primitive plane is set and set independently of the setting of the virtual normal vector. Therefore, while realizing a realistic expression of night lighting as shown in FIGS. 6 to 8 using the virtual normal vector N set as shown in FIG. 4A, FIG. 5A and FIG. By arranging and setting the billboard primitive plane as shown in (2), the number of primitive planes used can be saved. Therefore, realistic highlight expression can be realized with a small processing load and a small memory capacity.

2.2 α値の設定
図9(A)(B)に、ビルボードプリミティブ面にマッピングされる照明テクスチャの例を示す。本実施形態では、ビルボード設定部118が、ベースサイズが異なる複数種類のビルボードプリミティブ面の設定処理を行う。そしてベースサイズが小さい第1の種類のビルボードプリミティブ面には図9(A)の照明テクスチャがマッピングされ、ベースサイズが大きい第2の種類のビルボードプリミティブ面には図9(B)の照明テクスチャがマッピングされる。そしてベースサイズの大きい第2の種類のビルボードプリミティブ面は、照明オブジェクトLOBの照明面の数箇所の場所に散在して配置される。これにより、ナイター照明などにおいて一部のライトだけが強く光って見える様子をリアルに表現できる。なお、ベースサイズが異なるビルボードプリミティブ面の種類は2種類に限定されず、3種類以上であってもよい。またベースサイズとは、角度パラメータAPに基づいてビルボードプリミティブ面のサイズを変化させる時の基本となるサイズ(最小値のサイズ)である。
2.2 Setting α Value FIGS. 9A and 9B show examples of illumination textures mapped to the billboard primitive surface. In the present embodiment, the billboard setting unit 118 performs setting processing for a plurality of types of billboard primitive surfaces having different base sizes. The lighting texture of FIG. 9A is mapped to the first type of billboard primitive surface having a small base size, and the lighting of FIG. 9B is applied to the second type of billboard primitive surface having a large base size. Texture is mapped. The second type billboard primitive surface having a large base size is scattered and arranged at several locations on the illumination surface of the illumination object LOB. As a result, it is possible to realistically represent a state in which only some of the lights appear to shine strongly in night lighting or the like. Note that the types of billboard primitive surfaces with different base sizes are not limited to two, and may be three or more. The base size is a basic size (minimum size) when changing the size of the billboard primitive surface based on the angle parameter AP.

本実施形態では、図4(B)の手法で得られた角度パラメータAPに基づいて、ビルボードプリミティブ面のα値を設定する。そして図9(A)(B)に示すような照明テクスチャがマッピングされるビルボードプリミティブ面を、設定されたα値に基づいて、照明オブジェクトLOBの各点に対応する位置(例えば透視投影点)に例えばα加算ブレンディングで描画する。このようにすれば、背景画像に、ビルボードプリミティブ面がα加算ブレンディングで描画されて、図6〜図8に示すような画像を生成できる。そして図6の照明オブジェクトLOBの左側部分では、α値が大きなビルボードプリミティブ面が描画されるため、α加算ブレンディングによりその場所の色が真っ白に近づき、強いハイライトが生じる。一方、図6の照明オブジェクトLOBの右側部分では、α値が小さなビルボードプリミティブ面が描画されるため、ハイライトは弱くなる。このように本実施形態では、角度パラメータAPに基づいてビルボードプリミティブ面のα値を制御することで、リアルなハイライト表現を実現している。   In the present embodiment, the α value of the billboard primitive surface is set based on the angle parameter AP obtained by the method of FIG. Then, positions (for example, perspective projection points) corresponding to each point of the illumination object LOB on the billboard primitive surface to which the illumination texture as shown in FIGS. 9A and 9B is mapped, based on the set α value. For example, drawing is performed by α addition blending. In this way, the billboard primitive plane is drawn on the background image by α addition blending, and images as shown in FIGS. 6 to 8 can be generated. In the left part of the lighting object LOB in FIG. 6, since the billboard primitive surface having a large α value is drawn, the color of the place approaches white due to α addition blending, and a strong highlight is generated. On the other hand, in the right part of the lighting object LOB in FIG. 6, since the billboard primitive surface having a small α value is drawn, the highlight becomes weak. As described above, in the present embodiment, realistic highlight expression is realized by controlling the α value of the billboard primitive surface based on the angle parameter AP.

なお本実施形態では図10に示すように、照明エフェクトのベーステクスチャがマッピングされるベースプリミティブ面を、まず描画する。このベーステクスチャは、図9(A)(B)の照明テクスチャの下地となるテクスチャである。またベースプリミティブ面は、照明オブジェクトLOBの照明面に沿って配置設定されるプリミティブ面であり、本実施形態では例えば複数のベースプリミティブ面が照明面に沿って配置設定される。   In the present embodiment, as shown in FIG. 10, the base primitive surface to which the base texture of the lighting effect is mapped is first drawn. This base texture is a texture serving as a base of the illumination texture shown in FIGS. The base primitive surface is a primitive surface arranged and set along the illumination surface of the illumination object LOB. In this embodiment, for example, a plurality of base primitive surfaces are arranged and set along the illumination surface.

そして本実施形態では、図10のようなベーステクスチャがマッピングされたベースプリミティブ面にオーバーラップするように、図9(A)(B)の照明テクスチャがマッピングされたビルボードプリミティブ面を描画する。これにより、図11に示すようなハイライトエフェクトが表現された照明オブジェクトの画像を生成できる。例えば図10のようなベースプリミティブ面の描画を行わずに、照明エフェクト用のビルボードプリミティブ面だけを描画すると、照明オブジェクトLOBが全体的に光って見える様子を表現するのが難しくなる。これに対して図10のようなベースプリミティブ面の描画を行うようにすれば、ビルボードプリミティブ面間の領域にもベーステクスチャの照明画像が描画されるようになるため、照明オブジェクトLOBが全体的に光って見える様子をリアルに表現できるようになる。なお、照明オブジェクトの種類によっては、このようなベースプリミティブ面の描画を行わない手法を採用してもよい。   In this embodiment, the billboard primitive surface to which the illumination textures of FIGS. 9A and 9B are mapped is drawn so as to overlap the base primitive surface to which the base texture as shown in FIG. 10 is mapped. Thereby, an image of a lighting object in which a highlight effect as shown in FIG. 11 is expressed can be generated. For example, if only the billboard primitive surface for the lighting effect is drawn without drawing the base primitive surface as shown in FIG. 10, it becomes difficult to express a state in which the lighting object LOB appears to shine as a whole. On the other hand, if the base primitive surface as shown in FIG. 10 is drawn, the illumination image of the base texture is drawn also in the area between the billboard primitive surfaces. It will be possible to express realistically how it looks shining. Depending on the type of lighting object, a technique that does not draw such a base primitive surface may be employed.

2.3 サイズの設定
本実施形態では図4(B)に示すように、視線方向ベクトルSDと仮想法線ベクトルNとのなす角度の大小を表す角度パラメータAP(SDとNの内積)に基づいて、ビルボードプリミティブ面のサイズ(高さ、幅)を設定している。例えば角度パラメータAPが大きい場合(例えばAP=1.0)には、ビルボードプリミティブ面のサイズを大きくし、APが小さい場合(例えばAP=0.0)には、ビルボードプリミティブ面のサイズを小さくする。このように、角度パラメータAPによりそのサイズが設定されるビルボードプリミティブ面の描画処理は、例えば図12(A)(B)に示すような手法により実現できる。
2.3 Size Setting In this embodiment, as shown in FIG. 4B, the size is based on an angle parameter AP (inner product of SD and N) indicating the magnitude of the angle formed by the line-of-sight direction vector SD and the virtual normal vector N. The size (height and width) of the billboard primitive surface is set. For example, when the angle parameter AP is large (for example, AP = 1.0), the size of the billboard primitive surface is increased. When the AP is small (for example, AP = 0.0), the size of the billboard primitive surface is increased. Make it smaller. As described above, the billboard primitive surface drawing process whose size is set by the angle parameter AP can be realized by a technique as shown in FIGS. 12A and 12B, for example.

図12(A)では、仮想法線ベクトルNが設定される照明オブジェクトの各点(Nの始点、ライト位置)をスクリーンSC(透視投影面)に透視投影する。そして得られた透視投影点にビルボードプリミティブ面を描画している。このようにすれば、仮想カメラに常に正対するビルボードプリミティブ面を簡素な処理で描画できるようになる。   In FIG. 12A, each point (starting point of N, light position) of the illumination object for which the virtual normal vector N is set is perspectively projected on the screen SC (perspective projection plane). A billboard primitive surface is drawn at the obtained perspective projection point. In this way, it is possible to draw a billboard primitive surface that is always facing the virtual camera with a simple process.

そして図12(B)では、角度パラメータAPに基づいてビルボードプリミティブ面BPのサイズDX、DY(X方向、Y方向のサイズ)を設定し、設定されたサイズDX、DYと透視投影点PPの座標(PX、PY)とに基づいてビルボードプリミティブ面BPの頂点V1〜V4の座標を求める。そしてこの求められた頂点V1〜V4の座標で特定されるビルボードプリミティブ面BPを描画する。このようにすれば、常に仮想カメラに正対するビルボードプリミティブ面BPを簡素な処理で描画できると共に、描画されるビルボードプリミティブ面のサイズを、角度パラメータAPに応じて変化させることが可能になる。   In FIG. 12B, the sizes DX and DY (sizes in the X direction and Y direction) of the billboard primitive plane BP are set based on the angle parameter AP, and the set sizes DX and DY and the perspective projection point PP are set. Based on the coordinates (PX, PY), the coordinates of the vertices V1 to V4 of the billboard primitive plane BP are obtained. Then, the billboard primitive plane BP specified by the coordinates of the obtained vertices V1 to V4 is drawn. In this way, it is possible to always draw the billboard primitive surface BP directly facing the virtual camera by a simple process and change the size of the billboard primitive surface to be drawn according to the angle parameter AP. .

なお、ビルボードプリミティブ面BPとしてスプライトを用いる場合には、2つの頂点(例えばV1とV3)の座標を求めて特定するだけで、そのビルボードスプライトを描画できる。一方、ビルボードプリミティブ面BPとしてポリゴンを用いる場合には、4つの頂点(例V1〜V4)の座標を求めて特定する必要がある。従って、処理負荷の軽減のためには、2つの頂点の特定だけで済むスプライトを用いることが望ましい。   When a sprite is used as the billboard primitive surface BP, the billboard sprite can be drawn only by obtaining and specifying the coordinates of two vertices (for example, V1 and V3). On the other hand, when a polygon is used as the billboard primitive surface BP, it is necessary to obtain and specify the coordinates of four vertices (examples V1 to V4). Therefore, in order to reduce the processing load, it is desirable to use a sprite that only needs to specify two vertices.

なおビルボードプリミティブ面の描画手法は、図12(A)(B)に示す手法に限定されない。例えば3次元のオブジェクト空間内の照明オブジェクトLOBの各点に、ビルボードプリミティブ面を配置し、そのビルボードプリミティブ面をスクリーンに透視変換(透視投影)して描画するようにしてもよい。この場合には、ビルボードプリミティブ面が仮想カメラに常に正対するように、ビルボードプリミティブ面の回転角度(X、Y、Z軸での回転角度)を制御すればよい。   Note that the billboard primitive surface drawing method is not limited to the method shown in FIGS. For example, a billboard primitive surface may be arranged at each point of the lighting object LOB in the three-dimensional object space, and the billboard primitive surface may be drawn by perspective transformation (perspective projection) on the screen. In this case, the rotation angle of the billboard primitive surface (rotation angles on the X, Y, and Z axes) may be controlled so that the billboard primitive surface always faces the virtual camera.

3.本実施形態の処理
次に、本実施形態の詳細な処理例について図13のフローチャートを用いて説明する。
3. Processing of this Embodiment Next, a detailed processing example of this embodiment will be described with reference to the flowchart of FIG.

まず仮想カメラのカメラ回転行列に基づいて、仮想法線ベクトルを回転する(ステップS1)。これにより、カメラ座標系(視点座標系)での仮想法線ベクトルの座標成分(NX、NY、NZ)が求まる。そして、回転後の仮想法線ベクトルのZ成分NZを符号反転して角度パラメータAP=−NZを求める(ステップS2)。この場合、仮想法線ベクトルが仮想カメラから見て表向きのベクトルである場合には、0≦AP≦1になり、裏向きのベクトルである場合には、−1≦AP<0になる。更に具体的には、仮想法線ベクトルと視線法線ベクトルとのなす角度が180度の時にはAP=−NZ=1になり、90度の時にはAP=−NZ=0になり、0度の時にはAP=−NZ=−1になる。   First, the virtual normal vector is rotated based on the camera rotation matrix of the virtual camera (step S1). Thereby, the coordinate components (NX, NY, NZ) of the virtual normal vector in the camera coordinate system (viewpoint coordinate system) are obtained. Then, the angle parameter AP = −NZ is obtained by inverting the sign of the Z component NZ of the virtual normal vector after rotation (step S2). In this case, 0 ≦ AP ≦ 1 when the virtual normal vector is a front-facing vector as viewed from the virtual camera, and −1 ≦ AP <0 when the vector is a back-facing vector. More specifically, AP = −NZ = 1 when the angle formed by the virtual normal vector and the line-of-sight normal vector is 180 degrees, AP = −NZ = 0 when the angle is 90 degrees, and 0 degrees when the angle is 0 degrees. AP = −NZ = −1.

次にAPが0より小さいか否か(裏向きか否か)を判断する(ステップS3)。そしてAP<0の場合にはステップS9に移行する。一方、AP≧0の時には、ビルボードプリミティブ面(ポリゴン、スプライト)に設定するα値を求める(ステップS4)。具体的には例えばα=AP×MAXαの計算式でα値を求める。ここでMAXαはα値の最大値である。   Next, it is determined whether AP is smaller than 0 (whether it is facing down) (step S3). If AP <0, the process proceeds to step S9. On the other hand, when AP ≧ 0, an α value set for the billboard primitive surface (polygon, sprite) is obtained (step S4). Specifically, for example, the α value is obtained by a formula of α = AP × MAXα. Here, MAXα is the maximum α value.

次に図12(A)で説明したように、仮想法線ベクトルが設定されるされる照明オブジェクトの各点(始点)をスクリーンに透視投影した点PP(PX、PY)を求める(ステップS5)。そしてベースサイズMINX、MINYと拡大率WDTX、WDTYと角度パラメータAPとに基づきDX、DYを求める(ステップS6)。具体的にはDX=MINX+AP×WDTX、DY=MINY+AP×WDTYの計算式でDX、DYを求める。なお、MINX=MINY、WDTX=WDTYとすることができる。   Next, as described with reference to FIG. 12A, a point PP (PX, PY) obtained by perspectively projecting each point (start point) of the illumination object to which the virtual normal vector is set on the screen is obtained (step S5). . Then, DX and DY are obtained based on the base sizes MINX and MINY, the enlargement ratios WDTX and WDTY, and the angle parameter AP (step S6). Specifically, DX and DY are obtained by the following formula: DX = MINX + AP × WDTX, DY = MINY + AP × WDTY. Note that MINX = MINY and WDTX = WDTY.

次に、図12(B)で説明したように、ビルボードプリミティブ面の左上の頂点V1(X1,Y1)と右下の頂点V3(X3,Y3)を求める(ステップS7)。具体的には、X1=PX−DX、Y1=PY−DY、X3=PX+DX、Y3=PY+DYの計算式で、V1(X1,Y1)、V3(X3,Y3)を求める。そしてV1,V3で特定されるビルボードプリミティブ面(ビルボードスプライト)を、ステップS4で求められたα値に基づき加算αブレンディングで描画する(ステップS8)。そして、全てのライト(仮想法線ベクトル)についての処理が終了したか否かを判断し(ステップS9)、終了した場合にはステップS1に戻り、次のライト(仮想法線ベクトル)についての処理に移行する。   Next, as described with reference to FIG. 12B, the upper left vertex V1 (X1, Y1) and the lower right vertex V3 (X3, Y3) of the billboard primitive surface are obtained (step S7). Specifically, V1 (X1, Y1) and V3 (X3, Y3) are obtained by the following formulas: X1 = PX-DX, Y1 = PY-DY, X3 = PX + DX, Y3 = PY + DY. Then, the billboard primitive plane (billboard sprite) specified by V1 and V3 is drawn by addition α blending based on the α value obtained in step S4 (step S8). Then, it is determined whether or not the processing for all the lights (virtual normal vectors) has been completed (step S9). If completed, the process returns to step S1, and the processing for the next light (virtual normal vectors) is performed. Migrate to

4.ハードウェア構成
図14に本実施形態を実現できるハードウェア構成の例を示す。メインプロセッサ900は、CD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
4). Hardware Configuration FIG. 14 shows an example of a hardware configuration capable of realizing this embodiment. The main processor 900 operates based on a program stored in a CD 982 (information storage medium), a program downloaded via the communication interface 990, a program stored in the ROM 950, or the like, and includes game processing, image processing, sound processing, and the like. Execute. The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is required for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.

ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。   The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and executes matrix calculation at high speed. The data decompression processor 906 performs decoding processing of compressed image data and sound data, and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。   The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture. The drawing processor 910 also performs α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.

ROM950にはシステムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。CDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるCD982にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950. The RAM 960 is a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The CD drive 980 accesses a CD 982 in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).

なお本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   The processing of each unit (each unit) in this embodiment may be realized entirely by hardware, or may be realized by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be realized by both hardware and a program.

そして本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。   When the processing of each part of this embodiment is realized by both hardware and a program, a program for causing the hardware (computer) to function as each part of this embodiment is stored in the information storage medium. More specifically, the program instructs the processors 902, 904, 906, 910, and 930, which are hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930 realizes the processing of each unit of the present invention based on the instruction and the passed data.

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語(αブレンディング、プリミティブ面等)として引用された用語(加算αブレンディング、ポリゴン・スプライト等)は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。   The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms (additional α blending, polygon sprites, etc.) cited as broad or synonymous terms (α blending, primitive surface, etc.) in the description in the specification or drawings are used in other descriptions in the specification or drawings. Can also be replaced with broad or synonymous terms.

また仮想法線ベクトルの配置手法、ビルボードプリミティブ面の配置手法や描画手法、ビルボードプリミティブ面のサイズやα値の設定手法も、本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。   Also, the virtual normal vector placement method, billboard primitive surface placement method and drawing method, billboard primitive surface size and α value setting method are not limited to those described in this embodiment, and are equivalent to these. Techniques are also included in the scope of the present invention.

また本実施形態では、ビルボードプリミティブ面のα値を制御することで、ハイライトエフェクト(照明エフェクト)の明るさを制御する場合について説明した。しかしながら本発明はこれに限定されず、ビルボードプリミティブ面の輝度(R、G、Bの輝度)や明度や彩度などの明るさパラメータを制御して、ハイライトエフェクトの明るさを制御してもよい。   In the present embodiment, the case where the brightness of the highlight effect (lighting effect) is controlled by controlling the α value of the billboard primitive surface has been described. However, the present invention is not limited to this, and brightness parameters such as brightness (R, G, B brightness), brightness, and saturation of the billboard primitive surface are controlled to control the brightness of the highlight effect. Also good.

また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. it can.

本実施形態の画像生成システムの機能ブロック図の例。The example of a functional block diagram of the image generation system of this embodiment. 照明オブジェクトの例。An example of a lighting object. 仮想法線ベクトルの設定例。Setting example of virtual normal vector. 図4(A)(B)は本実施形態の手法の説明図。4A and 4B are explanatory diagrams of the method of this embodiment. 図5(A)(B)も本実施形態の手法の説明図。5A and 5B are also explanatory diagrams of the method of the present embodiment. 本実施形態の手法で生成された画像の例。The example of the image produced | generated by the method of this embodiment. 本実施形態の手法で生成された画像の例。The example of the image produced | generated by the method of this embodiment. 本実施形態の手法で生成された画像の例。The example of the image produced | generated by the method of this embodiment. 図9(A)(B)は照明テクスチャの例。9A and 9B are examples of illumination textures. ベーステクスチャ、ベースプリミティブ面の説明図。Explanatory drawing of a base texture and a base primitive surface. ベースプリミティブ面にオーバーラップしてビルボードプリミティブ面を描画する手法の説明図。Explanatory drawing of the method of drawing a billboard primitive surface overlapping with a base primitive surface. 図12(A)(B)もビルボードプリミティブ面の描画手法の説明図。FIGS. 12A and 12B are also explanatory diagrams of a drawing method of a billboard primitive surface. 本実施形態の具体的な処理のフローチャート。The flowchart of the specific process of this embodiment. ハードウェア構成例。Hardware configuration example.

符号の説明Explanation of symbols

LOB 照明オブジェクト、N 仮想法線ベクトル、
VC 仮想カメラ、SD 視線方向ベクトル、BP ビルボードプリミティブ面、
100 処理部、110 オブジェクト空間設定部、112 移動・動作処理部、
114 仮想カメラ制御部、116 パラメータ演算部、118 ビルボード設定部、
120 描画部、122 テクスチャマッピング部、124 α合成部、
130 音生成部、160 操作部、170 記憶部、172 描画バッファ、
174 テクスチャ記憶部、176 仮想法線ベクトル情報記憶部、
180 情報記憶媒体、190 表示部、
192 音出力部、194 携帯型情報記憶装置、196 通信部
LOB lighting object, N virtual normal vector,
VC virtual camera, SD line-of-sight vector, BP billboard primitive surface,
100 processing unit, 110 object space setting unit, 112 movement / motion processing unit,
114 virtual camera control unit, 116 parameter calculation unit, 118 billboard setting unit,
120 drawing unit, 122 texture mapping unit, 124 α composition unit,
130 sound generation unit, 160 operation unit, 170 storage unit, 172 drawing buffer,
174 texture storage unit, 176 virtual normal vector information storage unit,
180 information storage medium, 190 display unit,
192 sound output unit, 194 portable information storage device, 196 communication unit

Claims (10)

オブジェクト空間において仮想カメラから見える画像を生成するためのプログラムであって、
照明オブジェクトを含む複数のオブジェクトをオブジェクト空間に配置設定するオブジェクト空間設定部と、
仮想カメラを制御する仮想カメラ制御部と、
前記照明オブジェクトの各点に設定される照明エフェクト用の仮想法線ベクトルの情報を記憶する仮想法線ベクトル情報記憶部と、
仮想カメラの視線方向ベクトルと仮想法線ベクトルとのなす角度の大小を表す角度パラメータを、前記仮想法線ベクトル情報に基づいて求めるパラメータ演算部と、
仮想カメラに正対するように配置設定される照明エフェクト用のビルボードプリミティブ面のサイズ、α値、輝度、明度及び彩度の少なくとも1つを、前記角度パラメータに基づいて設定するビルボード設定部と、
前記ビルボードプリミティブ面を描画する描画部して、
コンピュータを機能させることを特徴とするプログラム。
A program for generating an image visible from a virtual camera in an object space,
An object space setting unit configured to place and set a plurality of objects including a lighting object in the object space;
A virtual camera control unit for controlling the virtual camera;
A virtual normal vector information storage unit that stores information on a virtual normal vector for a lighting effect set at each point of the lighting object;
A parameter calculation unit for obtaining an angle parameter indicating the magnitude of an angle formed by the visual line direction vector and the virtual normal vector of the virtual camera based on the virtual normal vector information;
A billboard setting unit configured to set at least one of a size, α value, luminance, brightness, and saturation of a billboard primitive surface for a lighting effect arranged and set to face the virtual camera based on the angle parameter; ,
As a drawing unit for drawing the billboard primitive surface,
A program characterized by causing a computer to function.
請求項1において、
前記仮想法線ベクトル情報記憶部が、
前記照明オブジェクトの照明画像が描かれる面である照明面の中心点から端辺に向かうにつれて、仮想法線ベクトルと前記照明面とのなす角度が90度から徐々に減少するように設定された仮想法線ベクトルの情報を記憶することを特徴とするプログラム。
In claim 1,
The virtual normal vector information storage unit is
A virtual set such that the angle formed by the virtual normal vector and the illumination plane gradually decreases from 90 degrees toward the end side from the center point of the illumination plane, which is the plane on which the illumination image of the illumination object is drawn. A program characterized by storing normal vector information.
請求項1又は2において、
前記ビルボード設定部が、
前記角度パラメータに基づいてビルボードプリミティブ面のα値を設定し、
前記描画部が、
照明テクスチャがマッピングされるビルボードプリミティブ面を、設定された前記α値に基づいてα加算ブレンディングで描画することを特徴とするプログラム。
In claim 1 or 2,
The billboard setting unit
Set the alpha value of the billboard primitive surface based on the angle parameter,
The drawing unit
A program characterized in that a billboard primitive surface to which a lighting texture is mapped is drawn by α addition blending based on the set α value.
請求項1乃至3のいずれかにおいて、
前記ビルボード設定部が、
ベースサイズが異なる複数種類のビルボードプリミティブ面の設定処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 3,
The billboard setting unit
A program that performs setting processing of a plurality of types of billboard primitive surfaces having different base sizes.
請求項1乃至4のいずれかにおいて、
前記描画部が、
照明エフェクトのベーステクスチャがマッピングされるベースプリミティブ面を描画し、そのベースプリミティブ面にオーバーラップするように、前記ビルボードプリミティブ面を描画することを特徴とするプログラム。
In any one of Claims 1 thru | or 4,
The drawing unit
A program that draws a base primitive surface to which a base texture of a lighting effect is mapped, and draws the billboard primitive surface so as to overlap the base primitive surface.
請求項1乃至5のいずれかにおいて、
前記描画部が、
前記仮想法線ベクトルが設定される照明オブジェクトの各点をスクリーン上に透視投影した点に、ビルボードプリミティブ面を描画することを特徴とするプログラム。
In any one of Claims 1 thru | or 5,
The drawing unit
A program for drawing a billboard primitive plane at a point obtained by perspectively projecting each point of a lighting object to which the virtual normal vector is set on a screen.
請求項6において、
前記ビルボード設定部が、
前記角度パラメータに基づいてビルボードプリミティブ面のサイズを設定し、設定されたサイズと前記透視投影点の座標とに基づいてビルボードプリミティブ面の頂点座標を求め、
前記描画部が、
求められた頂点座標で特定されるビルボードプリミティブ面を描画することを特徴とするプログラム。
In claim 6,
The billboard setting unit
Set the size of the billboard primitive surface based on the angle parameter, determine the vertex coordinates of the billboard primitive surface based on the set size and the coordinates of the perspective projection point,
The drawing unit
A program for drawing a billboard primitive surface specified by the obtained vertex coordinates.
請求項1乃至7のいずれかにおいて、
前記パラメータ演算部が、
仮想カメラのカメラ回転行列に基づいて前記仮想法線ベクトルを回転させ、回転後の仮想法線ベクトルのZ成分を符号反転したものを、前記角度パラメータとして求めることを特徴とするプログラム。
In any one of Claims 1 thru | or 7,
The parameter calculation unit is
A program characterized in that the virtual normal vector is rotated based on a camera rotation matrix of a virtual camera, and the Z component of the rotated virtual normal vector is sign-inverted and obtained as the angle parameter.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至8のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 8 is stored. オブジェクト空間において仮想カメラから見える画像を生成する画像生成システムであって、
照明オブジェクトを含む複数のオブジェクトをオブジェクト空間に配置設定するオブジェクト空間設定部と、
仮想カメラを制御する仮想カメラ制御部と、
前記照明オブジェクトの各点に設定される照明エフェクト用の仮想法線ベクトルの情報を記憶する仮想法線ベクトル情報記憶部と、
仮想カメラの視線方向ベクトルと仮想法線ベクトルとのなす角度の大小を表す角度パラメータを、前記仮想法線ベクトル情報に基づいて求めるパラメータ演算部と、
仮想カメラに正対するように配置設定される照明エフェクト用のビルボードプリミティブ面のサイズ、α値、輝度、明度及び彩度の少なくとも1つを、前記角度パラメータに基づいて設定するビルボード設定部と、
前記ビルボードプリミティブ面を描画する描画部とを含むことを特徴とする画像生成システム。
An image generation system for generating an image visible from a virtual camera in an object space,
An object space setting unit configured to place and set a plurality of objects including a lighting object in the object space;
A virtual camera control unit for controlling the virtual camera;
A virtual normal vector information storage unit that stores information on a virtual normal vector for a lighting effect set at each point of the lighting object;
A parameter calculation unit for obtaining an angle parameter indicating the magnitude of an angle formed by the visual line direction vector and the virtual normal vector of the virtual camera based on the virtual normal vector information;
A billboard setting unit configured to set at least one of a size, α value, luminance, brightness, and saturation of a billboard primitive surface for a lighting effect arranged and set to face the virtual camera based on the angle parameter; ,
An image generation system comprising: a drawing unit that draws the billboard primitive surface.
JP2004087992A 2004-03-24 2004-03-24 Program, information storage medium, and image generation system Expired - Fee Related JP4528008B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004087992A JP4528008B2 (en) 2004-03-24 2004-03-24 Program, information storage medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004087992A JP4528008B2 (en) 2004-03-24 2004-03-24 Program, information storage medium, and image generation system

Publications (2)

Publication Number Publication Date
JP2005275796A true JP2005275796A (en) 2005-10-06
JP4528008B2 JP4528008B2 (en) 2010-08-18

Family

ID=35175413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004087992A Expired - Fee Related JP4528008B2 (en) 2004-03-24 2004-03-24 Program, information storage medium, and image generation system

Country Status (1)

Country Link
JP (1) JP4528008B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007098051A (en) * 2005-10-07 2007-04-19 Samii Kk Game machine
JP2009110316A (en) * 2007-10-30 2009-05-21 Konami Digital Entertainment Co Ltd Image processor and control method and program for image processor
JP2012190146A (en) * 2011-03-09 2012-10-04 Konami Digital Entertainment Co Ltd Image processing device, image processing method, and image processing program
JP2017148208A (en) * 2016-02-24 2017-08-31 株式会社カプコン Game program and game system
JP2018163566A (en) * 2017-03-27 2018-10-18 東芝ライテック株式会社 Generation device and information processing system
CN113450444A (en) * 2021-07-09 2021-09-28 网易(杭州)网络有限公司 Method and device for generating illumination map, storage medium and electronic equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09161094A (en) * 1995-12-12 1997-06-20 Hitachi Ltd Picture generating device
JP2001005997A (en) * 1999-06-24 2001-01-12 Namco Ltd Method and device for displaying light source
JP2001229404A (en) * 2000-02-17 2001-08-24 Namco Ltd Game system and information storage medium
JP2001325605A (en) * 2000-05-17 2001-11-22 Namco Ltd Game system and information storage medium
JP2003141560A (en) * 2001-10-31 2003-05-16 Koei:Kk Image generating method, recording medium, image generator, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09161094A (en) * 1995-12-12 1997-06-20 Hitachi Ltd Picture generating device
JP2001005997A (en) * 1999-06-24 2001-01-12 Namco Ltd Method and device for displaying light source
JP2001229404A (en) * 2000-02-17 2001-08-24 Namco Ltd Game system and information storage medium
JP2001325605A (en) * 2000-05-17 2001-11-22 Namco Ltd Game system and information storage medium
JP2003141560A (en) * 2001-10-31 2003-05-16 Koei:Kk Image generating method, recording medium, image generator, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007098051A (en) * 2005-10-07 2007-04-19 Samii Kk Game machine
JP2009110316A (en) * 2007-10-30 2009-05-21 Konami Digital Entertainment Co Ltd Image processor and control method and program for image processor
JP2012190146A (en) * 2011-03-09 2012-10-04 Konami Digital Entertainment Co Ltd Image processing device, image processing method, and image processing program
JP2017148208A (en) * 2016-02-24 2017-08-31 株式会社カプコン Game program and game system
JP2018163566A (en) * 2017-03-27 2018-10-18 東芝ライテック株式会社 Generation device and information processing system
JP7141200B2 (en) 2017-03-27 2022-09-22 東芝ライテック株式会社 Information processing system
CN113450444A (en) * 2021-07-09 2021-09-28 网易(杭州)网络有限公司 Method and device for generating illumination map, storage medium and electronic equipment

Also Published As

Publication number Publication date
JP4528008B2 (en) 2010-08-18

Similar Documents

Publication Publication Date Title
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP4651527B2 (en) Program, information storage medium, and image generation system
JP3748451B1 (en) Program, information storage medium, and image generation system
JP2005319029A (en) Program, information storage medium, and image generating system
JP4502678B2 (en) Program, information storage medium, and image generation system
JP4528008B2 (en) Program, information storage medium, and image generation system
JP4073031B2 (en) Program, information storage medium, and image generation system
JP2006323512A (en) Image generation system, program, and information storage medium
JP2007272356A (en) Program, information storage medium and image generation system
JP4488346B2 (en) Program, information storage medium, and image generation system
JP4707078B2 (en) Image generation system, program, and information storage medium
JP4913399B2 (en) Program, information storage medium, and image generation system
JP2004341570A (en) Image generation system, program and information storage medium
JP4187192B2 (en) Image generation system, program, and information storage medium
JP2007272388A (en) Program, information storage medium and image generation system
JP4229317B2 (en) Image generation system, program, and information storage medium
JP4574058B2 (en) Image generation system, program, and information storage medium
JP4704615B2 (en) Image generation system, program, and information storage medium
JP4698701B2 (en) Image generation system, program, and information storage medium
JP4592087B2 (en) Image generation system, program, and information storage medium
JP4728510B2 (en) Image generation system, program, and information storage medium
JP2007164736A (en) Image generation system, program and information storage medium
JP2006252291A (en) Program, information storage medium and image generation system
JP4476040B2 (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100526

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100604

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4528008

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees