JP2001084391A - Image generation system and information storage medium - Google Patents

Image generation system and information storage medium

Info

Publication number
JP2001084391A
JP2001084391A JP25618799A JP25618799A JP2001084391A JP 2001084391 A JP2001084391 A JP 2001084391A JP 25618799 A JP25618799 A JP 25618799A JP 25618799 A JP25618799 A JP 25618799A JP 2001084391 A JP2001084391 A JP 2001084391A
Authority
JP
Japan
Prior art keywords
texture
coordinates
shadow
projection
information storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP25618799A
Other languages
Japanese (ja)
Other versions
JP3254195B2 (en
Inventor
Kenji Saito
健司 斎藤
Atsushi Nakagawa
淳 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP25618799A priority Critical patent/JP3254195B2/en
Publication of JP2001084391A publication Critical patent/JP2001084391A/en
Application granted granted Critical
Publication of JP3254195B2 publication Critical patent/JP3254195B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image generation system and an information storage medium capable of realistically expressing shadows and highlights, etc. SOLUTION: The vertex of a car object 10 is projected in a projection direction, U and V coordinates of texture 20 for the highlight are calculated based on the X and Y coordinates of the vertex after projection and source picture texture and the texture for the highlight (or for the shadow) are multi-texture mapped on the car object. Then, an image from a virtual camera is generated by an optional position and direction. An offset value, a scaling value or the projection direction at the time of calculating the U and V coordinates from the X and Y coordinates is changed in real time. By executing a geometry processing to a shadow object, the texture for the shadow is generated. By superimposing and plotting an object for which the source picture texture is mapped and the object for which the texture for the highlight (for the shadow) is mapped, multi-texture mapping is realized.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像生成システム
及び情報記憶媒体に関する。
[0001] The present invention relates to an image generation system and an information storage medium.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】従来よ
り、仮想的な3次元空間であるオブジェクト空間内の所
与の視点(仮想カメラ)から見える画像を生成する画像
生成システムが知られており、いわゆる仮想現実を体験
できるものとして人気が高い。レーシングゲームを楽し
むことができる画像生成システムを例にとれば、プレー
ヤは、レーシングカー(オブジェクト)を操作してオブ
ジェクト空間内で走行させ、他のプレーヤやコンピュー
タが操作するレーシングカーと競争することで3次元ゲ
ームを楽しむ。
2. Description of the Related Art Conventionally, there has been known an image generation system for generating an image viewed from a given viewpoint (virtual camera) in an object space which is a virtual three-dimensional space. It is very popular for experiencing what is called virtual reality. Taking an image generation system that can enjoy a racing game as an example, a player operates a racing car (object) to run in an object space and competes with a racing car operated by another player or a computer. Enjoy a 3D game.

【0003】このような画像生成システムでは、プレー
ヤの仮想現実感の向上のために、よりリアルな画像を生
成することが重要な技術的課題になっている。このた
め、オブジェクトの影や、ハイライト表示などについて
も、よりリアルに表現できることが望まれる。
In such an image generation system, generating a more realistic image is an important technical problem in order to improve the virtual reality of the player. For this reason, it is desired that the shadow and highlight display of the object can be expressed more realistically.

【0004】そして、影やハイライトを表現する1つの
手法として、例えば次のような手法を考えることができ
る。即ち、この手法では、影を表すための影オブジェク
トや、ハイライトを表すためのハイライトオブジェクト
を予め用意しておく。そして、これらの影オブジェク
ト、ハイライトオブジェクトを、道路、車などのオブジ
ェクトの上に重ねて配置することで、影やハイライトを
表現する。
[0004] As one technique for expressing shadows and highlights, for example, the following technique can be considered. That is, in this method, a shadow object for representing a shadow and a highlight object for representing a highlight are prepared in advance. Then, by placing these shadow objects and highlight objects on top of objects such as roads and cars, shadows and highlights are expressed.

【0005】しかしながら、この手法には、以下のよう
な問題点がある。
However, this method has the following problems.

【0006】即ち、影オブジェクトやハイライトオブジ
ェクトが配置されるオブジェクト(道路、車)の面がフ
ラットな場合には問題はないが、面に段差がある場合に
は、影オブジェクトやハイライトオブジェクトが、面か
ら浮いているように見えたり、面の下に潜り込んでいる
ように見えてしまう。即ち、影オブジェクトやハイライ
トオブジェクトの形状と段差の形状との間の整合性が保
たれず、不自然な画像が生成されてしまう。
That is, there is no problem when the surface of the object (road, car) on which the shadow object or the highlight object is arranged is flat, but when the surface has a step, the shadow object or the highlight object is removed. , It looks like it's floating from the surface, or it looks like it's dive under the surface. That is, consistency between the shape of the shadow object or the highlight object and the shape of the step is not maintained, and an unnatural image is generated.

【0007】本発明は、以上のような課題に鑑みてなさ
れたものであり、その目的とするところは、影やハイラ
イト等のリアルな表現を可能にする画像生成システム及
び情報記憶媒体を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to provide an image generation system and an information storage medium which enable realistic representation of shadows and highlights. Is to do.

【0008】[0008]

【課題を解決するための手段】上記課題を解決するため
に、本発明は、画像を生成するための画像生成システム
であって、第1のオブジェクトの頂点を所与の投影方向
で投影し、投影により得られた頂点の第1、第2の座標
に基づいて、投影テクスチャの第1、第2のテクスチャ
座標を算出するテクスチャ座標算出手段と、第1のオブ
ジェクトの元絵テクスチャと、算出された前記第1、第
2のテクスチャ座標により指定される投影テクスチャと
を、第1のオブジェクトにマッピングし、第1のオブジ
ェクトを描画する描画手段と、オブジェクト空間内にお
いて仮想カメラから見える画像を生成する手段とを含む
ことを特徴とする。また本発明に係る情報記憶媒体は、
コンピュータにより使用可能な情報記憶媒体であって、
上記手段を実行するためのプログラムを含むことを特徴
とする。また本発明に係るプログラムは、コンピュータ
により使用可能なプログラム(搬送波に具現化されるプ
ログラムを含む)であって、上記手段を実行するための
処理ルーチンを含むことを特徴とする。
According to the present invention, there is provided an image generating system for generating an image, comprising: projecting a vertex of a first object in a given projection direction; Texture coordinate calculating means for calculating first and second texture coordinates of the projected texture based on the first and second coordinates of the vertex obtained by the projection, and an original picture texture of the first object are calculated. The projection texture specified by the first and second texture coordinates is mapped to a first object, and a drawing means for drawing the first object, and an image viewed from a virtual camera in an object space are generated. Means. Further, the information storage medium according to the present invention,
An information storage medium usable by a computer,
It is characterized by including a program for executing the above means. Further, the program according to the present invention is a program usable by a computer (including a program embodied in a carrier wave), and includes a processing routine for executing the above means.

【0009】本発明によれば、第1のオブジェクトの頂
点が投影され、投影後の頂点の第1、第2の座標に基づ
いて、その頂点の第1、第2のテクスチャ座標が算出さ
れる。そして、元絵のテクスチャ(モデルデータのテク
スチャ)と、算出された第1、第2のテクスチャ座標に
より指定される投影テクスチャとが、第1のオブジェク
トにマッピングされ、仮想カメラから見える画像が生成
される。従って、本発明によれば、元絵のテクスチャと
投影テクスチャとがマルチテクスチャマッピングされた
オブジェクトを、任意の位置、任意の方向から見た場合
の画像を生成できる。これにより、ハイライトや影等の
リアルな表現が可能になり、画像のリアル度を高めるこ
とができる。
According to the present invention, the vertex of the first object is projected, and the first and second texture coordinates of the vertex are calculated based on the first and second coordinates of the projected vertex. . Then, the texture of the original picture (texture of the model data) and the projection texture specified by the calculated first and second texture coordinates are mapped to the first object, and an image viewed from the virtual camera is generated. You. Therefore, according to the present invention, it is possible to generate an image when an object in which the texture of the original picture and the projection texture are multi-textured is viewed from an arbitrary position and an arbitrary direction. This makes it possible to express highlights, shadows, and the like realistically, thereby increasing the degree of realism of the image.

【0010】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記テクスチャ座標算出手
段が、前記第1、第2の座標から前記第1、第2のテク
スチャ座標を算出する際のオフセット値又はスケーリン
グ値、或いは投影方向を、リアルタイムに変化させるこ
とを特徴とする。このようにすることで、投影テクスチ
ャにより表現される表示物(ハイライト、影等)の位置
や大きさ等をリアルタイムに変化させることが可能にな
り、多様で豊かな画像表現が可能になる。
The image generation system, the information storage medium, and the program according to the present invention are arranged such that the texture coordinate calculating means calculates an offset when the first and second texture coordinates are calculated from the first and second coordinates. The value or the scaling value or the projection direction is changed in real time. By doing so, it is possible to change the position, size, and the like of a display object (highlight, shadow, and the like) represented by the projection texture in real time, thereby enabling various and rich image expressions.

【0011】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記投影テクスチャが、第
1のオブジェクトをハイライト表示するためのハイライ
ト用テクスチャであることを特徴とする。このようにす
れば、第1のオブジェクトの任意の場所をハイライト表
示することが可能になり、優れた演出効果を実現でき
る。
Further, the image generation system, the information storage medium and the program according to the present invention are characterized in that the projection texture is a highlight texture for highlighting the first object. This makes it possible to highlight and display an arbitrary portion of the first object, and realize an excellent effect.

【0012】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記投影テクスチャが、第
1のオブジェクトに第2のオブジェクトの影を落とすた
めの影用テクスチャであることを特徴とする。このよう
にすれば、第2のオブジェクトの影を第1のオブジェク
トの任意の場所に落とす影表現が可能になり、画像のリ
アル度を増すことができる。
Further, the image generation system, the information storage medium and the program according to the present invention are characterized in that the projection texture is a shadow texture for casting a shadow of a second object on a first object. With this configuration, it is possible to perform a shadow expression in which the shadow of the second object is dropped on an arbitrary position of the first object, and it is possible to increase the degree of realism of the image.

【0013】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記第2のオブジェクトに
ジオメトリ処理を施すことで、前記影用テクスチャが生
成されることを特徴とする。このようにすれば、第2の
オブジェクトの形状が変化したり、投影方向が変化する
と、第1のオブジェクトに落とされる影の形状や位置も
変化するようになり、多様で豊かな画像表現が可能にな
る。
The image generation system, the information storage medium, and the program according to the present invention are characterized in that the shadow texture is generated by performing a geometry process on the second object. In this way, when the shape of the second object changes or the projection direction changes, the shape and position of the shadow cast on the first object also changes, enabling a variety of rich image expressions. become.

【0014】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記テクスチャ座標算出手
段が、第1のオブジェクトの頂点を所与の回転マトリク
スで回転させることで得られる頂点の第1、第2の座標
に基づいて、投影テクスチャの第1、第2のテクスチャ
座標を算出することを特徴とする。このようにすれば、
簡易な処理で、第1のオブジェクトの頂点を投影し、投
影後の頂点の第1、第2の座標を得ることが可能にな
る。
Further, the image generation system, the information storage medium and the program according to the present invention are characterized in that the texture coordinate calculating means rotates the vertices of the first object by a given rotation matrix to obtain the first and second vertices. The first and second texture coordinates of the projected texture are calculated based on the second coordinates. If you do this,
With a simple process, it is possible to project the vertices of the first object and obtain the first and second coordinates of the vertices after the projection.

【0015】また本発明に係る画像生成システム、情報
記憶媒体及びプログラムは、前記描画手段が、第1のオ
ブジェクトのオブジェクトデータと元絵テクスチャとに
基づいて、第1のオブジェクトを描画し、前記テクスチ
ャ座標算出手段が、第1のオブジェクトのオブジェクト
データに含まれる元絵テクスチャの第1、第2のテクス
チャ座標を、算出された投影テクスチャの第1、第2の
テクスチャ座標に置き換え、前記描画手段が、第1、第
2のテクスチャ座標が置き換えられたオブジェクトデー
タと前記投影テクスチャとに基づいて、第1のオブジェ
クトを描画することを特徴とする。このようにすれば、
1つのオブジェクトに複数のテクスチャを重ねてマッピ
ングするマルチテクスチャマッピング機能(狭義)を有
していないような画像生成システムでも、マルチテクス
チャマッピングを実現できるようになる。
Further, in the image generation system, the information storage medium and the program according to the present invention, the drawing means draws a first object based on object data of the first object and an original picture texture. The coordinate calculating means replaces the first and second texture coordinates of the original picture texture included in the object data of the first object with the first and second texture coordinates of the calculated projected texture. , The first object is drawn based on the object data in which the first and second texture coordinates have been replaced and the projection texture. If you do this,
Even an image generation system that does not have a multi-texture mapping function (in a narrow sense) that maps a plurality of textures onto one object in an overlapping manner can realize multi-texture mapping.

【0016】[0016]

【発明の実施の形態】以下、本発明の好適な実施形態に
ついて図面を用いて説明する。なお以下では、本発明
を、レーシングゲームに適用した場合を例にとり説明す
るが、本発明はこれに限定されず、種々のゲームに適用
できる。
Preferred embodiments of the present invention will be described below with reference to the drawings. In the following, the case where the present invention is applied to a racing game will be described as an example, but the present invention is not limited to this and can be applied to various games.

【0017】1.構成 図1に、本実施形態のブロック図の一例を示す。なお同
図において本実施形態は、少なくとも処理部100を含
めばよく(或いは処理部100と記憶部170、或いは
処理部100と記憶部170と情報記憶媒体180を含
めばよく)、それ以外のブロック(例えば操作部16
0、表示部190、音出力部192、携帯型情報記憶装
置194、通信部196)については、任意の構成要素
とすることができる。
1. Configuration FIG. 1 shows an example of a block diagram of the present embodiment. In the figure, the present embodiment only needs to include at least the processing unit 100 (or may include the processing unit 100 and the storage unit 170, or the processing unit 100 and the storage unit 170 and the information storage medium 180), and other blocks. (For example, the operation unit 16
0, the display unit 190, the sound output unit 192, the portable information storage device 194, and the communication unit 196) can be optional components.

【0018】ここで処理部100は、システム全体の制
御、システム内の各ブロックへの命令の指示、ゲーム処
理、画像処理、音処理などの各種の処理を行うものであ
り、その機能は、各種プロセッサ(CPU、DSP
等)、或いはASIC(ゲートアレイ等)などのハード
ウェアや、所与のプログラム(ゲームプログラム)によ
り実現できる。
The processing unit 100 performs various processes such as control of the entire system, instruction of instructions to each block in the system, game processing, image processing, and sound processing. Processor (CPU, DSP)
Or an ASIC (gate array or the like) or a given program (game program).

【0019】操作部160は、プレーヤが操作データを
入力するためのものであり、その機能は、レバー、ボタ
ン、筺体などのハードウェアにより実現できる。
The operation section 160 is used by a player to input operation data, and its function can be realized by hardware such as a lever, a button, and a housing.

【0020】記憶部170は、処理部100や通信部1
96などのワーク領域となるもので、その機能はRAM
などのハードウェアにより実現できる。
The storage unit 170 stores the processing unit 100 and the communication unit 1
A work area such as 96
It can be realized by hardware such as.

【0021】情報記憶媒体(コンピュータにより使用可
能な記憶媒体)180は、プログラムやデータなどの情
報を格納するものであり、その機能は、光ディスク(C
D、DVD)、光磁気ディスク(MO)、磁気ディス
ク、ハードディスク、磁気テープ、或いはメモリ(RO
M)などのハードウェアにより実現できる。処理部10
0は、この情報記憶媒体180に格納される情報に基づ
いて本発明(本実施形態)の種々の処理を行う。即ち情
報記憶媒体180には、本発明(本実施形態)の手段
(特に処理部100に含まれるブロック)を実行するた
めの情報(プログラム或いはプログラム及びデータ)が
格納される。
An information storage medium (storage medium that can be used by a computer) 180 stores information such as programs and data.
D, DVD), magneto-optical disk (MO), magnetic disk, hard disk, magnetic tape, or memory (RO
M) and the like. Processing unit 10
0 performs various processes of the present invention (the present embodiment) based on the information stored in the information storage medium 180. That is, the information storage medium 180 stores information (a program or a program and data) for executing the means (particularly, the blocks included in the processing unit 100) of the present invention (the present embodiment).

【0022】なお、情報記憶媒体180に格納される情
報の一部又は全部は、システムへの電源投入時等に記憶
部170に転送されることになる。また情報記憶媒体1
80に記憶される情報は、本発明の処理を行うためのプ
ログラムコード、画像データ、音データ、表示物の形状
データ、テーブルデータ、リストデータ、本発明の処理
を指示するための情報、その指示に従って処理を行うた
めの情報等の少なくとも1つを含むものである。
A part or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the power to the system is turned on. Information storage medium 1
The information stored in 80 is a program code for performing the processing of the present invention, image data, sound data, shape data of a display object, table data, list data, information for instructing the processing of the present invention, and instructions for the processing. The information includes at least one of information for performing processing according to.

【0023】表示部190は、本実施形態により生成さ
れた画像を出力するものであり、その機能は、CRT、
LCD、或いはHMD(ヘッドマウントディスプレイ)
などのハードウェアにより実現できる。
The display unit 190 outputs an image generated according to the present embodiment.
LCD or HMD (Head Mount Display)
It can be realized by hardware such as.

【0024】音出力部192は、本実施形態により生成
された音を出力するものであり、その機能は、スピーカ
などのハードウェアにより実現できる。
The sound output section 192 outputs the sound generated according to the present embodiment, and its function can be realized by hardware such as a speaker.

【0025】携帯型情報記憶装置194は、プレーヤの
個人データやセーブデータなどが記憶されるものであ
り、この携帯型情報記憶装置194としては、メモリカ
ードや携帯型ゲーム装置などを考えることができる。
The portable information storage device 194 stores personal data and save data of the player, and the portable information storage device 194 may be a memory card, a portable game device, or the like. .

【0026】通信部196は、外部(例えばホスト装置
や他の画像生成システム)との間で通信を行うための各
種の制御を行うものであり、その機能は、各種プロセッ
サ、或いは通信用ASICなどのハードウェアや、プロ
グラムなどにより実現できる。
The communication unit 196 performs various controls for communicating with an external device (for example, a host device or another image generation system), and has a function of various processors or a communication ASIC. Hardware and programs.

【0027】なお本発明(本実施形態)の手段を実行す
るためのプログラム或いはデータは、ホスト装置(サー
バー)が有する情報記憶媒体からネットワーク及び通信
部196を介して情報記憶媒体180に配信するように
してもよい。このようなホスト装置(サーバー)の情報
記憶媒体の使用も本発明の範囲内に含まれる。
A program or data for executing the means of the present invention (this embodiment) is distributed from the information storage medium of the host device (server) to the information storage medium 180 via the network and the communication unit 196. It may be. Use of the information storage medium of such a host device (server) is also included in the scope of the present invention.

【0028】処理部100は、ゲーム処理部110、画
像生成部130、音生成部150を含む。
The processing section 100 includes a game processing section 110, an image generation section 130, and a sound generation section 150.

【0029】ここでゲーム処理部110は、コイン(代
価)の受け付け処理、各種モードの設定処理、ゲームの
進行処理、選択画面の設定処理、オブジェクトの位置や
回転角度(X、Y又はZ軸回り回転角度)を求める処
理、オブジェクトを動作させる処理(モーション処
理)、視点の位置(仮想カメラの位置)や視線角度(仮
想カメラの回転角度)を求める処理、マップオブジェク
トなどのオブジェクトをオブジェクト空間へ配置する処
理、ヒットチェック処理、ゲーム結果(成果、成績)を
演算する処理、複数のプレーヤが共通のゲーム空間でプ
レイするための処理、或いはゲームオーバー処理などの
種々のゲーム処理を、操作部160からの操作データ
や、携帯型情報記憶装置194からの個人データ、保存
データや、ゲームプログラムなどに基づいて行う。
Here, the game processing section 110 performs processing for accepting coins (price), setting processing for various modes, processing for proceeding with a game, setting processing for a selection screen, the position and rotation angle of the object (X, Y or Z axis rotation). Processing to determine the rotation angle), processing to move the object (motion processing), processing to determine the viewpoint position (the position of the virtual camera) and the line of sight (the rotation angle of the virtual camera), and placing objects such as map objects in the object space Various game processes, such as a process for performing a game, a hit check process, a process for calculating a game result (result and performance), a process for a plurality of players to play in a common game space, and a game over process, from the operation unit 160. Operation data, personal data from the portable information storage device 194, stored data, and game programs. It carried out based on, for example.

【0030】画像生成部130は、ゲーム処理部110
からの指示等にしたがって各種の画像処理を行い、例え
ばオブジェクト空間内において仮想カメラ(視点)から
見える画像を生成して、表示部190に出力する。ま
た、音生成部150は、ゲーム処理部110からの指示
等にしたがって各種の音処理を行い、BGM、効果音、
音声などの音を生成し、音出力部192に出力する。
The image generation unit 130 includes a game processing unit 110
Various image processing is performed in accordance with an instruction or the like from, for example, an image viewed from a virtual camera (viewpoint) in the object space is generated and output to the display unit 190. Further, the sound generation unit 150 performs various types of sound processing in accordance with an instruction from the game processing unit 110, and performs BGM, sound effects,
A sound such as a voice is generated and output to the sound output unit 192.

【0031】なお、ゲーム処理部110、画像生成部1
30、音生成部150の機能は、その全てをハードウェ
アにより実現してもよいし、その全てをプログラムによ
り実現してもよい。或いは、ハードウェアとプログラム
の両方により実現してもよい。
The game processing section 110 and the image generation section 1
30, all of the functions of the sound generation unit 150 may be realized by hardware, or all of them may be realized by a program. Alternatively, it may be realized by both hardware and a program.

【0032】画像生成部130は、ジオメトリ処理部1
32(3次元座標演算部)、描画部140(レンダリン
グ部)を含む。
The image generation unit 130 includes the geometry processing unit 1
32 (a three-dimensional coordinate calculation unit) and a drawing unit 140 (rendering unit).

【0033】ここで、ジオメトリ処理部132は、座標
変換、クリッピング処理、透視変換、或いは光源計算な
どの種々のジオメトリ処理(3次元座標演算)を行う。
そして、本実施形態では、ジオメトリ処理後(透視変換
後)のオブジェクトデータ(オブジェクトの頂点座標、
頂点テクスチャ座標、或いは輝度データ等)は、記憶部
170のメインメモリ172に格納されて、保存され
る。
Here, the geometry processing unit 132 performs various types of geometry processing (three-dimensional coordinate calculation) such as coordinate conversion, clipping processing, perspective conversion, and light source calculation.
In the present embodiment, the object data (vertex coordinates of the object,
The vertex texture coordinates or the luminance data are stored in the main memory 172 of the storage unit 170.

【0034】描画部140は、ジオメトリ処理後(透視
変換後)のオブジェクトデータと、テクスチャ記憶部1
76に記憶されるテクスチャとに基づいて、オブジェク
トをフレームバッファ174に描画する。これにより、
オブジェクトが移動するオブジェクト空間において、仮
想カメラ(視点)から見える画像が生成されるようにな
る。
The drawing unit 140 stores the object data after the geometry processing (after the perspective transformation) and the texture storage unit 1
The object is drawn in the frame buffer 174 based on the texture stored in 76. This allows
In the object space where the object moves, an image that can be seen from the virtual camera (viewpoint) is generated.

【0035】ジオメトリ処理部132は、テクスチャ座
標算出部134を含む。
The geometry processing unit 132 includes a texture coordinate calculation unit 134.

【0036】ここでテクスチャ座標算出部134は、オ
ブジェクトの頂点を所与の投影方向で投影(平行投影、
透視投影等)する。そして、投影により得られた頂点の
第1、第2の座標(例えば、X、Y座標)に基づいて、
投影テクスチャの第1、第2のテクスチャ座標(例えば
U、V座標)を算出する。
Here, the texture coordinate calculation unit 134 projects the vertices of the object in a given projection direction (parallel projection,
Perspective projection etc.). Then, based on the first and second coordinates (for example, X and Y coordinates) of the vertex obtained by the projection,
First and second texture coordinates (for example, U and V coordinates) of the projected texture are calculated.

【0037】描画部140は、テクスチャマッピング部
142を含む。
The drawing unit 140 includes a texture mapping unit 142.

【0038】ここで、テクスチャマッピング部142
は、オブジェクトの元絵テクスチャ(モデルデータに予
め含まれているテクスチャ)と、テクスチャ座標算出部
134が算出した第1、第2のテクスチャ座標により指
定される投影テクスチャとを、オブジェクトにマッピン
グする。これにより、元絵テクスチャと投影テクスチャ
とがマルチテクスチャマッピングされたオブジェクトが
描画される。そして、この場合、どの仮想カメラの視点
から見ても、投影方向からオブジェクトに投影テクスチ
ャがあたかも投影されたかのような画像が生成されるよ
うになり、ハイライトや影などの表示に最適な画像表現
を実現できる。
Here, the texture mapping unit 142
Maps the original picture texture (texture included in the model data in advance) of the object and the projection texture specified by the first and second texture coordinates calculated by the texture coordinate calculation unit 134 to the object. Thus, an object in which the original picture texture and the projection texture are multi-textured is drawn. Then, in this case, from any virtual camera's viewpoint, an image is generated as if the projected texture were projected on the object from the projection direction, and the optimal image expression for displaying highlights and shadows Can be realized.

【0039】なお、本実施形態の画像生成システムは、
1人のプレーヤのみがプレイできるシングルプレーヤモ
ード専用のシステムにしてもよいし、このようなシング
ルプレーヤモードのみならず、複数のプレーヤがプレイ
できるマルチプレーヤモードも備えるシステムにしても
よい。
The image generation system according to the present embodiment
A system dedicated to the single player mode in which only one player can play, or a system including not only such a single player mode but also a multiplayer mode in which a plurality of players can play, may be used.

【0040】また複数のプレーヤがプレイする場合に、
これらの複数のプレーヤに提供するゲーム画像やゲーム
音を、1つの端末を用いて生成してもよいし、ネットワ
ーク(伝送ライン、通信回線)などで接続された複数の
端末を用いて生成してもよい。
When a plurality of players play,
The game image and the game sound to be provided to the plurality of players may be generated using one terminal, or may be generated using a plurality of terminals connected by a network (transmission line, communication line) or the like. Is also good.

【0041】2.本実施形態の特徴 (1)ハイライト(スポットライト)表示 本実施形態では、まず、図2のB1に示すように、車オ
ブジェクト10の各頂点を所与の投影方向で投影(平行
投影、透視投影等)する。即ち、例えば平行投影の場合
には、車オブジェクト10の各頂点を、投影方向の回転
マトリクスで回転させる。
2. Features of this embodiment (1) Highlight (spotlight) display In this embodiment, first, as shown at B1 in FIG. 2, each vertex of the car object 10 is projected in a given projection direction (parallel projection, perspective projection). Projection etc.). That is, for example, in the case of parallel projection, each vertex of the car object 10 is rotated by a rotation matrix in the projection direction.

【0042】次に、B2に示すように、投影後の頂点の
X、Y座標に基づいて、後述するような計算式により、
その頂点のU、V座標(広義にはテクスチャ座標)を算
出する。このU、V座標は、ハイライト用テクスチャ2
0(広義には投影テクスチャ)の読み出しアドレスとな
る。なお、このハイライト用テクスチャ20は、真ん中
の領域22は透明になっており、それ以外の領域24は
黒の半透明になっている。
Next, as shown in B2, based on the X and Y coordinates of the vertices after projection, the following formula is used to calculate
The U and V coordinates (texture coordinates in a broad sense) of the vertex are calculated. The U and V coordinates correspond to the highlight texture 2
The read address is 0 (projection texture in a broad sense). In the highlight texture 20, the middle area 22 is transparent, and the other areas 24 are black and translucent.

【0043】そして本実施形態によれば、B3に示すよ
うに、元絵テクスチャ(車のモデルデータのテクスチ
ャ)とハイライト用テクスチャ20を車オブジェクト1
0にマッピングして、仮想カメラ12から見える画像を
生成する。これにより、元絵テクスチャとハイライト用
テクスチャ20が車オブジェクト10にマルチテクスチ
ャマッピングされた画像を表示できるようになる。
According to the present embodiment, as shown in B3, the original picture texture (the texture of the car model data) and the highlight
0 to generate an image viewed from the virtual camera 12. As a result, an image in which the original picture texture and the highlight texture 20 are multi-textured on the car object 10 can be displayed.

【0044】なお、この場合のマルチテクスチャマッピ
ングは、1つのオブジェクトに複数のテクスチャを重ね
てマッピングすることで実現してもよいし、異なるテク
スチャがマッピングされる複数のオブジェクトを重ねて
描画することで実現してもよい。
Note that the multi-texture mapping in this case may be realized by overlaying a plurality of textures on one object, or by overlaying a plurality of objects onto which different textures are mapped. It may be realized.

【0045】図3(A)、(B)、図4(A)、(B)
に、本実施形態により生成される画像の一例を示す。
FIGS. 3A, 3B, 4A and 4B
FIG. 1 shows an example of an image generated by the present embodiment.

【0046】本実施形態によれば図3(A)に示すよう
に、車オブジェクト10上にハイライト30を表示でき
る。この場合、図2のハイライト用テクスチャ20の真
ん中の領域22がハイライト30に相当する。そして、
この場合、領域22は透明になっているため、その領域
では、車オブジェクト10の画像がはっきりと見えるよ
うになる。一方、ハイライト用テクスチャ20の領域2
4は黒の半透明になっているため、その領域では、車オ
ブジェクト10の画像が暗闇の中でぼんやりと見えるよ
うになる。
According to the present embodiment, the highlight 30 can be displayed on the car object 10 as shown in FIG. In this case, the middle region 22 of the highlight texture 20 in FIG. And
In this case, since the area 22 is transparent, the image of the car object 10 can be clearly seen in that area. On the other hand, the area 2 of the highlight texture 20
4 is translucent black, and in that area, the image of the car object 10 becomes blurred in the dark.

【0047】なお、U、V座標は、共に、0.0≦U≦
1.0、0.0≦V≦1.0の範囲の値になるようにリ
ミット値が設定されている。例えば、X、Y座標から計
算されたU、V座標が1.0よりも大きい場合は、その
値は強制的に1.0に設定され、0.0よりも小さくな
った場合には、その値は強制的に0.0に設定される。
このようにすれば、領域22以外の場所では、全ての場
所において、黒の半透明のハイライト用テクスチャがマ
ッピングされるようになる。これにより、図3(A)に
示すように、ハイライト30の領域だけが明るく表示さ
れるような画像を表示できる。
The U and V coordinates are both 0.0 ≦ U ≦
The limit value is set so as to be in the range of 1.0, 0.0 ≦ V ≦ 1.0. For example, if the U and V coordinates calculated from the X and Y coordinates are larger than 1.0, their values are forcibly set to 1.0, and if they become smaller than 0.0, The value is forced to 0.0.
In this way, a black translucent highlight texture is mapped in all places except the area 22. Thus, as shown in FIG. 3A, an image in which only the highlight 30 is displayed brightly can be displayed.

【0048】そして本実施形態によれば、ハイライト3
0の形状は、ハイライトが表示される場所での車オブジ
ェクト10の面の形状に沿ったものになる。即ち、車オ
ブジェクト10の面に段差があれば、その段差の形状に
沿うようにハイライト30が変形されて表示されるよう
になる。このように本実施形態によれば、車オブジェク
ト10の面の形状との整合性が保たれたリアルなハイラ
イト30の表示を実現できる。
According to the present embodiment, highlight 3
The shape of 0 follows the shape of the surface of the car object 10 at the location where the highlight is displayed. That is, if there is a step on the surface of the car object 10, the highlight 30 is deformed and displayed so as to follow the shape of the step. As described above, according to the present embodiment, it is possible to realize the display of the realistic highlight 30 in which the consistency with the surface shape of the car object 10 is maintained.

【0049】また、本実施形態によれば、図2のB4に
示すように仮想カメラ12の位置や回転角度が変化して
も、ハイライト30の表示する場所は変化しない。即ち
図2のB5のように仮想カメラ12が移動し右側面から
車オブジェクト10を見た場合にも、B6のように仮想
カメラ12が移動し右手前から車オブジェクト10を見
た場合にも、常に同じ場所(例えば図3(A)に示す場
所)にハイライト30が表示されるようになる。従っ
て、車オブジェクト10上にハイライト30が表示され
ている様子を、色々な角度から見ることができるように
なり、多様で豊かな画像表現が可能になる。
Further, according to the present embodiment, even if the position or the rotation angle of the virtual camera 12 changes as shown at B4 in FIG. 2, the position where the highlight 30 is displayed does not change. That is, even when the virtual camera 12 moves and looks at the car object 10 from the right side as shown at B5 in FIG. 2, even when the virtual camera 12 moves and looks at the car object 10 from the right front as at B6, The highlight 30 is always displayed at the same place (for example, the place shown in FIG. 3A). Therefore, the appearance of the highlight 30 displayed on the car object 10 can be seen from various angles, and various and rich image expressions can be realized.

【0050】また、本実施形態では、投影後の頂点の
X、Y座標からU、V座標を算出する際のオフセット値
(X、Y座標からU、V座標を求める計算式の中にある
パラメータの1つ)を変化させることで、図3(B)に
示すように、ハイライト30を任意の場所に移動させる
ことができる。これにより、図3(A)、(B)や図4
(A)、(B)に示すように、ハイライト10を車オブ
ジェクト10上で色々な場所に移動させ、車オブジェク
ト10の画像のうち、ハイライト10により照らされた
部分だけをプレーヤに見せるというような演出効果が可
能になる。
In the present embodiment, the offset values for calculating the U and V coordinates from the X and Y coordinates of the projected vertices (the parameters in the calculation formula for obtaining the U and V coordinates from the X and Y coordinates) are used. 3), the highlight 30 can be moved to an arbitrary place as shown in FIG. Thus, FIGS. 3A and 3B and FIGS.
As shown in (A) and (B), the highlight 10 is moved to various places on the car object 10 and only the portion of the image of the car object 10 illuminated by the highlight 10 is shown to the player. Such an effect can be achieved.

【0051】しかも、このハイライト30の移動の際に
も、ハイライト30の形状は常に車オブジェクト10の
表面の形状に沿うようになる。従って、あたかも本当の
光があたっているかのような仮想現実感を、プレーヤに
与えることができる。
In addition, even when the highlight 30 is moved, the shape of the highlight 30 always follows the shape of the surface of the car object 10. Therefore, it is possible to give the player a virtual reality feeling as if the real light is shining.

【0052】なお、投影後の頂点のX、Y座標からU、
V座標を算出する際のスケーリング値(X、Y座標から
U、V座標を求める計算式の中にあるパラメータの1
つ)を変化させれば、ハイライト30を任意の大きさに
変形させることもできる。これにより、例えば点光源に
よる投影についても擬似的に表現できるようになる。
It should be noted that U,
Scaling value for calculating the V coordinate (1 of the parameters in the formula for calculating the U and V coordinates from the X and Y coordinates
), The highlight 30 can be deformed to an arbitrary size. Thus, for example, projection by a point light source can be expressed in a pseudo manner.

【0053】(2)影表示 本実施形態によれば、オブジェクトの影についてもリア
ルな表現が可能になる。
(2) Shadow Display According to the present embodiment, a realistic expression can be made even for the shadow of an object.

【0054】この場合には、まず、例えば図5(A)に
示すような影オブジェクト40を用意する。ここでは球
オブジェクトの影を作るために、真っ黒な球である影オ
ブジェクト40が用意される。
In this case, first, a shadow object 40 as shown in FIG. 5A is prepared. Here, a shadow object 40 which is a black sphere is prepared in order to create a shadow of the sphere object.

【0055】次に、この影オブジェクト40にジオメト
リ処理(座標変換、透視変換等)を施して、図5(B)
に示すような影用テクスチャ42を生成する。即ち、影
オブジェクト40をスクリーンに透視変換することで得
られる画像を、影用テクスチャ42として用いる。な
お、図5(B)において、影の領域44は黒の半透明に
なっており、それ以外の領域46は透明になっている。
Next, the shadow object 40 is subjected to geometry processing (coordinate transformation, perspective transformation, etc.) to obtain a shadow object as shown in FIG.
A shadow texture 42 as shown in FIG. That is, an image obtained by perspective-transforming the shadow object 40 to the screen is used as the shadow texture 42. In FIG. 5B, the shadow area 44 is translucent black, and the other areas 46 are transparent.

【0056】このように影オブジェクト40から影用テ
クスチャ42を生成するようにすれば、例えば、影オブ
ジェクト40の形状が変化した場合には、影用テクスチ
ャ42の影の領域44の形状も変化する。従って、オブ
ジェクト(部屋オブジェクト)に落とされる実際の影の
形状も変化するようになる。即ち、影オブジェクト40
の形状を変化させることで、実際の影の形状も変化させ
ることができ、より多様で豊かな画像表現を実現でき
る。
If the shadow texture 42 is generated from the shadow object 40 in this manner, for example, when the shape of the shadow object 40 changes, the shape of the shadow area 44 of the shadow texture 42 also changes. . Therefore, the shape of the actual shadow cast on the object (room object) also changes. That is, the shadow object 40
By changing the shape of the image, the shape of the actual shadow can also be changed, and more diverse and rich image expression can be realized.

【0057】また、影オブジェクト30から影用テクス
チャ42を生成するようにすれば、投影方向(影を落と
す方向)に応じた影を生成することも可能になる。即
ち、投影方向を変えることで、影の形状が変化するよう
になり、よりリアルな画像表現を実現できる(但し、影
オブジェクト30が球オブジェクトである場合には、投
影方向を変化させても、影の形状は変化しない)。
Further, if the shadow texture 42 is generated from the shadow object 30, it is possible to generate a shadow according to the projection direction (direction in which the shadow is cast). That is, by changing the projection direction, the shape of the shadow changes, and a more realistic image expression can be realized. (However, when the shadow object 30 is a spherical object, even if the projection direction is changed, The shape of the shadow does not change).

【0058】次に、図5(C)に示すような部屋オブジ
ェクト50(影落とし対象オブジェクト)を用意し、図
2のB1で説明したように、部屋オブジェクト50の各
頂点を所与の投影方向で投影する。
Next, a room object 50 (object for dropping shadow) as shown in FIG. 5C is prepared, and each vertex of the room object 50 is set in a given projection direction as described in B1 of FIG. To project.

【0059】次に、図2のB2で説明したように、投影
後の頂点のX、Y座標に基づいて、その頂点のU、V座
標を算出する。このU、V座標は、影用テクスチャ42
(広義には投影テクスチャ)の読み出しアドレスとな
る。
Next, as described in B2 of FIG. 2, the U and V coordinates of the vertex are calculated based on the X and Y coordinates of the vertex after projection. The U and V coordinates correspond to the shadow texture 42.
This is a read address of (projection texture in a broad sense).

【0060】そして、図2のB3で説明したように、元
絵テクスチャ(部屋のモデルデータのテクスチャ)と影
用テクスチャ42を部屋オブジェクト50にマッピング
して、仮想カメラから見える画像を生成する。これによ
り、元絵テクスチャと影用テクスチャ42が、部屋オブ
ジェクト50にマルチテクスチャマッピングされた画像
を表示できるようになる。
Then, as described in B3 of FIG. 2, the original picture texture (texture of the room model data) and the shadow texture 42 are mapped to the room object 50 to generate an image viewed from the virtual camera. As a result, an image in which the original picture texture and the shadow texture 42 are multi-textured on the room object 50 can be displayed.

【0061】例えば、図6(A)では、右上にある光源
(平行光源)からの光により、球オブジェクト52の影
54が、部屋オブジェクト50の左隅のC1の場所に落
ちている。このように本実施形態によれば、影54の形
状が、部屋オブジェクト50のC1の場所の形状に沿っ
た形状になるため、これまでにないリアルな影の表現が
可能になる。また、仮想カメラ12が移動しても、影5
4は常にC1の場所に落とされるようになるため、矛盾
の無い画像を提供できる。
For example, in FIG. 6A, the light 54 from the light source (parallel light source) at the upper right causes the shadow 54 of the sphere object 52 to fall on the position of C1 at the left corner of the room object 50. As described above, according to the present embodiment, the shape of the shadow 54 conforms to the shape of the location of C1 of the room object 50, so that it is possible to express an unprecedented realistic shadow. Further, even if the virtual camera 12 moves, the shadow 5
No. 4 is always dropped to the location of C1, so that a consistent image can be provided.

【0062】また図6(B)では、右にある光源からの
光により、球オブジェクト52の影54が、部屋オブジ
ェクト50の左のC2の場所に落ちている。また、図7
では、上の手前側にある光源からの光により、球オブジ
ェクト52の影54が、部屋オブジェクト50の下の奥
側のC3の場所に落ちている。
In FIG. 6 (B), the shadow 54 of the sphere object 52 has fallen to the location C2 on the left of the room object 50 due to the light from the right light source. FIG.
In the figure, the shadow 54 of the sphere object 52 has fallen to the position of C3 on the far side below the room object 50 due to the light from the light source on the near side on the upper side.

【0063】このように本実施形態によれば、投影方向
(影を落とす方向。光源の方向)をリアルタイムに変化
させることで、影54が落ちる場所も、それに応じてリ
アルタイムに移動する。従って、本当の光により球オブ
ジェクト52の影54が落ちているというような仮想現
実感をプレーヤに与えることができる。
As described above, according to the present embodiment, by changing the projection direction (the direction in which the shadow is cast; the direction of the light source) in real time, the place where the shadow 54 falls also moves in real time. Therefore, it is possible to give the player a virtual reality feeling that the shadow 54 of the ball object 52 is falling due to real light.

【0064】しかも、本実施形態によれば、投影方向を
変化させた場合に、部屋オブジェクト50の各場所の形
状との整合性が保たれる形状に変化しながら、影54が
移動するようになるため、これまでにないリアルな画像
を提供できる。
Furthermore, according to the present embodiment, when the projection direction is changed, the shadow 54 moves so that the shape of the room object 50 changes while maintaining the consistency with the shape of each place. As a result, an unprecedented real image can be provided.

【0065】なお、本実施形態により表現可能な画像
は、ハイライトや影の画像に限定されない。
The image that can be expressed by the present embodiment is not limited to a highlight or shadow image.

【0066】例えば図8(A)に示すように、種々の色
の液体62が入ったコップ60の画像なども、本実施形
態により生成できる。この場合、例えば図8(B)に示
すようにコップ60が傾いた場合にも、液体60の表面
64については傾かないようにするという表現も可能と
なる。
For example, as shown in FIG. 8A, an image of a glass 60 containing liquids 62 of various colors can be generated by the present embodiment. In this case, for example, even when the cup 60 is inclined as shown in FIG. 8B, it is possible to express that the surface 64 of the liquid 60 is not inclined.

【0067】また図8(B)に示すように、投影後の頂
点のX、Y座標からU、V座標を算出する際のオフセッ
ト値を変化させることで、液体50の表面64の水位を
リアルタイムに変化させることも可能になる。
Also, as shown in FIG. 8B, the water level of the surface 64 of the liquid 50 can be changed in real time by changing the offset value when calculating the U and V coordinates from the X and Y coordinates of the projected vertex. Can also be changed.

【0068】また図8(C)に示すように、投影するテ
クスチャのアニメーションを行うことで、液体50の表
面64を波立たせるなどの画像表現も可能になる。
As shown in FIG. 8C, by performing animation of the texture to be projected, it is also possible to express an image such as making the surface 64 of the liquid 50 rippling.

【0069】また本実施形態によれば、図9(A)、
(B)に示すように、車オブジェクト70にカバー74
をかぶせて、そのカバー74を徐々に取り去るというよ
うな表現も可能になる。
According to the present embodiment, FIG.
As shown in (B), a cover 74 is attached to the car object 70.
, And the cover 74 can be gradually removed.

【0070】更に本実施形態によれば、オブジェクトに
平行線を入れるなどの表現も可能になる。これにより、
例えば等高線が描かれた山オブジェクトなどの画像を生
成することができる。
Further, according to the present embodiment, it is possible to express objects such as inserting parallel lines. This allows
For example, an image of a mountain object or the like on which contour lines are drawn can be generated.

【0071】(3)マルチテクスチャマッピング さて、本実施形態では、元絵テクスチャと投影テクスチ
ャのマルチテクスチャマッピングを、例えば以下に説明
する手法により実現している。
(3) Multi-Texture Mapping In the present embodiment, multi-texture mapping of the original picture texture and the projection texture is realized by, for example, a method described below.

【0072】即ち、まず、図10の(A1)に示すように、
メインメモリ上のオブジェクトデータ(オブジェクトの
頂点座標、頂点テクスチャ座標、輝度等)に基づきジオ
メトリ処理を行い、ジオメトリ処理後のオブジェクトデ
ータをメインメモリに格納し、消さずに保存しておく。
即ち、オブジェクトデータに基づき、座標変換、クリッ
ピング処理、透視変換などのジオメトリ処理を行い、透
視変換後のオブジェクトデータをメインメモリに保存し
ておく。
That is, first, as shown in (A1) of FIG.
Geometry processing is performed based on object data (vertex coordinates, vertex texture coordinates, brightness, and the like of the object) on the main memory, and the object data after the geometry processing is stored in the main memory and stored without being erased.
That is, geometry processing such as coordinate transformation, clipping processing, and perspective transformation is performed based on the object data, and the object data after perspective transformation is stored in the main memory.

【0073】次に、図10の(A2)に示すように、VRA
Mのテクスチャ記憶部(テクスチャ記憶領域)に元絵テ
クスチャを転送する(ジオメトリ処理の前に転送しても
よい)。
Next, as shown in (A2) of FIG.
The original picture texture is transferred to the M texture storage unit (texture storage area) (may be transferred before the geometry processing).

【0074】次に、図10の(A3)に示すように、ジオメ
トリ処理後のオブジェクトデータと、テクスチャ記憶部
に記憶されている元絵テクスチャとに基づいて、VRA
Mのフレームバッファにオブジェクトを描画する。これ
により、フレームバッファ上には、元絵テクスチャがマ
ッピングされたオブジェクトが描画されるようになる。
Next, as shown in (A3) of FIG. 10, the VRA is performed based on the object data after the geometry processing and the original picture texture stored in the texture storage unit.
Draw the object in the M frame buffer. As a result, an object on which the original picture texture is mapped is drawn on the frame buffer.

【0075】次に、図10の(A4)に示すように、ジオメ
トリ処理後のオブジェクトデータに含まれる元絵テクス
チャのU、V座標(テクスチャ座標)を、図2の手法に
より算出されたU、V座標で置き換える(算出された
U、V座標を上書きする)。
Next, as shown in (A4) of FIG. 10, the U and V coordinates (texture coordinates) of the original picture texture included in the object data after the geometry processing are calculated using the U, V calculated by the method of FIG. Replace with the V coordinate (overwrite the calculated U and V coordinates).

【0076】次に、図10の(A5)に示すように、テクス
チャ記憶部に投影テクスチャ(ハイライト用テクスチ
ャ、影用テクスチャ)を転送し、オブジェクトにマッピ
ングされるテクスチャを元絵テクスチャから投影テクス
チャに変更する。
Next, as shown in (A5) of FIG. 10, the projection texture (highlight texture, shadow texture) is transferred to the texture storage unit, and the texture mapped to the object is changed from the original picture texture to the projection texture. Change to

【0077】次に、図10の(A6)に示すように、メイン
メモリに保存しておいたジオメトリ処理後のオブジェク
トデータと、テクスチャ記憶部に格納される投影テクス
チャとに基づいて、フレームバッファにオブジェクトを
αブレンディングにより重ねて描画する。これにより、
元絵テクスチャがマッピングされたオブジェクトの上
に、投影テクスチャがマッピングされたオブジェクトが
重ねて描画されることになる。
Next, as shown in (A6) of FIG. 10, based on the object data after the geometry processing stored in the main memory and the projection texture stored in the texture storage unit, the frame buffer is stored. Draws objects by overlaying them by alpha blending. This allows
The object to which the projection texture is mapped is drawn on the object to which the original picture texture is mapped.

【0078】以上の処理を1フレーム内に行うことで、
マルチテクスチャマッピング(狭義)の機能をサポート
していない画像生成システムにおいても、マルチテクス
チャマッピング(広義)を実現できるようになる。
By performing the above processing within one frame,
Even in an image generation system that does not support the function of multi-texture mapping (narrow sense), multi-texture mapping (broad sense) can be realized.

【0079】しかも、本実施形態では、メインメモリに
既に保存されているジオメトリ処理後のオブジェクトデ
ータに基づいて、投影テクスチャがマッピングされるオ
ブジェクトの描画が行われる。従って、オブジェクトに
対するジオメトリ処理を再度行う必要がなく、1回で済
むため、処理負担をそれほど増すことなく、マルチテク
スチャマッピングを実現できるようになる。
Further, in the present embodiment, the object to which the projection texture is mapped is drawn based on the object data after the geometry processing already stored in the main memory. Therefore, it is not necessary to perform the geometry processing on the object again, and only once, so that multi-texture mapping can be realized without increasing the processing load so much.

【0080】特に、ジオメトリ処理(3次元座標演算)
は、オブジェクトの全ての頂点に対して行う必要がある
ため、非常に負担の重い処理である。従って、このジオ
メトリ処理を2回行うことなく1回で済ませることで、
処理負担を大幅に軽減できる。
In particular, geometry processing (three-dimensional coordinate calculation)
Is a very heavy process because it needs to be performed on all vertices of the object. Therefore, by performing this geometry processing once instead of twice,
Processing load can be greatly reduced.

【0081】3.本実施形態の処理 次に、本実施形態の処理の詳細例について、図11、図
12、図13のフローチャートを用いて説明する。
3. Next, a detailed example of the process according to the present embodiment will be described with reference to the flowcharts in FIGS. 11, 12, and 13. FIG.

【0082】(1)ハイライト表示 図11は、図2〜図4(B)で説明したハイライト表示
を行う場合の処理のフローチャートである。
(1) Highlight Display FIG. 11 is a flowchart of a process for performing the highlight display described with reference to FIGS. 2 to 4B.

【0083】まず、元絵テクスチャ(車のテクスチャ)
を、VRAM上のテクスチャ記憶部に転送する(ステッ
プS1)。
First, the original picture texture (car texture)
Is transferred to the texture storage unit on the VRAM (step S1).

【0084】次に、オブジェクトデータ(頂点座標、頂
点テクスチャ座標、輝度データ等)に基づいて車オブジ
ェクトのジオメトリ処理を行う(ステップS2)。より
具体的には、例えば、車オブジェクトをローカル座標系
からワールド座標系へ座標変換し、次に、ワールド座標
系から視点座標系に座標変換し、クリッピング処理を行
った後、スクリーン座標系への透視変換を行う。そし
て、透視変換後のオブジェクトデータをメインメモリに
格納し、消さないで保存しておく(ステップS3)。
Next, the geometry processing of the car object is performed based on the object data (vertex coordinates, vertex texture coordinates, luminance data, etc.) (step S2). More specifically, for example, after performing a coordinate conversion of the car object from the local coordinate system to the world coordinate system, then performing a coordinate conversion from the world coordinate system to the viewpoint coordinate system, and performing a clipping process, Performs perspective transformation. Then, the object data after the perspective transformation is stored in the main memory and not erased (step S3).

【0085】次に、透視変換後のオブジェクトデータ
と、ステップS1で転送された元絵テクスチャ(車のテ
クスチャ)とに基づき、フレームバッファに車オブジェ
クトを描画する(ステップS4)。
Next, a car object is drawn in a frame buffer based on the object data after the perspective transformation and the original picture texture (car texture) transferred in step S1 (step S4).

【0086】次に、ハイライト用テクスチャをテクスチ
ャ記憶部に転送する(ステップS5)。
Next, the highlighting texture is transferred to the texture storage unit (step S5).

【0087】次に、車オブジェクトを、ハイライト方向
(投影方向)の回転マトリクスで回転させる(ステップ
S6)。そして、回転後の頂点のX、Y座標に基づき、
ハイライト用テクスチャのU、V座標を算出する(ステ
ップS7)。この場合のU、V座標を算出する計算式は
例えば以下のようになる。
Next, the car object is rotated by a rotation matrix in the highlight direction (projection direction) (step S6). Then, based on the X and Y coordinates of the vertex after rotation,
The U and V coordinates of the highlight texture are calculated (step S7). The calculation formula for calculating the U and V coordinates in this case is as follows, for example.

【0088】 U=(X/MC)×SX+OFFX (F1) V=(Y/MC)×SY+OFFY (F2) 但し、U<0.0の場合、U=0.0 (F3) U>1.0の場合、U=1.0 (F4) V<0.0の場合、V=0.0 (F5) V>1.0の場合、V=1.0 (F6) ここで、X、Yは、回転後の頂点のX、Y座標であり、
MCは、車オブジェクトの最大座標値である。また、S
X、SYはスケーリング値であり、OFFX、OFFY
はオフセット値である。
U = (X / MC) × SX + OFFX (F1) V = (Y / MC) × SY + OFFY (F2) However, when U <0.0, U = 0.0 (F3) U> 1.0 In the case of U = 1.0 (F4) When V <0.0, V = 0.0 (F5) When V> 1.0, V = 1.0 (F6) where X and Y are , The X and Y coordinates of the rotated vertex,
MC is the maximum coordinate value of the car object. Also, S
X and SY are scaling values, and OFFX and OFFY
Is an offset value.

【0089】スケーリング値SX、SY=1.0ならば
平行光源になる。一方、SX、SYの値を小さくすれ
ば、ハイライト(或いは影)のサイズが大きくなる。従
って、車オブジェクトに光源が近づけば近づくほどS
X、SYの値を小さくすれば、点光源による投影を擬似
的に表現できるようになる。
If the scaling values SX, SY = 1.0, the light source is a parallel light source. On the other hand, when the values of SX and SY are reduced, the size of the highlight (or shadow) increases. Therefore, the closer the light source is to the car object, the more S
If the values of X and SY are reduced, the projection by the point light source can be expressed in a pseudo manner.

【0090】また、オフセット値OFFX、OFFYを
変化させれば、図3(A)、(B)、図4(A)、
(B)に示すように、ハイライト(或いは影)を任意の
場所に移動できる。
By changing the offset values OFFX and OFFY, FIGS. 3 (A), (B), 4 (A),
As shown in (B), the highlight (or shadow) can be moved to an arbitrary place.

【0091】なお、テクスチャ空間でのテクスチャ座標
は、これらの求められたU、V座標と、オフセットアド
レスと、テクスチャのサイズ情報などに基づいて特定さ
れることになる。
The texture coordinates in the texture space are specified based on the obtained U and V coordinates, the offset address, the size information of the texture, and the like.

【0092】次に、得られたU、V座標を、ステップS
3でメインメモリに保存したオブジェクトデータ(頂点
リスト)の各頂点のU、V座標に上書きする(ステップ
S8)。即ち、オブジェクトのモデルデータにおいて設
定されていたU、V座標を、ステップS7で算出された
U、V座標に置き換える。
Next, the obtained U and V coordinates are stored in step S
The U and V coordinates of each vertex of the object data (vertex list) stored in the main memory in step 3 are overwritten (step S8). That is, the U and V coordinates set in the model data of the object are replaced with the U and V coordinates calculated in step S7.

【0093】次に、ステップS8でU、V座標が上書き
されたオブジェクトデータと、ステップS5で転送され
たハイライト用テクスチャとに基づき、ハイライト用テ
クスチャがマッピングされるオブジェクトをフレームバ
ッファに上書きする(ステップS9)。これにより、元
絵テクスチャとハイライト用テクスチャが車オブジェク
トにマルチテクスチャマッピングされた画像を生成でき
るようになる。
Next, based on the object data with the U and V coordinates overwritten in step S8 and the highlight texture transferred in step S5, the object to which the highlight texture is mapped is overwritten in the frame buffer. (Step S9). This makes it possible to generate an image in which the original picture texture and the highlight texture are multi-textured onto the car object.

【0094】(2)影表示図12、図13は、図5
(A)〜図7で説明した影表示を行う場合の処理のフロ
ーチャートである。
(2) Shadow Display FIGS. 12 and 13 show FIGS.
It is a flowchart of the process at the time of performing the shadow display demonstrated by (A) -FIG.

【0095】まず、VRAMのテクスチャ記憶部を、透
明のα値(例えばα=0.0)で塗りつぶす(ステップ
S10)。
First, the texture storage unit of the VRAM is painted with a transparent α value (for example, α = 0.0) (step S10).

【0096】次に、図5(A)に示した影オブジェクト
を、投影方向(影を落とす方向)でジオメトリ処理する
(ステップS11)。そして、透視変換後の影オブジェ
クトをテクスチャ記憶部に描画して、図5(B)に示す
ような影用テクスチャを生成する(ステップS12)。
Next, geometry processing is performed on the shadow object shown in FIG. 5A in the projection direction (the direction in which the shadow is cast) (step S11). Then, the shadow object after the perspective transformation is drawn in the texture storage unit, and a shadow texture as shown in FIG. 5B is generated (step S12).

【0097】次に、元絵テクスチャ(部屋のテクスチ
ャ)を、VRAM上のテクスチャ記憶部に転送する(ス
テップS13)。
Next, the original picture texture (room texture) is transferred to the texture storage unit in the VRAM (step S13).

【0098】次に、部屋オブジェクトのジオメトリ処理
を行い(ステップS14)、透視変換後のオブジェクト
データをメインメモリに保存する(ステップS15)。
Next, the geometric processing of the room object is performed (step S14), and the object data after the perspective transformation is stored in the main memory (step S15).

【0099】次に、透視変換後のオブジェクトデータ
と、ステップS13で転送された元絵テクスチャとに基
づき、フレームバッファに部屋オブジェクトを描画する
(ステップS16)。
Next, a room object is drawn in the frame buffer based on the object data after the perspective transformation and the original picture texture transferred in step S13 (step S16).

【0100】次に、部屋オブジェクトを、影落とし方向
(投影方向)の回転マトリクスで回転させる(ステップ
S17)。そして、回転後の頂点のX、Y座標に基づ
き、上述の(F1)〜(F6)の計算式に基づいて、影
用テクスチャのU、V座標を算出する(ステップS1
8)。
Next, the room object is rotated by a rotation matrix in the shadow dropping direction (projection direction) (step S17). Then, based on the X and Y coordinates of the rotated vertices, the U and V coordinates of the shadow texture are calculated based on the above formulas (F1) to (F6) (step S1).
8).

【0101】次に、得られたU、V座標を、ステップS
15でメインメモリに保存したオブジェクトデータ(頂
点リスト)の各頂点のU、V座標に上書きして、置き換
える(ステップS19)。
Next, the obtained U and V coordinates are stored in step S
The U and V coordinates of each vertex of the object data (vertex list) stored in the main memory in step 15 are overwritten and replaced (step S19).

【0102】次に、ステップS19でU、V座標が上書
きされたオブジェクトデータと、ステップS12で生成
された影用テクスチャとに基づき、影用テクスチャがマ
ッピングされるオブジェクトをフレームバッファに上書
きする(ステップS20)。これにより、元絵テクスチ
ャと影用テクスチャが部屋オブジェクトにマルチテクス
チャマッピングされた画像を生成できるようになる。そ
して、最後に、球オブジェクト(影対象オブジェクト)
を、ジオメトリ処理後に、フレームバッファに描画する
(ステップS21)。
Next, based on the object data in which the U and V coordinates have been overwritten in step S19 and the shadow texture generated in step S12, the object to which the shadow texture is mapped is overwritten in the frame buffer (step S19). S20). This makes it possible to generate an image in which the original picture texture and the shadow texture are subjected to multi-texture mapping on the room object. And finally, a sphere object (a shadow target object)
Is drawn in the frame buffer after the geometry processing (step S21).

【0103】4.ハードウェア構成 次に、本実施形態を実現できるハードウェアの構成の一
例について図14を用いて説明する。
4. Hardware Configuration Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.

【0104】メインプロセッサ900は、CD982
(情報記憶媒体)に格納されたプログラム、通信インタ
ーフェース990を介して転送されたプログラム、或い
はROM950(情報記憶媒体の1つ)に格納されたプ
ログラムなどに基づき動作し、ゲーム処理、画像処理、
音処理などの種々の処理を実行する。
The main processor 900 has a CD982
(Information storage medium), a program transferred via the communication interface 990, or a program stored in the ROM 950 (one of the information storage media).
Various processes such as sound processing are executed.

【0105】コプロセッサ902は、メインプロセッサ
900の処理を補助するものであり、高速並列演算が可
能な積和算器や除算器を有し、マトリクス演算(ベクト
ル演算)を高速に実行する。例えば、オブジェクトを移
動させたり動作(モーション)させるための物理シミュ
レーションに、マトリクス演算などの処理が必要な場合
には、メインプロセッサ900上で動作するプログラム
が、その処理をコプロセッサ902に指示(依頼)す
る。
The coprocessor 902 assists the processing of the main processor 900, has a multiply-accumulate unit and a divider capable of high-speed parallel operation, and executes a matrix operation (vector operation) at high speed. For example, when a physical simulation for moving or moving an object requires processing such as matrix operation, a program operating on the main processor 900 instructs the coprocessor 902 to perform the processing (request ).

【0106】ジオメトリプロセッサ904は、座標変
換、透視変換、光源計算、曲面生成などのジオメトリ処
理を行うものであり、高速並列演算が可能な積和算器や
除算器を有し、マトリクス演算(ベクトル演算)を高速
に実行する。例えば、座標変換、透視変換、光源計算な
どの処理を行う場合には、メインプロセッサ900で動
作するプログラムが、その処理をジオメトリプロセッサ
904に指示する。
The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation. The geometry processor 904 includes a multiply-accumulate unit and a divider capable of high-speed parallel computation, and performs matrix computation (vector computation). Calculation) at high speed. For example, when performing processing such as coordinate transformation, perspective transformation, and light source calculation, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.

【0107】データ伸張プロセッサ906は、圧縮され
た画像データや音データを伸張するデコード処理を行っ
たり、メインプロセッサ900のデコード処理をアクセ
レートする処理を行う。これにより、オープニング画
面、インターミッション画面、エンディング画面、或い
はゲーム画面などにおいて、MPEG方式等で圧縮され
た動画像を表示できるようになる。なお、デコード処理
の対象となる画像データや音データは、ROM950、
CD982に格納されたり、或いは通信インターフェー
ス990を介して外部から転送される。
The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data, and performs a process for accelerating the decoding process of the main processor 900. As a result, a moving image compressed by the MPEG method or the like can be displayed on an opening screen, an intermission screen, an ending screen, a game screen, or the like. The image data and sound data to be decoded are stored in the ROM 950,
It is stored on a CD 982 or transferred from outside via a communication interface 990.

【0108】描画プロセッサ910は、ポリゴンや曲面
などのプリミティブ面で構成されるオブジェクトの描画
(レンダリング)処理を高速に実行するものである。オ
ブジェクトの描画の際には、メインプロセッサ900
は、DMAコントローラ970の機能を利用して、オブ
ジェクトデータを描画プロセッサ910に渡すと共に、
必要であればテクスチャ記憶部924にテクスチャを転
送する。すると、描画プロセッサ910は、これらのオ
ブジェクトデータやテクスチャに基づいて、Zバッファ
などを利用した陰面消去を行いながら、オブジェクトを
フレームバッファ922に高速に描画する。また、描画
プロセッサ910は、αブレンディング(半透明処
理)、ミップマッピング、フォグ処理、トライリニア・
フィルタリング、アンチエリアシング、シェーディング
処理なども行うことができる。そして、1フレーム分の
画像がフレームバッファ922に書き込まれると、その
画像はディスプレイ912に表示される。
The drawing processor 910 executes a high-speed drawing (rendering) process of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900
Uses the function of the DMA controller 970 to pass object data to the drawing processor 910,
If necessary, the texture is transferred to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and the texture. Further, the drawing processor 910 includes α blending (semi-transparent processing), mip mapping, fog processing, trilinear
Filtering, anti-aliasing, shading, and the like can also be performed. Then, when an image for one frame is written to the frame buffer 922, the image is displayed on the display 912.

【0109】サウンドプロセッサ930は、多チャンネ
ルのADPCM音源などを内蔵し、BGM、効果音、音
声などの高品位のゲーム音を生成する。生成されたゲー
ム音は、スピーカ932から出力される。
The sound processor 930 includes a multi-channel ADPCM sound source or the like, and generates high-quality game sounds such as BGM, sound effects, and voices. The generated game sound is output from the speaker 932.

【0110】ゲームコントローラ942からの操作デー
タや、メモリカード944からのセーブデータ、個人デ
ータは、シリアルインターフェース940を介してデー
タ転送される。
Operation data from the game controller 942, save data and personal data from the memory card 944 are transferred via the serial interface 940.

【0111】ROM950にはシステムプログラムなど
が格納される。なお、業務用ゲームシステムの場合に
は、ROM950が情報記憶媒体として機能し、ROM
950に各種プログラムが格納されることになる。な
お、ROM950の代わりにハードディスクを利用する
ようにしてもよい。
A ROM 950 stores a system program and the like. In the case of the arcade game system, the ROM 950 functions as an information storage medium,
Various programs are stored in 950. Note that a hard disk may be used instead of the ROM 950.

【0112】RAM960は、各種プロセッサの作業領
域として用いられる。
The RAM 960 is used as a work area for various processors.

【0113】DMAコントローラ970は、プロセッ
サ、メモリ(RAM、VRAM、ROM等)間でのDM
A転送を制御するものである。
[0113] The DMA controller 970 provides a DM between the processor and the memory (RAM, VRAM, ROM, etc.).
A transfer is controlled.

【0114】CDドライブ980は、プログラム、画像
データ、或いは音データなどが格納されるCD982
(情報記憶媒体)を駆動し、これらのプログラム、デー
タへのアクセスを可能にする。
A CD drive 980 stores a CD 982 in which programs, image data, sound data, and the like are stored.
(Information storage medium) to enable access to these programs and data.

【0115】通信インターフェース990は、ネットワ
ークを介して外部との間でデータ転送を行うためのイン
ターフェースである。この場合に、通信インターフェー
ス990に接続されるネットワークとしては、通信回線
(アナログ電話回線、ISDN)、高速シリアルバスな
どを考えることができる。そして、通信回線を利用する
ことでインターネットを介したデータ転送が可能にな
る。また、高速シリアルバスを利用することで、他の画
像生成システム、他のゲームシステムとの間でのデータ
転送が可能になる。
The communication interface 990 is an interface for transferring data to and from the outside via a network. In this case, a network connected to the communication interface 990 may be a communication line (analog telephone line, ISDN), a high-speed serial bus, or the like. Then, data can be transferred via the Internet by using a communication line. Further, by using the high-speed serial bus, data transfer between another image generation system and another game system becomes possible.

【0116】なお、本発明の各手段は、その全てを、ハ
ードウェアのみにより実行してもよいし、情報記憶媒体
に格納されるプログラムや通信インターフェースを介し
て配信されるプログラムのみにより実行してもよい。或
いは、ハードウェアとプログラムの両方により実行して
もよい。
The means of the present invention may be entirely executed by hardware only, or executed only by a program stored in an information storage medium or a program distributed via a communication interface. Is also good. Alternatively, it may be executed by both hardware and a program.

【0117】そして、本発明の各手段をハードウェアと
プログラムの両方により実行する場合には、情報記憶媒
体には、本発明の各手段をハードウェアを利用して実行
するためのプログラム(プログラム、データ)が格納さ
れることになる。より具体的には、上記プログラムが、
ハードウェアである各プロセッサ902、904、90
6、910、930等に処理を指示すると共に、必要で
あればデータを渡す。そして、各プロセッサ902、9
04、906、910、930等は、その指示と渡され
たデータとに基づいて、本発明の各手段を実行すること
になる。
When each means of the present invention is executed by both hardware and a program, the information storage medium stores a program (program, program, program) for executing each means of the present invention using hardware. Data) will be stored. More specifically, the above program
Each processor 902, 904, 90 which is hardware
6, 910, 930, etc., and instruct the processing, and if necessary, pass the data. Then, each processor 902, 9
04, 906, 910, 930, etc. execute the respective means of the present invention based on the instruction and the passed data.

【0118】図15(A)に、本実施形態を業務用ゲー
ムシステムに適用した場合の例を示す。プレーヤは、デ
ィスプレイ1100上に映し出されたゲーム画像を見な
がら、レバー1102、ボタン1104等を操作してゲ
ームを楽しむ。内蔵されるシステムボード(サーキット
ボード)1106には、各種プロセッサ、各種メモリな
どが実装される。そして、本発明の各手段を実行するた
めのプログラム(或いはプログラム、データ)は、シス
テムボード1106上の情報記憶媒体であるメモリ11
08に格納される。以下、この情報を格納情報と呼ぶ。
FIG. 15A shows an example in which the present embodiment is applied to an arcade game system. The player enjoys the game by operating the lever 1102, the button 1104, and the like while watching the game image projected on the display 1100. Various processors, various memories, and the like are mounted on a built-in system board (circuit board) 1106. A program (or a program or data) for executing each unit of the present invention is stored in the memory 11 serving as an information storage medium on the system board 1106.
08 is stored. Hereinafter, this information is referred to as storage information.

【0119】図15(B)に、本実施形態を家庭用のゲ
ームシステムに適用した場合の例を示す。プレーヤはデ
ィスプレイ1200に映し出されたゲーム画像を見なが
ら、ゲームコントローラ1202、1204を操作して
ゲームを楽しむ。この場合、上記格納情報は、本体シス
テムに着脱自在な情報記憶媒体であるCD1206、或
いはメモリカード1208、1209等に格納されてい
る。
FIG. 15B shows an example in which the present embodiment is applied to a home game system. The player enjoys the game by operating the game controllers 1202 and 1204 while watching the game image projected on the display 1200. In this case, the storage information is stored in a CD 1206 or a memory card 1208, 1209, which is an information storage medium detachable from the main system.

【0120】図15(C)に、ホスト装置1300と、
このホスト装置1300とネットワーク1302(LA
Nのような小規模ネットワークや、インターネットのよ
うな広域ネットワーク)を介して接続される端末130
4-1〜1304-nとを含むシステムに本実施形態を適用
した場合の例を示す。この場合、上記格納情報は、例え
ばホスト装置1300が制御可能な磁気ディスク装置、
磁気テープ装置、メモリ等の情報記憶媒体1306に格
納されている。端末1304-1〜1304-nが、スタン
ドアロンでゲーム画像、ゲーム音を生成できるものであ
る場合には、ホスト装置1300からは、ゲーム画像、
ゲーム音を生成するためのゲームプログラム等が端末1
304-1〜1304-nに配送される。一方、スタンドア
ロンで生成できない場合には、ホスト装置1300がゲ
ーム画像、ゲーム音を生成し、これを端末1304-1〜
1304-nに伝送し端末において出力することになる。
FIG. 15C shows a host device 1300,
The host device 1300 and the network 1302 (LA
N or a wide area network such as the Internet).
An example in which the present embodiment is applied to a system including 4-1 to 1304-n will be described. In this case, the storage information is, for example, a magnetic disk device that can be controlled by the host device 1300,
It is stored in an information storage medium 1306 such as a magnetic tape device and a memory. If the terminals 1304-1 to 1304-n are capable of generating a game image and a game sound in a stand-alone manner, the host device 1300 outputs the game image and the game sound.
A game program or the like for generating a game sound is transmitted to the terminal 1.
It is delivered to 304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, and transmits them to the terminals 1304-1 to 1304-1.
1304-n and output at the terminal.

【0121】なお、図15(C)の構成の場合に、本発
明の各手段を、ホスト装置(サーバー)と端末とで分散
して実行するようにしてもよい。また、本発明の各手段
を実行するための上記格納情報を、ホスト装置(サーバ
ー)の情報記憶媒体と端末の情報記憶媒体に分散して格
納するようにしてもよい。
In the case of the configuration shown in FIG. 15C, each means of the present invention may be executed by distributing between a host device (server) and a terminal. Further, the storage information for executing each means of the present invention may be stored separately in an information storage medium of a host device (server) and an information storage medium of a terminal.

【0122】またネットワークに接続する端末は、家庭
用ゲームシステムであってもよいし業務用ゲームシステ
ムであってもよい。そして、業務用ゲームシステムをネ
ットワークに接続する場合には、業務用ゲームシステム
との間で情報のやり取りが可能であると共に家庭用ゲー
ムシステムとの間でも情報のやり取りが可能な携帯型情
報記憶装置(メモリカード、携帯型ゲーム装置)を用い
ることが望ましい。
The terminal connected to the network may be a home game system or an arcade game system. When the arcade game system is connected to a network, a portable information storage device capable of exchanging information with the arcade game system and exchanging information with the home game system. (Memory card, portable game device) is desirable.

【0123】なお本発明は、上記実施形態で説明したも
のに限らず、種々の変形実施が可能である。
The present invention is not limited to those described in the above embodiments, and various modifications can be made.

【0124】例えば、本発明のうち従属請求項に係る発
明においては、従属先の請求項の構成要件の一部を省略
する構成とすることもできる。また、本発明の1の独立
請求項に係る発明の要部を、他の独立請求項に従属させ
ることもできる。
For example, in the invention according to the dependent claims of the present invention, a configuration in which some of the constituent elements of the dependent claims are omitted may be adopted. In addition, a main part of the invention according to one independent claim of the present invention may be made dependent on another independent claim.

【0125】また、本発明で使用される投影テクスチャ
は、ハイライト用テクスチャ、影用テクスチャなどに限
定されない。例えば図8(A)〜(D)で説明したよう
な液体を表すテクスチャや、図9(A)、(B)で説明
したような車のカバーを表すテクスチャなど、種々の変
形実施が可能である。
Further, the projection texture used in the present invention is not limited to a highlight texture, a shadow texture and the like. For example, various modifications can be made, such as a texture representing a liquid as described in FIGS. 8A to 8D and a texture representing a car cover as described in FIGS. 9A and 9B. is there.

【0126】また、オブジェクトの投影は、平行投影で
あることが特に望ましいが、これに限定されるものでは
ない。
It is particularly desirable that the projection of the object is a parallel projection, but the invention is not limited to this.

【0127】また、オブジェクトにマッピングされるテ
クスチャは、色情報のテクスチャに限定されず、輝度情
報、半透明情報(α値)、表面形状情報(バンプ値)、
反射率情報、屈折率情報、或いは深さ情報などについて
のテクスチャでもよい。
Further, the texture mapped to the object is not limited to the texture of the color information, but may be luminance information, translucent information (α value), surface shape information (bump value),
Textures for reflectance information, refractive index information, depth information, and the like may be used.

【0128】また、マルチテクスチャマッピングは、1
つのオブジェクトに複数のテクスチャを重ねることで実
現してもよいし(狭義のマルチテクスチャマッピン
グ)、異なるテクスチャがマッピングされる複数のオブ
ジェクトを重ね書きすることで実現してもよい。そし
て、1つのオブジェクトに複数のテクスチャを重ねる場
合には、オブジェクトデータの中に、例えば第1のテク
スチャを指定するためのテクスチャ座標、第2のテクス
チャを指定するためのテクスチャ座標というように、複
数セットのテクスチャ座標を含ませればよい。
The multi-texture mapping is 1
It may be realized by overlapping a plurality of textures on one object (multi-texture mapping in a narrow sense), or by overwriting a plurality of objects to which different textures are mapped. When a plurality of textures are superimposed on one object, the object data includes a plurality of texture coordinates such as texture coordinates for designating a first texture and texture coordinates for designating a second texture. What is necessary is just to include the texture coordinate of a set.

【0129】また本発明はレーシングゲーム以外にも種
々のゲーム(格闘ゲーム、シューティングゲーム、ロボ
ット対戦ゲーム、スポーツゲーム、競争ゲーム、ロール
プレイングゲーム、音楽演奏ゲーム、ダンスゲーム等)
に適用できる。
The present invention also includes various games other than racing games (fighting games, shooting games, robot battle games, sports games, competition games, role playing games, music playing games, dance games, etc.).
Applicable to

【0130】また本発明は、業務用ゲームシステム、家
庭用ゲームシステム、多数のプレーヤが参加する大型ア
トラクションシステム、シミュレータ、マルチメディア
端末、画像生成システム、ゲーム画像を生成するシステ
ムボード等の種々の画像生成システムに適用できる。
The present invention also provides various images such as a business game system, a home game system, a large attraction system in which many players participate, a simulator, a multimedia terminal, an image generation system, and a system board for generating game images. Applicable to generation systems.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態の画像生成システムのブロック図の
例である。
FIG. 1 is an example of a block diagram of an image generation system according to an embodiment.

【図2】本実施形態の手法について説明するための図で
ある。
FIG. 2 is a diagram for explaining a method of the present embodiment.

【図3】図3(A)、(B)は、本実施形態により生成
される画像の例である。
FIGS. 3A and 3B are examples of images generated according to the embodiment; FIGS.

【図4】図4(A)、(B)も、本実施形態により生成
される画像の例である。
FIGS. 4A and 4B are also examples of images generated according to the present embodiment.

【図5】図5(A)、(B)、(C)は、影オブジェク
ト、影用テクスチャ、部屋オブジェクトの例について示
す図である。
FIGS. 5A, 5B, and 5C are diagrams illustrating examples of a shadow object, a shadow texture, and a room object.

【図6】図6(A)、(B)は、本実施形態により実現
される影表示の例について示す図である。
FIGS. 6A and 6B are diagrams illustrating an example of a shadow display realized by the present embodiment.

【図7】本実施形態により実現される影表示の例につい
て示す図である。
FIG. 7 is a diagram illustrating an example of a shadow display realized by the embodiment.

【図8】図8(A)〜(D)は、液体が入ったコップを
表現する手法について説明するための図である。
FIGS. 8A to 8D are diagrams for explaining a method of expressing a cup containing a liquid.

【図9】図9(A)、(B)は、カバーをかぶせた車を
表現する手法について説明するための図である。
FIGS. 9A and 9B are diagrams for explaining a method of expressing a car with a cover.

【図10】異なるテクスチャがマッピングされる複数の
オブジェクトを重ねて描画することでマルチテクスチャ
マッピングを実現する手法について説明するための図で
ある。
FIG. 10 is a diagram for describing a method of realizing multi-texture mapping by overlappingly drawing a plurality of objects to which different textures are mapped.

【図11】本実施形態の詳細な処理例について示すフロ
ーチャートである。
FIG. 11 is a flowchart illustrating a detailed processing example of the present embodiment.

【図12】本実施形態の詳細な処理例について示すフロ
ーチャートである。
FIG. 12 is a flowchart illustrating a detailed processing example of the present embodiment.

【図13】本実施形態の詳細な処理例について示すフロ
ーチャートである。
FIG. 13 is a flowchart illustrating a detailed processing example of the present embodiment.

【図14】本実施形態を実現できるハードウェアの構成
の一例を示す図である。
FIG. 14 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.

【図15】図15(A)、(B)、(C)は、本実施形
態が適用される種々の形態のシステムの例を示す図であ
る。
FIGS. 15A, 15B, and 15C are diagrams showing examples of various types of systems to which the present embodiment is applied; FIGS.

【符号の説明】[Explanation of symbols]

10 車オブジェクト 12 仮想カメラ 20 ハイライト用テクスチャ 22、24 領域 30 ハイライト 40 影オブジェクト 42 影用テクスチャ 50 部屋オブジェクト 52 球オブジェクト 54 影 100 処理部 110 ゲーム処理部 130 画像生成部 132 ジオメトリ処理部 134 テクスチャ座標算出部 140 描画部 142 テクスチャマッピング部 150 音生成部 160 操作部 170 記憶部 172 メインメモリ 174 フレームバッファ 176 テクスチャ記憶部 180 情報記憶媒体 190 表示部 192 音出力部 194 携帯型情報記憶装置 196 通信部 Reference Signs List 10 car object 12 virtual camera 20 highlight texture 22, 24 area 30 highlight 40 shadow object 42 shadow texture 50 room object 52 sphere object 54 shadow 100 processing unit 110 game processing unit 130 image generation unit 132 geometry processing unit 134 texture Coordinate calculation unit 140 Drawing unit 142 Texture mapping unit 150 Sound generation unit 160 Operation unit 170 Storage unit 172 Main memory 174 Frame buffer 176 Texture storage unit 180 Information storage medium 190 Display unit 192 Sound output unit 194 Portable information storage device 196 Communication unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 15/72 465 Fターム(参考) 2C001 AA09 BA00 BA02 BA05 BC00 BC06 CB01 CB06 CC02 CC08 5B050 AA09 BA08 BA09 BA11 EA27 EA30 FA02 FA06 5B080 BA04 FA08 GA22 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06F 15/72 465 F-term (Reference) 2C001 AA09 BA00 BA02 BA05 BC00 BC06 CB01 CB06 CC02 CC08 5B050 AA09 BA08 BA09 BA11 EA27 EA30 FA02 FA06 5B080 BA04 FA08 GA22

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 画像を生成するための画像生成システム
であって、 第1のオブジェクトの頂点を所与の投影方向で投影し、
投影により得られた頂点の第1、第2の座標に基づい
て、投影テクスチャの第1、第2のテクスチャ座標を算
出するテクスチャ座標算出手段と、 第1のオブジェクトの元絵テクスチャと、算出された前
記第1、第2のテクスチャ座標により指定される投影テ
クスチャとを、第1のオブジェクトにマッピングし、第
1のオブジェクトを描画する描画手段と、 オブジェクト空間内において仮想カメラから見える画像
を生成する手段と、 を含むことを特徴とする画像生成システム。
1. An image generation system for generating an image, comprising: projecting a vertex of a first object in a given projection direction;
Texture coordinate calculating means for calculating first and second texture coordinates of the projected texture based on the first and second coordinates of the vertices obtained by projection; and an original picture texture of the first object. The projection texture specified by the first and second texture coordinates is mapped to a first object, and a drawing means for drawing the first object, and an image viewed from a virtual camera in an object space is generated. Means, and an image generation system comprising:
【請求項2】 請求項1において、 前記テクスチャ座標算出手段が、 前記第1、第2の座標から前記第1、第2のテクスチャ
座標を算出する際のオフセット値又はスケーリング値、
或いは投影方向を、リアルタイムに変化させることを特
徴とする画像生成システム。
2. The method according to claim 1, wherein the texture coordinate calculation unit calculates an offset value or a scaling value when calculating the first and second texture coordinates from the first and second coordinates.
Alternatively, an image generation system wherein the projection direction is changed in real time.
【請求項3】 請求項1又は2において、 前記投影テクスチャが、第1のオブジェクトをハイライ
ト表示するためのハイライト用テクスチャであることを
特徴とする画像生成システム。
3. The image generation system according to claim 1, wherein the projection texture is a highlight texture for highlighting the first object.
【請求項4】 請求項1又は2において、 前記投影テクスチャが、第1のオブジェクトに第2のオ
ブジェクトの影を落とすための影用テクスチャであるこ
とを特徴とする画像生成システム。
4. The image generation system according to claim 1, wherein the projection texture is a shadow texture for casting a shadow of a second object on a first object.
【請求項5】 請求項4において、 前記第2のオブジェクトにジオメトリ処理を施すこと
で、前記影用テクスチャが生成されることを特徴とする
画像生成システム。
5. The image generation system according to claim 4, wherein the shadow texture is generated by performing a geometry process on the second object.
【請求項6】 請求項1乃至5のいずれかにおいて、 前記テクスチャ座標算出手段が、 第1のオブジェクトの頂点を所与の回転マトリクスで回
転させることで得られる頂点の第1、第2の座標に基づ
いて、投影テクスチャの第1、第2のテクスチャ座標を
算出することを特徴とする画像生成システム。
6. The first and second coordinates of a vertex obtained by rotating a vertex of a first object by a given rotation matrix, wherein the texture coordinate calculating means is configured to rotate the vertex of the first object by a given rotation matrix. An image generation system for calculating first and second texture coordinates of a projected texture based on the first and second texture coordinates.
【請求項7】 請求項1乃至6のいずれかにおいて、 前記描画手段が、 第1のオブジェクトのオブジェクトデータと元絵テクス
チャとに基づいて、第1のオブジェクトを描画し、 前記テクスチャ座標算出手段が、 第1のオブジェクトのオブジェクトデータに含まれる元
絵テクスチャの第1、第2のテクスチャ座標を、算出さ
れた投影テクスチャの第1、第2のテクスチャ座標に置
き換え、 前記描画手段が、 第1、第2のテクスチャ座標が置き換えられたオブジェ
クトデータと前記投影テクスチャとに基づいて、第1の
オブジェクトを描画することを特徴とする画像生成シス
テム。
7. The method according to claim 1, wherein the drawing means draws a first object based on object data of the first object and an original picture texture, and the texture coordinate calculation means Replacing the first and second texture coordinates of the original picture texture included in the object data of the first object with the first and second texture coordinates of the calculated projected texture; An image generating system, wherein a first object is drawn based on object data in which second texture coordinates have been replaced and the projected texture.
【請求項8】 コンピュータが使用可能な情報記憶媒体
であって、 第1のオブジェクトの頂点を所与の投影方向で投影し、
投影により得られた頂点の第1、第2の座標に基づい
て、投影テクスチャの第1、第2のテクスチャ座標を算
出するテクスチャ座標算出手段と、 第1のオブジェクトの元絵テクスチャと、算出された前
記第1、第2のテクスチャ座標により指定される投影テ
クスチャとを、第1のオブジェクトにマッピングし、第
1のオブジェクトを描画する描画手段と、 オブジェクト空間内において仮想カメラから見える画像
を生成する手段と、 を実行するためのプログラムを含むことを特徴とする情
報記憶媒体。
8. A computer-usable information storage medium for projecting vertices of a first object in a given projection direction.
Texture coordinate calculating means for calculating first and second texture coordinates of the projected texture based on the first and second coordinates of the vertices obtained by projection; and an original picture texture of the first object. The projection texture specified by the first and second texture coordinates is mapped to a first object, and a drawing means for drawing the first object, and an image viewed from a virtual camera in an object space is generated. An information storage medium comprising: means; and a program for executing:
【請求項9】 請求項8において、 前記テクスチャ座標算出手段が、 前記第1、第2の座標から前記第1、第2のテクスチャ
座標を算出する際のオフセット値又はスケーリング値、
或いは投影方向を、リアルタイムに変化させることを特
徴とする情報記憶媒体。
9. The method according to claim 8, wherein the texture coordinate calculation unit calculates an offset value or a scaling value when calculating the first and second texture coordinates from the first and second coordinates.
Alternatively, an information storage medium characterized by changing a projection direction in real time.
【請求項10】 請求項8又は9において、 前記投影テクスチャが、第1のオブジェクトをハイライ
ト表示するためのハイライト用テクスチャであることを
特徴とする情報記憶媒体。
10. The information storage medium according to claim 8, wherein the projection texture is a highlight texture for highlight-displaying the first object.
【請求項11】 請求項8又は9において、 前記投影テクスチャが、第1のオブジェクトに第2のオ
ブジェクトの影を落とすための影用テクスチャであるこ
とを特徴とする情報記憶媒体。
11. The information storage medium according to claim 8, wherein the projection texture is a shadow texture for casting a shadow of a second object on a first object.
【請求項12】 請求項11において、 前記第2のオブジェクトにジオメトリ処理を施すこと
で、前記影用テクスチャが生成されることを特徴とする
情報記憶媒体。
12. The information storage medium according to claim 11, wherein the shadow texture is generated by performing a geometry process on the second object.
【請求項13】 請求項8乃至12のいずれかにおい
て、 前記テクスチャ座標算出手段が、 第1のオブジェクトの頂点を所与の回転マトリクスで回
転させることで得られる頂点の第1、第2の座標に基づ
いて、投影テクスチャの第1、第2のテクスチャ座標を
算出することを特徴とする情報記憶媒体。
13. The first and second coordinates of the vertices obtained by rotating the vertices of the first object by a given rotation matrix, according to claim 8, An information storage medium for calculating first and second texture coordinates of a projected texture based on the first and second texture coordinates.
【請求項14】 請求項8乃至13のいずれかにおい
て、 前記描画手段が、 第1のオブジェクトのオブジェクトデータと元絵テクス
チャとに基づいて、第1のオブジェクトを描画し、 前記テクスチャ座標算出手段が、 第1のオブジェクトのオブジェクトデータに含まれる元
絵テクスチャの第1、第2のテクスチャ座標を、算出さ
れた投影テクスチャの第1、第2のテクスチャ座標に置
き換え、 前記描画手段が、 第1、第2のテクスチャ座標が置き換えられたオブジェ
クトデータと前記投影テクスチャとに基づいて、第1の
オブジェクトを描画することを特徴とする情報記憶媒
体。
14. The method according to claim 8, wherein the drawing means draws a first object based on object data of the first object and an original picture texture, and the texture coordinate calculation means Replacing the first and second texture coordinates of the original picture texture included in the object data of the first object with the first and second texture coordinates of the calculated projected texture; An information storage medium for drawing a first object based on object data in which second texture coordinates have been replaced and the projected texture.
JP25618799A 1999-09-09 1999-09-09 Image generation system and information storage medium Expired - Lifetime JP3254195B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25618799A JP3254195B2 (en) 1999-09-09 1999-09-09 Image generation system and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25618799A JP3254195B2 (en) 1999-09-09 1999-09-09 Image generation system and information storage medium

Publications (2)

Publication Number Publication Date
JP2001084391A true JP2001084391A (en) 2001-03-30
JP3254195B2 JP3254195B2 (en) 2002-02-04

Family

ID=17289125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25618799A Expired - Lifetime JP3254195B2 (en) 1999-09-09 1999-09-09 Image generation system and information storage medium

Country Status (1)

Country Link
JP (1) JP3254195B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003009235A1 (en) * 2001-07-13 2003-01-30 Sony Computer Entertainment Inc. Rendering method
EP1569171A1 (en) * 2002-12-06 2005-08-31 Konami Corporation Image processing device, image processing method, program and information storing medium
WO2008012995A1 (en) * 2006-07-28 2008-01-31 Konami Digital Entertainment Co., Ltd. Image processing device, image processing method and information storage midium
CN102855604A (en) * 2012-08-08 2013-01-02 Tcl集团股份有限公司 Nine-grid frame drawing method and device and nine-grid frame rotating method and device
US11188767B2 (en) 2019-03-28 2021-11-30 Denso Ten Limited Image generation device and image generation method
CN114387392A (en) * 2021-12-13 2022-04-22 清华大学 Method for reconstructing three-dimensional human body posture according to human shadow

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003009235A1 (en) * 2001-07-13 2003-01-30 Sony Computer Entertainment Inc. Rendering method
US6812931B2 (en) 2001-07-13 2004-11-02 Sony Computer Entertainment Inc. Rendering process
EP1569171A1 (en) * 2002-12-06 2005-08-31 Konami Corporation Image processing device, image processing method, program and information storing medium
EP1569171A4 (en) * 2002-12-06 2006-11-02 Konami Corp Image processing device, image processing method, program and information storing medium
WO2008012995A1 (en) * 2006-07-28 2008-01-31 Konami Digital Entertainment Co., Ltd. Image processing device, image processing method and information storage midium
KR100959051B1 (en) * 2006-07-28 2010-05-20 가부시키가이샤 코나미 데지타루 엔타테인멘토 Image processing device, image processing method and information storage midium
US8314795B2 (en) 2006-07-28 2012-11-20 Konami Digital Entertainment Co., Ltd. Image processing device, image processing method and information storage medium
CN102855604A (en) * 2012-08-08 2013-01-02 Tcl集团股份有限公司 Nine-grid frame drawing method and device and nine-grid frame rotating method and device
US11188767B2 (en) 2019-03-28 2021-11-30 Denso Ten Limited Image generation device and image generation method
CN114387392A (en) * 2021-12-13 2022-04-22 清华大学 Method for reconstructing three-dimensional human body posture according to human shadow

Also Published As

Publication number Publication date
JP3254195B2 (en) 2002-02-04

Similar Documents

Publication Publication Date Title
JP3249955B2 (en) Image generation system and information storage medium
JP4610748B2 (en) Image generation system, program, and information storage medium
JP2001319244A (en) Game system and information storage medium
JP3280355B2 (en) Image generation system and information storage medium
JP3656012B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4229319B2 (en) Image generation system, program, and information storage medium
JP3254195B2 (en) Image generation system and information storage medium
JP3297410B2 (en) Image generation system and information storage medium
JP4743770B2 (en) Image generation system, program, and information storage medium
JP4245356B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4721476B2 (en) Image generation system and information storage medium
JP2001229403A (en) Game system and information storage medium
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4574058B2 (en) Image generation system, program, and information storage medium
JP4707078B2 (en) Image generation system, program, and information storage medium
JP2005209217A (en) Game system and information storage medium
JP3292713B2 (en) Image generation system and information storage medium
JP3269813B2 (en) Image generation system and information storage medium
JP3431562B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2003162734A (en) Game system and information storage medium
JP4450535B2 (en) Image generation system and information storage medium
JP4803909B2 (en) Image generation system, program, and information storage medium
JP2001084393A (en) Picture generation system and information storage medium
JP4052843B2 (en) Image generation system, program, and information storage medium
JP4443084B2 (en) Image generation system and information storage medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20011113

R150 Certificate of patent or registration of utility model

Ref document number: 3254195

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071122

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081122

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091122

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091122

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091122

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101122

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101122

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111122

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111122

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121122

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121122

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131122

Year of fee payment: 12

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term