JP2003256866A - Image generating information and game information and information storing medium and image generating device and game device - Google Patents

Image generating information and game information and information storing medium and image generating device and game device

Info

Publication number
JP2003256866A
JP2003256866A JP2002052301A JP2002052301A JP2003256866A JP 2003256866 A JP2003256866 A JP 2003256866A JP 2002052301 A JP2002052301 A JP 2002052301A JP 2002052301 A JP2002052301 A JP 2002052301A JP 2003256866 A JP2003256866 A JP 2003256866A
Authority
JP
Japan
Prior art keywords
information
character
game
eye
eyeball
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002052301A
Other languages
Japanese (ja)
Other versions
JP4006243B2 (en
Inventor
典宏 ▲高▼見
Norihiro Takami
Hideaki Takeda
秀明 武田
Katsutomo Itai
克倫 板井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2002052301A priority Critical patent/JP4006243B2/en
Publication of JP2003256866A publication Critical patent/JP2003256866A/en
Application granted granted Critical
Publication of JP4006243B2 publication Critical patent/JP4006243B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To realize ideal reflection or luminance processing regardless of the shape of a model in a device for generating an image in a virtual space. <P>SOLUTION: The luminance processing or reflection processing of eye balls to be disposed at the right and left of a character is executed by using normal vectors when the eye balls are disposed in ideal directions. In this case, a figure (a) indicates one example of the ideal disposal, and a figure (b) indicates one example of the actual disposing directions. The normal vectors of the respective vertexes of the eye balls disposed in the ideal directions are set as virtual normal vectors at the respective vertexes of the eye balls disposed in the real directions. Then, the luminance processing or reflection processing is executed by using the virtual normal vectors. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、キャラクタを含む
仮想空間の画像を生成するための画像生成情報、ゲーム
情報、係る画像生成情報またはゲーム情報を記憶する情
報記憶媒体、およびキャラクタを含む仮想空間の画像を
生成する装置等に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to image generation information for generating an image of a virtual space including a character, game information, an information storage medium for storing the image generation information or the game information, and a virtual space including the character. The present invention relates to a device and the like for generating an image.

【0002】[0002]

【発明の背景】コンピュータ等の装置を用いて、3次元
の仮想空間を構築し、係る仮想空間の画像を生成する技
術が多く開発されている。係る技術では、オブジェクト
を仮想空間内に配置し、これらオブジェクトを仮想空間
内に設定した視点に基づいて描画して、画像を生成して
いる。なお、一般にオブジェクトには、建物や机、木、
車などの物体の他、人などの動物も含まれる。以下で
は、動物を形象するオブジェクトを他のオブジェクトと
区別するために、「キャラクタ」と表記する。
BACKGROUND OF THE INVENTION Many techniques have been developed for constructing a three-dimensional virtual space using a device such as a computer and generating an image of the virtual space. In such a technique, objects are arranged in a virtual space, and these objects are drawn based on a viewpoint set in the virtual space to generate an image. Generally, objects include buildings, desks, trees,
In addition to objects such as cars, animals such as people are also included. Hereinafter, in order to distinguish an object representing an animal from other objects, it is referred to as a “character”.

【0003】各オブジェクトやキャラクタの形状は、一
般に、ポリゴンと呼ばれる三角形や四角形の平面を複数
繋ぎ合わせたモデルにより定義される。そして、これら
のモデルを構成する個々のポリゴンと視点との位置関
係、ポリゴン同士の位置関係、各ポリゴンの色情報など
に基づいて係るモデルを描画している。
The shape of each object or character is generally defined by a model in which a plurality of triangular or quadrangular planes called polygons are connected. Then, the model is drawn based on the positional relationship between the individual polygons forming these models and the viewpoint, the positional relationship between the polygons, the color information of each polygon, and the like.

【0004】ところで、上述のようにコンピュータを用
いて仮想空間の画像を生成する際には、モデルの質感を
リアルに表現したり、仮想空間全体を写実的に表現する
ために、現実世界における物理法則に基づく光学処理を
施すことがある。具体的には、仮想空間内に光源の位置
を設定し、係る光源、視点、モデルを形成する各ポリゴ
ン、などの位置および向きの関係に基づく光線反射の計
算を行ったり、各ポリゴンの輝度処理を行うなどして、
モデルの鏡面性やハイライトを表現することがある。
By the way, when the image of the virtual space is generated by using the computer as described above, in order to realistically express the texture of the model or to express the entire virtual space realistically, the physics in the real world is used. Optical processing based on the law may be performed. Specifically, the position of the light source is set in the virtual space, the light reflection is calculated based on the relationship between the position and the direction of the light source, the viewpoint, each polygon forming the model, and the brightness processing of each polygon. By doing
It may express the specularity or highlight of the model.

【0005】[0005]

【発明が解決しようとする課題】コンピュータによる仮
想空間の画像生成においては、上述のように物理法則に
基づく処理を行って、現実性、写実性を追及することが
多くある。しかし、その一方で、現実世界には存在しな
い空想上の物体を表現したり、或いは現実世界に存在す
る物体をデフォルメして表現するような場合もある。
In the image generation of the virtual space by the computer, the processing based on the physical law is often performed as described above to pursue the reality and the realism. However, on the other hand, there are cases in which a fantasy object that does not exist in the real world is represented, or an object that exists in the real world is deformed and represented.

【0006】例えば、キャラクタの顔について、顔面全
体に対する目の占める割合を、現実世界における多くの
人よりも著しく大きくし、係るキャラクタのかわいらし
さを強調することがある。このように目を大きく設定す
れば、係るキャラクタの頭部における目の配置と、現実
の人の頭部における目の配置との間に差異が生じる。一
般的な人の場合、左右の眼孔部分(即ち、眼球が配置さ
れる頭部の穴)の開口方向は、それぞれ頭部前方を向
き、尚且つ略平行となっている。即ち、頭部表面に現れ
る眼球の部分(いわゆる目として見える部分)は、左右
ほぼ等しい方向を向いている。一方、目の大きいキャラ
クタの場合、頭部を占める目の割合が高いため、眼孔部
分を頭部の形状にそって配置することとなり、頭部表面
に現れる眼球の部分の向きが左右で異なる。それ故、上
記キャラクタの眼球のハイライトを物理法則に基づいて
表現すると、左右の眼球の輝き方が現実世界に見られる
ような輝き方とは異なることとなり、見る人に違和感を
与える恐れがある。
For example, in the face of a character, the proportion of eyes to the entire face may be made significantly larger than that of many people in the real world, and the cuteness of the character may be emphasized. If the eyes are set large in this way, a difference occurs between the arrangement of the eyes on the head of the character and the arrangement of the eyes on the actual person's head. In the case of a general person, the opening directions of the left and right eye hole portions (that is, the holes of the head where the eyeballs are arranged) face the front of the head and are substantially parallel. That is, the part of the eyeball that appears on the surface of the head (so-called part that can be seen as eyes) is oriented in substantially the same direction on the left and right. On the other hand, in the case of a character with large eyes, since the proportion of eyes occupying the head is high, the eye hole portion is arranged along the shape of the head, and the direction of the eyeball portion appearing on the head surface is different between left and right. . Therefore, if the highlighting of the character's eyeballs is expressed based on the physical law, the way the left and right eyeballs shine is different from the way that they shine in the real world, and this may give the viewer a feeling of strangeness. .

【0007】特に、プレーヤの操作入力に応答してリア
ルタイムに画像を生成するタイプのゲーム装置において
は、物理法則とは無関係に法則性なしに、尤らしく反射
やハイライトを表現することは困難である。即ち、現実
世界では見られないようなデフォルメされたモデルにつ
いて、そのモデルの形状とは無関係に、尤らしい位置に
ハイライトを表現したり、妥当な反射を実行すること
は、画像をリアルタイムに生成する制約上、困難な問題
であった。
In particular, in a game device of a type that generates an image in real time in response to a player's operation input, it is difficult to express reflections and highlights without any laws regardless of physical laws. is there. That is, for a deformed model that cannot be seen in the real world, highlighting at a plausible position and performing appropriate reflections generate an image in real time, regardless of the shape of the model. It was a difficult problem due to the restrictions on

【0008】本発明の課題は、仮想空間の画像を生成す
る装置において、モデルの形状に関わらず、理想的な反
射や輝度処理を実現することである。
An object of the present invention is to realize ideal reflection and brightness processing regardless of the shape of a model in a device for generating an image in a virtual space.

【0009】[0009]

【課題を解決するための手段】請求項1に記載の発明
は、プロセッサによる演算・制御により、光源と物体の
配置位置および向きとに基づいて当該物体の輝度処理を
行う輝度処理手段(例えば、図11の輝度処理部12
2)と、前記物体を含む仮想空間の画像を生成する手段
(例えば、図11の画像生成部120)と、を前記プロ
セッサを備える装置(例えば、図1のゲーム装置1)に
対して機能させるための画像生成情報であって、前記輝
度処理手段が、前記物体の向きに代えて、当該物体の基
準向きを用いて前記輝度処理を行う(例えば、図14の
眼球輝度処理)ように、前記装置に機能させるための情
報を含むことを特徴とする。なお、画像生成情報とは、
電子計算機(コンピュータ)による処理の用に供する、
プログラムに準じた情報の意である。
According to a first aspect of the present invention, a brightness processing means (for example, a brightness processing means for performing brightness processing of an object based on a light source and an arrangement position and direction of the object by calculation / control by a processor). Brightness processing unit 12 in FIG.
2) and means for generating an image of a virtual space including the object (for example, the image generation unit 120 in FIG. 11) are caused to function with respect to a device including the processor (for example, the game device 1 in FIG. 1). Image generation information for performing the brightness processing using the reference orientation of the object instead of the orientation of the object (for example, the eyeball brightness processing of FIG. 14), It is characterized by including information for causing the device to function. The image generation information is
Provide for processing by electronic computer (computer),
It means information according to the program.

【0010】請求項8に記載の発明は、光源と物体の配
置位置および向きとに基づいて当該物体の輝度処理を行
う輝度処理手段(例えば、図11の輝度処理部122)
と、前記物体を含む仮想空間の画像を生成する手段(例
えば、図11の画像生成部120)と、を備える画像生
成装置(例えば、図1のゲーム装置1)であって、前記
輝度処理手段は、前記物体の向きに代えて、当該物体の
基準向きを用いて前記輝度処理を行う(例えば、図14
の眼球輝度処理)ことを特徴とする。
According to an eighth aspect of the present invention, a brightness processing means for performing brightness processing on the object based on the light source and the arrangement position and orientation of the object (for example, the brightness processing section 122 in FIG. 11).
And a means for generating an image of a virtual space including the object (for example, the image generating section 120 in FIG. 11), the brightness processing means. Performs the brightness processing using the reference orientation of the object instead of the orientation of the object (see, for example, FIG.
Eyeball brightness processing).

【0011】この請求項1または8に記載の発明によれ
ば、物体の輝度処理をする際に、係る物体の向きに代え
て、当該物体の基準向きを用いる。故に、仮想空間に配
置する物体の位置および向きについて、従来に知られた
輝度処理の方法では実現することのないはずの輝きを、
係る従来に知られた輝度処理の方法を用いて実現するこ
とが可能となる。
According to the invention described in claim 1 or 8, when the brightness of the object is processed, the reference direction of the object is used instead of the direction of the object. Therefore, with respect to the position and orientation of the object placed in the virtual space, the brightness that should not be realized by the conventionally known luminance processing method,
This can be realized by using such a conventionally known luminance processing method.

【0012】ところで、コンピュータグラフィックスの
技術において、輝度処理を実行する際には、一般的に、
仮想空間に配置した物体の法線ベクトルを用いて行うこ
とがある。そこで、請求項2に記載の発明のように、請
求項1に記載の画像生成情報において、複数のプリミテ
ィブ面によって前記物体を形成する手段を、前記装置に
機能させるための情報と、前記輝度処理手段が、前記物
体が前記基準向きに配置されたときの、当該物体を形成
するプリミティブ面の頂点の法線ベクトル(例えば、本
実施の形態における仮法線ベクトル)に基づいて、前記
輝度処理を行うように、前記装置に機能させるための情
報を含むこととしてもよい。
By the way, in the computer graphics technology, when performing the brightness processing, generally,
It may be performed using the normal vector of the object placed in the virtual space. Therefore, as in the invention described in claim 2, in the image generation information according to claim 1, information for causing the device to function as means for forming the object by a plurality of primitive surfaces, and the brightness processing. The means performs the luminance processing based on a normal vector (for example, a tentative normal vector in the present embodiment) of a vertex of a primitive surface forming the object when the object is arranged in the reference direction. As it does, it may include information to cause the device to function.

【0013】ここで、プリミティブとは、コンピュータ
グラフィックスにおいて広く用いられる幾何形状(基本
要素)の意であって、プリミティブ面とは、係る幾何形
状の内、面を意味する。例えば、複数の頂点により形成
されるポリゴンと呼ばれる平面も含む。
Here, the primitive means a geometric shape (basic element) widely used in computer graphics, and the primitive surface means a surface of the geometric shape. For example, it also includes a plane called a polygon formed by a plurality of vertices.

【0014】また、請求項3に記載の発明のように、請
求項1または2に記載の画像生成情報において、開口方
向が非平行な眼孔部を複数有するとともに、各眼孔部に
眼球を配置したキャラクタを前記仮想空間に配置するキ
ャラクタ配置手段(例えば、図11のキャラクタ制御部
112)を前記装置に機能させるための情報と、前記複
数の眼孔部に配置される眼球それぞれを前記物体とする
ための手段を前記装置に機能させるための情報と、前記
輝度処理手段が、前記複数の眼孔部に配置される眼球そ
れぞれの向きに代えて、前記基準向きを用いて、前記眼
球それぞれについて前記輝度処理を行う、ように前記装
置に機能させるための情報と、を含むこととしてもよ
い。
Further, as in the invention described in claim 3, in the image generation information according to claim 1 or 2, there are a plurality of eye-hole portions whose opening directions are not parallel to each other, and an eye ball is provided in each eye-hole portion. Information for causing the device to function the character placement means (for example, the character control unit 112 in FIG. 11) for placing the placed character in the virtual space, and the eyeballs placed in the plurality of eye holes are the objects. Information for causing the device to function the device, and the brightness processing means, in place of the orientation of each eyeball arranged in the plurality of eye hole portions, using the reference orientation, each of the eyeballs And information for causing the device to function so as to perform the brightness processing.

【0015】この請求項3に記載の発明によれば、キャ
ラクタについて、眼球が配置される複数の眼孔部の開口
方向が非平行となっている。そして、個々の眼球の輝度
処理をする際には、眼球の向きに代えて、基準向きを用
いて行う。顔面に対する目の占める割合の高い、目の大
きいキャラクタの場合、頭部の形状に合わせて目(眼
球)を配置すれば、目の開口方向が左右で非平行にな
り、現実世界における人の目の配置とは異なる。係るキ
ャラクタを表現する際にも、人の目の眼球運動に基づく
眼球の向きを基準向きとしてキャラクタの眼球の輝度処
理を実行すれば、現実世界での目のハイライトと同等の
違和感のないハイライトを実現することが可能となる。
According to the third aspect of the present invention, in the character, the opening directions of the plurality of eye hole portions in which the eyeballs are arranged are not parallel. Then, when performing the brightness processing of each eyeball, the reference direction is used instead of the direction of the eyeball. In the case of a character with large eyes, which occupies a large proportion of the face, if the eyes (eyeballs) are arranged according to the shape of the head, the opening directions of the eyes will be non-parallel to the left and right, and Different from the arrangement. Even when representing such a character, if the luminance processing of the eyeball of the character is executed with the eyeball orientation based on the eyeball movement of the human eye as the reference orientation, a high-quality image equivalent to the highlight in the real world is obtained. It becomes possible to realize lights.

【0016】請求項4に記載の発明は、プロセッサによ
る演算・制御により、反射体と視点との位置関係に応じ
て当該反射体に映る被反射物を表現する反射表現手段
と、前記反射体を含む仮想空間の画像を前記視点に基づ
いて生成する手段と、を前記プロセッサを備える装置に
対して機能させるための画像生成情報であって、前記反
射表現手段が、前記反射体の向きに代えて、前記反射体
の基準向きを用いて当該反射体に映る被反射物を決定す
る、ように前記装置に機能させるための情報を含むこと
を特徴とする。
According to a fourth aspect of the present invention, the reflection expression means for expressing the object to be reflected on the reflector according to the positional relationship between the reflector and the viewpoint by calculation and control by the processor, and the reflector. Image generation information for causing an apparatus including the processor to generate an image of a virtual space including the viewpoint based on the viewpoint, wherein the reflection expression means replaces the orientation of the reflector. , And includes information for causing the device to function so as to determine the object to be reflected on the reflector by using the reference orientation of the reflector.

【0017】請求項9に記載の発明は、反射体と視点と
の位置関係に応じて当該反射体に映る被反射物を表現す
る反射表現手段と、前記反射体を含む仮想空間の画像を
前記視点に基づいて生成する手段と、を備える画像生成
装置であって、前記反射表現手段は、前記反射体の向き
に代えて、当該反射体の基準向きを用いて当該反射体に
映る被反射物を決定することを特徴とする。
According to a ninth aspect of the present invention, the reflection expressing means for expressing the object to be reflected on the reflector according to the positional relationship between the reflector and the viewpoint, and the image of the virtual space including the reflector are displayed. An image generation apparatus comprising: a means for generating based on a viewpoint, wherein the reflection expression means uses a reference orientation of the reflector instead of the orientation of the reflector to reflect the reflected object on the reflector. It is characterized by determining.

【0018】この請求項4または9に記載の発明によれ
ば、物体の表面に映る被反射物を決定する処理におい
て、係る物体の向きに代えて、当該物体の基準向きを用
いる。故に、仮想空間に配置する物体の位置および向き
について、従来に知られた反射の計算方法では実現する
ことのないはずの反射を、係る従来に知られた計算方法
を用いて実現することが可能となる。
According to the fourth or ninth aspect of the invention, in the process of determining the object to be reflected on the surface of the object, the reference direction of the object is used instead of the direction of the object. Therefore, with respect to the position and orientation of the object placed in the virtual space, it is possible to realize the reflection that cannot be realized by the conventionally known calculation method of reflection, by using such conventionally known calculation method. Becomes

【0019】なお、反射の計算においては、物体表面の
法線ベクトルを用いて計算を行うことが一般的である。
故に、請求項5に記載の発明のように、請求項4に記載
の画像生成情報において、複数のプリミティブ面によっ
て前記物体を形成する手段を、前記装置に機能させるた
めの情報と、前記反射表現手段が、前記反射体が基準向
きに配置されたときの、当該反射体の頂点の法線ベクト
ルに基づいて、当該反射体に映る被反射物を決定する、
ように前記装置に機能させるための情報を含むこととし
てもよい。
In the calculation of reflection, it is general to use the normal vector of the surface of the object.
Therefore, as in the invention described in claim 5, in the image generation information according to claim 4, information for causing the device to function the means for forming the object by a plurality of primitive surfaces, and the reflection expression. The means determines the object to be reflected on the reflector based on the normal vector of the vertex of the reflector when the reflector is arranged in the reference direction,
As described above, information for causing the device to function may be included.

【0020】請求項6に記載の発明は、プロセッサによ
る演算・制御により、操作入力に応答してキャラクタを
リアルタイムに動作させ、前記キャラクタが登場するゲ
ームを実行する手段と、視点に基づいて前記キャラクタ
を含む仮想空間の画像を生成する手段と、を前記プロセ
ッサを備える装置(例えば、図11のゲーム装置1)に
機能させるためのゲーム情報であって、前記キャラクタ
が、開口方向が非平行な眼孔部を複数有するとともに、
各眼孔部に眼球を配置して前記キャラクタを構成するキ
ャラクタ構成手段と、前記各眼球にハイライトを描画す
る際に、前記各眼孔部に対する相対的に同じ位置にハイ
ライトを描画するハイライト手段と、を前記装置に機能
させるための情報を含むことを特徴とする。なお、ゲー
ム情報とは、ゲーム装置等の電子計算機(コンピュー
タ)による処理の用に供する、プログラムに準じた情報
の意である。
According to a sixth aspect of the present invention, means for executing a game in which the character appears by operating the character in real time in response to an operation input by means of calculation / control by the processor, and the character based on the viewpoint. And game information for causing a device (for example, the game device 1 in FIG. 11) including the processor to function, and a means for generating an image of a virtual space including With multiple holes,
A character forming means for forming the character by arranging an eyeball in each eye hole portion, and a high point for drawing a highlight at the same position relative to each eye hole portion when drawing a highlight on each eyeball portion. And writing information for causing the device to function. Note that the game information means information according to a program, which is provided for processing by an electronic computer (computer) such as a game device.

【0021】請求項10に記載の発明は、操作入力に応
答してキャラクタをリアルタイムに動作させ、前記キャ
ラクタが登場するゲームを実行する手段と、視点に基づ
いて前記キャラクタを含む仮想空間の画像を生成する手
段と、を備えるゲーム装置であって、前記キャラクタ
が、開口方向が非平行な眼孔部を複数有するとともに、
各眼孔部に眼球を配置して前記キャラクタを構成するキ
ャラクタ構成手段と、前記各眼球にハイライトを描画す
る際に、前記各眼孔部に対する相対的に同じ位置にハイ
ライトを描画するハイライト手段と、を更に備えること
を特徴とする。
According to a tenth aspect of the present invention, a means for moving a character in real time in response to an operation input to execute a game in which the character appears, and an image of a virtual space including the character based on a viewpoint are displayed. And a means for generating the character, wherein the character has a plurality of eye opening portions whose opening directions are non-parallel,
A character forming means for forming the character by arranging an eyeball in each eye hole portion, and a high point for drawing a highlight at the same position relative to each eye hole portion when drawing a highlight on each eyeball portion. And a light unit.

【0022】この請求項6または10に記載の発明によ
れば、仮想空間に配置するキャラクタは、開口方向が非
平行な複数の眼孔部を有し、係る眼孔部にそれぞれ眼球
が配置されている。係る眼球のハイライトを表現する際
には、各眼孔部に対する相対的に同じ位置にハイライト
を描画する。故に、現実世界における一般的な人に見ら
れる目のハイライトと同様なハイライトを実現すること
が可能となる。
According to the sixth or tenth aspect of the invention, the character to be placed in the virtual space has a plurality of eye-hole portions whose opening directions are not parallel to each other, and the eye-balls are placed in the respective eye-hole portions. ing. When expressing the highlight of the eyeball, the highlight is drawn at the same position relative to each eye hole. Therefore, it is possible to realize a highlight similar to the highlight of the eyes seen by a general person in the real world.

【0023】なお、請求項7に記載の発明のように、情
報記憶媒体に対して、請求項1から5の何れかに記載の
画像生成情報または、請求項6に記載のゲーム情報を記
憶することとしても良いことは勿論である。
According to a seventh aspect of the invention, the image generation information according to any one of the first to fifth aspects or the game information according to the sixth aspect is stored in the information storage medium. Of course, it is also good.

【0024】[0024]

【発明の実施の形態】以下に、本実施の形態について図
面を参照して説明する。なお以下では、家庭用のゲーム
装置1により3次元の仮想空間を用いたゲームを実行す
る場合を例に説明する。また、以下では、人型キャラク
タの眼球のハイライト(特に明るい部分や白く見える部
分)を表現する場合を例に説明するが、以下の場合に限
定する必要はない。
BEST MODE FOR CARRYING OUT THE INVENTION The present embodiment will be described below with reference to the drawings. In the following, a case where a game using a three-dimensional virtual space is executed by the home-use game machine 1 will be described as an example. In the following, a case where the highlight of the eyeball of the humanoid character (part that looks particularly bright or white) is expressed will be described as an example, but it is not necessary to limit to the following case.

【0025】図1は、家庭用のゲーム装置1の一例を示
す図である。同図によれば、ゲーム装置1は、ディスプ
レイ2、ゲームコントローラ3,4等が着脱自在な構成
になっている。また、ゲーム装置1に着脱自在な情報記
憶媒体であるCD−ROM5、ICカード6、メモリカ
ード7および、ゲーム装置1本体が備える情報記憶媒体
等に、システムプログラムやゲームプログラム、ゲーム
データ、本実施の形態を実現する為に必要な情報等のゲ
ーム情報が格納されている。
FIG. 1 is a diagram showing an example of a home-use game machine 1. As shown in the figure, the game apparatus 1 has a configuration in which the display 2, the game controllers 3, 4 and the like are detachable. In addition, the system program, the game program, the game data, and the present embodiment are stored in the CD-ROM 5, the IC card 6, the memory card 7, and the information storage medium provided in the main body of the game device 1, which are removable information storage media in the game device 1. The game information such as information necessary for realizing the above form is stored.

【0026】プレーヤは、ディスプレイ2に表示される
ゲーム画像を見ながらゲームコントローラ3,4を操作
して仮想空間内に存在するキャラクタの動作を指示した
り、各種選択を行ってゲームを楽しむ。
The player operates the game controllers 3 and 4 while watching the game image displayed on the display 2 to instruct the action of the character existing in the virtual space, and makes various selections to enjoy the game.

【0027】一方、ゲーム装置1の処理系は、ゲームコ
ントローラ3,4から入力される信号やゲーム情報に基
づいて、1フレーム毎に3次元の仮想空間の画像(ゲー
ム画像)を生成して、ディスプレイ2に表示させる。な
お、仮想空間内には各種キャラクタやオブジェクトを配
置し、ゲームコントローラ3,4から入力される信号や
ゲーム情報に基づいて、上記キャラクタやオブジェクト
の存在位置や向き、動作等を1フレーム毎に決定する。
On the other hand, the processing system of the game apparatus 1 generates a three-dimensional virtual space image (game image) for each frame based on signals and game information input from the game controllers 3 and 4, Display on the display 2. It should be noted that various characters and objects are arranged in the virtual space, and based on signals and game information input from the game controllers 3 and 4, the existence position, orientation, motion, etc. of the characters and objects are determined for each frame. To do.

【0028】さて、本実施の形態は、キャラクタの眼球
のハイライトを尤らしく表現することを特徴としてい
る。その際、ゲーム装置1の処理系は、仮想空間におけ
る光源とキャラクタの眼球との位置関係に応じた輝度処
理を行って、キャラクタの目の妥当な部分を輝かせる。
The present embodiment is characterized in that the highlight of the eyeball of the character is expressed with a high likelihood. At that time, the processing system of the game device 1 performs brightness processing according to the positional relationship between the light source in the virtual space and the eyeball of the character to illuminate an appropriate portion of the character's eye.

【0029】以下では、原則的に物体の輝度を次ぎのよ
うに決定する。図2は、仮想空間における光源の光線ベ
クトルL14と、物体10の表面との位置関係の一例を
示す図である。図2における(X,Y,Z)は、仮想空
間の座標系(以下、ワールド座標系という)を示してい
る。また、光線ベクトルL14の大きさは、大きさ”
1”である。
In the following, the brightness of the object is determined in principle as follows. FIG. 2 is a diagram showing an example of the positional relationship between the light ray vector L14 of the light source and the surface of the object 10 in the virtual space. (X, Y, Z) in FIG. 2 indicates the coordinate system of the virtual space (hereinafter referred to as the world coordinate system). Also, the size of the light ray vector L14 is
It is 1 ".

【0030】さて、物体10表面上の点12の輝度は、
光線ベクトルL14の逆ベクトル(−L14´)と、点
12における物体10の法線ベクトルN16(大きさ”
1”)との内積(cosθ)によって決定する。このと
き、内積の絶対値|cosθ|が1に近いほど物体10に
おける点12の輝度が高く、内積の絶対値が0に近いほ
ど輝度が低くなるように設定する。なお、この計算方法
は、現実世界における拡散反射の概念とほぼ同等の計算
方法である。
Now, the brightness of the point 12 on the surface of the object 10 is
The inverse vector (-L14 ') of the ray vector L14 and the normal vector N16 (size "of the object 10 at the point 12)
1 ”) and the inner product (cos θ). The closer the absolute value of the inner product | cos θ | is to 1, the higher the brightness of the point 12 on the object 10, and the closer the absolute value of the inner product is to 0, the lower the brightness. This calculation method is almost the same as the concept of diffuse reflection in the real world.

【0031】また、本実施の形態では、ゲームに登場さ
せるキャラクタの顔面における左右の目を比較的大きく
表現する。図3は、本実施の形態におけるキャラクタ2
0の顔面の一例を示す図である。図3によれば、キャラ
クタ20の右目22と左目24は、鼻26や唇28と比
較して著しく大きい。このように左右の目22、24を
大きく設定することで、キャラクタ20をかわいらし
く、また幻想的に表現する。
Further, in the present embodiment, the left and right eyes on the face of the character appearing in the game are expressed relatively large. FIG. 3 shows the character 2 in the present embodiment.
It is a figure which shows an example of the face of 0. According to FIG. 3, the right eye 22 and the left eye 24 of the character 20 are significantly larger than the nose 26 and the lips 28. By thus setting the left and right eyes 22 and 24 to be large, the character 20 is rendered cute and fantasy.

【0032】ところで人の頭部は一般にいびつな形状を
している。具体的に、頭部は、その前方の目が配置され
る部分は平面的であるものの、目尻から耳にかけて、更
に耳から後頭部へと湾曲しており、頭部の水平断面は閉
曲線を成している。
By the way, the head of a person generally has a distorted shape. Specifically, the head has a flat part in which the eyes are arranged, but it is curved from the corner of the eye to the ear and further from the ear to the occipital region, and the horizontal cross section of the head forms a closed curve. ing.

【0033】図4(a)は、現実世界における一般的な
人の頭部30について、左右の眼球32,34を含む水
平断面を模式的に描いたものである。また(b)は、
(a)に示す頭部30の正面(即ち顔面)の模式図であ
る。一般的な人の眼孔部(即ち、眼球が配置される頭部
の穴)は左右それぞれ頭部前方に配置されており、尚且
つ、その開口面は左右で略平行となっている。
FIG. 4 (a) is a schematic drawing of a horizontal section including the left and right eyeballs 32 and 34 of a general human head 30 in the real world. In addition, (b)
It is a schematic diagram of the front (namely, face) of the head 30 shown to (a). A general human eye hole portion (that is, a hole in the head where the eyeball is placed) is arranged in front of each of the left and right heads, and the opening surfaces thereof are substantially parallel to each other.

【0034】ここで、眼孔部の開口面とは、まぶたを開
いたときのいわゆる目の縁(目の輪郭線)を含む面の意
である。なお以下では、まぶたを開いたときに頭部表面
に現れる眼球の部分を単に「目」という。また、眼孔部
の開口面、即ち目の縁は、厳密には平面的ではないが、
以下では説明の簡便化のため平面的なものとし、係る眼
孔部の開口面を眼孔開口面という。
Here, the opening surface of the eye hole portion means a surface including a so-called eye edge (outline of eye) when the eyelid is opened. In the following, the portion of the eyeball that appears on the surface of the head when the eyelids are opened is simply referred to as "eyes". Further, the opening surface of the eye part, that is, the edge of the eye, is not strictly flat,
Below, for simplification of description, it is assumed to be planar, and the opening surface of the eye hole portion is referred to as an eye opening surface.

【0035】なお、図4(a)においては、直線32h
が眼球32に対する眼孔開口面を示し、直線34hが眼
球34に対する眼孔開口面を示しており、左右の眼孔開
口面32h,34hは略平行に配置されている。このと
き、左右の目32´,34´における相対的に同等な部
分の法線ベクトルは、それぞれ略平行な向きを指してい
る。例えば、図4(a)、(b)に示す頭部30の左目
34´の中心にある点38の法線ベクトル42と、右目
32´の中心にある点36の法線ベクトル40は、略平
行になっている。故に、上記拡散反射の計算方法によっ
て眼球のハイライトを計算すれば、各眼球に平行な光線
を投射したとき、左右の目の同等な部分が同様に輝くこ
とがわかる。
In FIG. 4 (a), the straight line 32h
Indicates the eye opening surface for the eye 32, the straight line 34h indicates the eye opening surface for the eye 34, and the left and right eye opening surfaces 32h, 34h are arranged substantially parallel to each other. At this time, the normal vectors of the relatively equal parts of the left and right eyes 32 'and 34' respectively point in substantially parallel directions. For example, the normal vector 42 of the point 38 at the center of the left eye 34 ′ of the head 30 and the normal vector 40 of the point 36 at the center of the right eye 32 ′ shown in FIGS. It is parallel. Therefore, when the highlight of the eyeball is calculated by the above-described method of calculating diffuse reflection, it can be seen that when light rays parallel to each eyeball are projected, the equivalent parts of the left and right eyes are similarly shining.

【0036】一方、図3に示したように、キャラクタの
左右の目22、24を現実世界における人の平均的な目
のサイズよりも大きく設定した場合、眼球の大きさと頭
部の形状との関係上、左右の眼孔開口面の向きは平行に
ならず、それぞれ略放射した方向を向くこととなる。
On the other hand, as shown in FIG. 3, when the left and right eyes 22 and 24 of the character are set to be larger than the average size of human eyes in the real world, the size of the eyeball and the shape of the head are Due to the relationship, the directions of the left and right eye opening surfaces are not parallel to each other, but the directions are substantially radiated.

【0037】図4(c)は、目の大きいキャラクタの左
右の眼球52,54を含む頭部50の水平断面を模式的
に描いたものである。また(d)は、(c)に示す頭部
50の正面(即ち顔面)の模式図である。(c)におい
ては、直線52hが眼球52に対する眼孔開口面を示
し、直線54hが眼球54に対する眼孔開口面を示して
いる。このように、左右の眼球を比較的大きく設定し、
頭部の形状に合わせて各眼球を配置すると、左右の眼孔
開口面52h,54hは非平行となる。従って、左右の
目52´,54´における相対的に同一な部分の法線ベ
クトルは、それぞれ異なる方向を向くこととなる。例え
ば、図4(d)に示す頭部50の左目54´の中心にあ
る点58の法線ベクトル72と、右目52´の中心にあ
る点56の法線ベクトル70は、互いに異なる方向を向
いている。
FIG. 4C schematically shows a horizontal cross section of the head 50 including the left and right eyeballs 52 and 54 of a character with large eyes. Further, (d) is a schematic view of the front surface (that is, the face) of the head 50 shown in (c). In (c), the straight line 52h indicates the eye opening surface for the eye 52, and the straight line 54h indicates the eye opening surface for the eye 54. In this way, set the left and right eyeballs relatively large,
When each eyeball is arranged according to the shape of the head, the left and right eye opening surfaces 52h and 54h are non-parallel. Therefore, the normal vectors of the relatively same portions of the left and right eyes 52 'and 54' face different directions. For example, the normal vector 72 of the point 58 at the center of the left eye 54 'and the normal vector 70 of the point 56 at the center of the right eye 52' of the head 50 shown in FIG. ing.

【0038】この場合において、平行な光線ベクトルに
対する各眼球の輝度を、上記計算方法に基づいて決定す
れば、左右の各眼球がばらばらな光り方をすることとな
る。例えば、図4(c)、(d)において、左目54´
の中心点58における法線ベクトル72は、右目52´
の中心点56の法線ベクトル70とは異なる向きを指す
が、右目52´の中心からずれた点60の法線ベクトル
74と略平行になっている。故にこれらの眼球に平行な
光線ベクトルを投射したときに、左目54´の中心58
の輝度が高ければ、それと法線ベクトルの向きが等しい
右目52´の位置60の輝度が高くなり、左右の目52
´、54´の異なる部分が輝くこととなる。
In this case, if the brightness of each eyeball with respect to the parallel ray vector is determined based on the above-mentioned calculation method, the left and right eyeballs will radiate differently. For example, in FIGS. 4C and 4D, the left eye 54 '
The normal vector 72 at the center point 58 of the
Although it points in a direction different from the normal vector 70 of the center point 56 of the right eye 52, it is substantially parallel to the normal vector 74 of the point 60 deviated from the center of the right eye 52 '. Therefore, when a ray vector parallel to these eyes is projected, the center 58 of the left eye 54 'is
If the brightness of the right eye 52 'is high, the brightness of the position 60 of the right eye 52' whose direction is the same as that of the normal vector is high,
The different parts of 'and 54' will shine.

【0039】このように、目の大きいキャラクタを表現
する場合において、上述の計算方法に基づいて眼球の輝
度を決定すると、現実の世界における人の目のハイライ
トとは異なるハイライトを表現することとなり、ゲーム
画像を見るプレーヤに対して違和感を与える恐れがあ
る。
Thus, in the case of expressing a character with large eyes, if the brightness of the eyeball is determined based on the above-described calculation method, a highlight different from the highlight of the human eye in the real world is expressed. Therefore, a player who views the game image may feel uncomfortable.

【0040】このとき、目の大きさに合わせて頭部を大
きく設計すれば、目の配置が一般的な人の目の配置と同
等になるが、目が大きいというキャラクタの特徴が消滅
する。また、頭部の形状を変えずに左右の眼孔開口面の
向きが平行となるように設計すれば、目が飛び出たよう
になり、若しくは目が落ち窪んだようになり、キャラク
タの美観が損なわれる。
At this time, if the head is designed to be large in accordance with the size of the eyes, the arrangement of the eyes will be the same as that of a general human eye, but the characteristic of the character that the eyes are large disappears. Also, if the left and right eye opening surfaces are designed to be parallel to each other without changing the shape of the head, the eyes will appear to be popped out or the eyes will be depressed, and the aesthetic appearance of the character will be improved. Be damaged.

【0041】そこで、本実施の形態では、左右の眼孔開
口面が略平行となる状態、即ち、左右の目が頭部前方に
略平行に配置されたと仮定したときの眼球の向きを基準
向きとし、係る基準向きに配置された眼球の法線ベクト
ルを用いて、実際の向きに配置された眼球の輝度処理を
行う。なお、眼球の向きとは、瞳孔(本来、瞳孔は面で
あるが、ここでは黒目における中心点とする)の法線ベ
クトルの向きを指すこととする。
Therefore, in the present embodiment, the reference directions are the directions of the eyeballs assuming that the left and right eye opening surfaces are substantially parallel, that is, assuming that the left and right eyes are arranged substantially parallel to the front of the head. Then, the brightness processing of the eyeball arranged in the actual direction is performed using the normal vector of the eyeball arranged in the reference direction. Note that the direction of the eyeball refers to the direction of the normal vector of the pupil (the pupil is originally a surface, but here is the center point of the black eye).

【0042】但し一般的に、眼球は、目の縁(輪郭)内
を上下左右に自由に移動させ得るものであるから、キャ
ラクタの眼球についても、眼孔開口面の向きに関わらず
ゲーム実行中に自由に眼球の向きを変更できるようにし
てもよい。これに伴い、本実施の形態では、「基準向
き」を、キャラクタの頭部や仮想空間に対して絶対的に
定めるのではなく、実際の眼球のあらゆる向きに対する
相対的な向きとして設定する。
However, in general, the eyeball can freely move up and down, left and right within the edge (outline) of the eye, and therefore the character's eyeball is running during the game regardless of the orientation of the eye opening surface. The direction of the eyeball may be freely changed. Accordingly, in the present embodiment, the “reference orientation” is set not as an absolute orientation with respect to the head of the character or the virtual space but as a relative orientation with respect to all actual orientations of the eyeball.

【0043】以下に、本実施の形態における「基準向
き」の定義を説明する。図5は、眼球の「実際の向き」
と「基準向き」との関係を説明する為の図である。図5
(a)は、実際の眼孔開口面の向きと、理想的な眼孔開
口面の向きの関係を示す図であり、頭部の水平断面を示
している。(a)において、頭部における鼻頭と後頭部
とを結ぶ直線80と垂直に交わる直線54h´が理想的
な眼孔開口面を示し、頭部に沿って引かれた直線54h
が、眼球54の実際の眼孔開口面を示している。(a)
によれば、実際の眼孔開口面54hと理想的な眼孔開口
面54h´は、角度ψを成している。以下では、係る角
度を「変移角」という。
The definition of "reference orientation" in the present embodiment will be described below. Figure 5 shows the "actual orientation" of the eyeball.
It is a figure for explaining the relation between "reference direction". Figure 5
(A) is a figure which shows the relationship of the direction of an actual eye-opening surface and the direction of an ideal eye-opening surface, and has shown the horizontal cross section of a head. In (a), a straight line 54h 'perpendicular to a straight line 80 connecting the nasal head and the occipital region in the head shows an ideal eye opening surface, and a straight line 54h drawn along the head.
Shows the actual aperture surface of the eyeball 54. (A)
According to the above, the actual eye opening surface 54h and the ideal eye opening surface 54h 'form an angle ψ. Hereinafter, such an angle will be referred to as a “shift angle”.

【0044】図5(b)は、(a)に示す設定のもとで
の、左目54´における黒目の位置に対する、眼球54
の「実際の向き」と「基準向き」との関係を示す図であ
る。(b)において、眼球の実際の向きをDで表記し、
対応する眼球の基準向きをD Sによって表記する。ま
た、各向きD、DSは、頭部の形状を定義するための座
標系(xH,yH,zH)における向きを示している。
FIG. 5B shows the settings under FIG.
Of the eyeball 54 with respect to the position of the black eye of the left eye 54 '.
It is a figure which shows the relationship between "actual direction" and "reference direction."
It In (b), the actual direction of the eyeball is represented by D,
D is the reference direction of the corresponding eyeball SNotated by Well
Each direction D, DSIs a seat for defining the shape of the head
Standard (xH, YH, ZH) Shows the direction.

【0045】さて、本実施の形態では、眼孔開口面の実
際の配置と理想的な配置とで、「目の縁」に対する黒目
の位置が等しくなるように、眼球の「実際の向き」と
「基準向き」とを対応付ける。
In the present embodiment, the "actual orientation" of the eyeball is adjusted so that the positions of the iris with respect to the "edge of the eye" are the same in the actual placement and the ideal placement of the eye opening surface. Correspond with "reference orientation".

【0046】具体的に図5(b)を参照して、黒目を左
目54´の中央に配置する場合を例に説明する。実際の
左目54´の向き(即ち、眼孔開口面54hの向き)に
対しては、瞳孔の法線ベクトルが眼孔開口面54hに垂
直となるように眼球54を配置すれば、黒目を左目54
´の中央に配置できる。同様に、理想的な左目54´の
向き(即ち、理想的な眼孔開口面54h´の向き)に対
しては、瞳孔の法線ベクトルが眼孔開口面54h´に垂
直となるように眼球54を配置すれば、黒目を目の縁5
4´の中央に配置できる。このように、瞳孔(黒目)が
目の同等な部分に位置するように、「実際の向き」と
「基準向き」とを対応付ける。即ち本実施の形態では、
基準向きDSを、「頭部の鉛直方向(図5(b)におけ
るyHの方向)を軸として眼球の実際の向きDを±ψ回
転させたもの」として定義する。ここで、符号+はzH
−xH平面における左回りを意味し、符号−は右回りを
意味する。例えば、眼球54の場合には、符号は−とな
る。
Specifically, with reference to FIG. 5B, a case where the black eye is arranged at the center of the left eye 54 'will be described as an example. With respect to the actual orientation of the left eye 54 '(that is, the orientation of the eye opening surface 54h), if the eyeball 54 is arranged so that the normal vector of the pupil is perpendicular to the eye opening surface 54h, the black eye becomes the left eye. 54
It can be placed in the center of ´. Similarly, with respect to the ideal orientation of the left eye 54 '(that is, the ideal orientation of the eye opening surface 54h'), the eyeball is arranged so that the normal vector of the pupil is perpendicular to the eye opening surface 54h '. If you place 54, the black eye
It can be placed in the center of 4 '. In this way, the “actual orientation” and the “reference orientation” are associated with each other so that the pupil (black eye) is located in the same area as the eyes. That is, in this embodiment,
The reference direction D S is defined as “the actual direction D of the eyeball rotated by ± ψ about the vertical direction of the head (direction of y H in FIG. 5B)”. Where sign + is z H
-Means counterclockwise rotation in the x H plane, and the symbol-means clockwise rotation. For example, in the case of the eyeball 54, the code is −.

【0047】この「基準向き」の定義によれば、眼球の
法線ベクトルを変移角ψの分だけ傾けて設定すれば、眼
球を何れの向きに配置しても、必ず基準向きに配置され
た場合の法線ベクトルを用いた輝度処理を行うことがで
きる。以下では、眼球の法線ベクトルを変移角ψの分だ
け傾けたベクトルを、仮法線ベクトルという。
According to the definition of "reference orientation", if the normal vector of the eyeball is set by inclining by the displacement angle ψ, the eyeball is always placed in the reference orientation regardless of the orientation. Luminance processing using the normal vector of the case can be performed. Hereinafter, a vector obtained by inclining the normal vector of the eyeball by the displacement angle ψ is referred to as a provisional normal vector.

【0048】図6(a)は、眼孔開口面52h´、54
h´が理想的な位置に配置された場合の、眼球の各頂点
の法線ベクトルを示す図である。また、(b)は、実際
の向きに眼孔開口面52h、54hが配置された場合
の、眼球の各頂点の仮法線ベクトルを示す図である。な
お、(a)に示す眼球も、(b)に示す眼球も、いずれ
も黒目が目の中央に位置するための方向を向いている。
即ち、(a)に示す眼球の向きは、(b)に示す眼球の
向きに対する基準向きとなっている。
FIG. 6A shows the eye opening surfaces 52h ', 54.
It is a figure which shows the normal vector of each vertex of an eyeball when h'is arrange | positioned at an ideal position. Further, (b) is a diagram showing a provisional normal vector of each vertex of the eyeball when the eye opening surfaces 52h and 54h are arranged in the actual direction. Note that both the eyeball shown in (a) and the eyeball shown in (b) face the direction in which the iris is located at the center of the eye.
That is, the orientation of the eyeball shown in (a) is a reference orientation with respect to the orientation of the eyeball shown in (b).

【0049】図6(a)によれば、左右の眼球52,5
4上の相対的に同一な部分の法線ベクトルはそれぞれ略
平行となっている。例えば、右目52の左方向の点PR1
における法線ベクトルNR1は、左目54の左方向の点P
L1における法線ベクトルNL1と略平行であり、同様に、
右目52中央の点PR2の法線ベクトルNR2は、左目54
中央の点PL2の法線ベクトルNL2と略平行に、右目52
の点PR3の法線ベクトルNR2は、左目54の点PL3の法
線ベクトルNL3と略平行になっている。
According to FIG. 6A, the left and right eyeballs 52, 5
The normal vectors of the relatively same parts on 4 are substantially parallel to each other. For example, the point P R1 to the left of the right eye 52
The normal vector N R1 at is the point P to the left of the left eye 54.
Is substantially parallel to the normal vector N L1 at L1, and similarly,
The normal vector N R2 of the point P R2 in the center of the right eye 52 is
Substantially parallel to the normal vector N L2 of the center point P L2, the right eye 52
The normal vector N R2 of the point P R3 is substantially parallel to the normal vector N L3 of the point P L3 of the left eye 54.

【0050】一方、図6(b)によれば、眼球上の各点
R1〜点PR3、点PL1〜点PL3の仮法線ベクトルは、眼
球が基準向きに配置されたときの法線ベクトルNR1〜N
R3、NL1〜NL3と一致する。故に、左右の眼球52,5
4の相対的に同一な部分の仮法線ベクトルはそれぞれ略
平行な向きとなり、係る仮法線ベクトルを用いて輝度計
算を行えば、現実世界における人の目のハイライトと何
ら変わることないキャラクタの目のハイライトを表現す
ることができる。
On the other hand, according to FIG. 6B, the provisional normal vectors of the points P R1 to P R3 and the points P L1 to P L3 on the eyeball are obtained when the eyeball is arranged in the reference direction. Normal vector N R1 ~ N
Matches R3 , N L1 to N L3 . Therefore, the left and right eyeballs 52, 5
The tentative normal vectors of the relatively same portions of 4 are substantially parallel to each other, and if luminance calculation is performed using such tentative normal vectors, the character is no different from the highlight of human eyes in the real world. You can express the highlights of your eyes.

【0051】ところで、本実施の形態では、眼球の形状
をポリゴンモデルによって定義する。また、輝度の計算
は、各ポリゴンを形成する頂点の一つ一つに対して実行
する。具体的には、各頂点に予め基調色と光彩色とを設
定し、ゲーム実行中に、上記計算方法に基づいて頂点の
輝度を算出し、係る輝度に基づいて頂点の基調色と光彩
色の合成率を決定し、頂点の色を決定する。また、ポリ
ゴンの表面全体の色は、各頂点の色を補間して決定す
る。
By the way, in the present embodiment, the shape of the eyeball is defined by a polygon model. Further, the brightness calculation is executed for each of the vertices forming each polygon. Specifically, the basic color and the luminescent color are set in advance for each vertex, the brightness of the vertex is calculated based on the above calculation method during the game execution, and the basic color and the luminescent color of the vertex are calculated based on the brightness. The composition ratio is determined, and the vertex color is determined. The color of the entire surface of the polygon is determined by interpolating the color of each vertex.

【0052】図7は、眼球のポリゴンモデル(以下、眼
球モデルという)の一部を示す図であり、頭部の形状に
従って眼球モデル92,94を配置し、頭部から俯瞰し
たときの一例を示している。なお、本実施の形態では、
各眼球モデル92,94を球形状ではなく、図7に示す
形状とする。これは、左右の各眼球を、それぞれ瞳孔部
分における垂線に対して垂直に切断したときの、瞳孔を
含む側の部分である。以下では、係る眼球の切断面9
6,98を、便宜上、眼球底面という。
FIG. 7 is a diagram showing a part of an eyeball polygon model (hereinafter referred to as an eyeball model). An example of an eyeball model in which the eyeball models 92 and 94 are arranged according to the shape of the head and the bird's-eye view is taken from the head Shows. In the present embodiment,
Each of the eyeball models 92 and 94 has a shape shown in FIG. 7, instead of a spherical shape. This is a part on the side including the pupil when each of the left and right eyeballs is cut perpendicularly to the perpendicular to the pupil part. Below, such a cut surface 9 of the eyeball
For convenience sake, reference numerals 6 and 98 are referred to as the eyeball bottom surface.

【0053】本実施の形態では、眼球モデルにおける頂
点の一つ一つに対して仮法線ベクトルを設定する。
In this embodiment, a provisional normal vector is set for each vertex of the eyeball model.

【0054】なお、頭部の形状に合わせて配置された眼
球モデルの各頂点には、当該眼球モデルの法線ベクトル
を変移角ψだけ傾けたものを、仮法線ベクトルとして設
定するわけであるが、各頂点の法線ベクトルは、その頂
点を含む全てのポリゴンの法線ベクトルを平均したもの
とする。例えば、図8における、六つの三角形のポリゴ
ンS1〜S6に含まれる頂点pの法線ベクトルは、各ポリ
ゴンS1〜S6の各法線ベクトルの平均によって決定す
る。
At each vertex of the eyeball model arranged according to the shape of the head, the normal vector of the eyeball model inclined by the transition angle ψ is set as a provisional normal vector. However, the normal vector of each vertex is the average of the normal vectors of all polygons including the vertex. For example, the normal vector of the vertex p included in the six triangular polygons S 1 to S 6 in FIG. 8 is determined by the average of the normal vector of each polygon S 1 to S 6 .

【0055】次ぎに、各眼球モデルを定義する座標系
(x,y,z)における仮法線ベクトルの向きについて
説明する。以下では、眼球モデルを定義する為の座標系
を眼球座標系という。
Next, the direction of the tentative normal vector in the coordinate system (x, y, z) that defines each eyeball model will be described. Below, the coordinate system for defining an eyeball model is called an eyeball coordinate system.

【0056】図9(a)は、図7に示した左目の眼球モ
デル94の断面を示す模式図である。なお、眼球座標系
の原点oは、眼球底面98の中心にあることとし、
(a)に示す断面は、眼球座標系の原点oと瞳孔P3
含む断面である。更に、(a)においては、眼球座標系
のz軸が眼球底面98と垂直の関係にあり、y軸の正方
向を眼球モデル94における上向きとする。さて、眼球
モデル94における頂点P 1の法線ベクトルはN1であ
り、頂点P2の法線ベクトルはN2であり、頂点P3の法
線ベクトルはN3であり、頂点P4の法線ベクトルはN4
であり、頂点P5の法線ベクトルはN5である。
FIG. 9A shows the eyeball model for the left eye shown in FIG.
It is a schematic diagram showing a section of Dell 94. In addition, eye coordinate system
The origin o of the
The cross section shown in (a) is the origin o of the eyeball coordinate system and the pupil P.3To
It is a cross section including. Furthermore, in (a), the eyeball coordinate system
Z-axis is perpendicular to the bottom of the eyeball 98, and y-axis is square
The direction is the upward direction in the eyeball model 94. Well, eyeball
Vertex P in model 94 1The normal vector of is N1And
R, vertex P2The normal vector of is N2And the vertex P3The law of
The line vector is N3And the vertex PFourThe normal vector of is NFour
And the vertex PFiveThe normal vector of is NFiveIs.

【0057】このとき、図5(a)に示したように、眼
孔開口面の変移角がψである場合には、眼球座標系にお
ける眼球モデル94および仮法線ベクトルを、図9
(b)若しくは(c)に示すように設定する。
At this time, as shown in FIG. 5A, when the displacement angle of the aperture surface of the eye is ψ, the eyeball model 94 and the provisional normal vector in the eyeball coordinate system are set as shown in FIG.
Set as shown in (b) or (c).

【0058】図9(b)は、眼球座標系において、
(a)に示す眼球モデル94を変移角ψだけy軸周りの
正方向(左回り)に回転させた一例を示す図である。こ
の場合には、y軸回転変換前の各頂点P1〜P5の法線ベ
クトルN1〜N5(即ち(a)に示す各頂点の法線ベクト
ル)をそのまま、回転変換後の各頂点P´1〜P´5の仮
法線ベクトルとして設定する。
FIG. 9 (b) shows that in the eyeball coordinate system,
It is a figure which shows an example which rotated the eyeball model 94 shown to (a) by the transition angle (psi) in the positive direction (counterclockwise) around the y-axis. In this case, the normal vectors N 1 to N 5 of the vertices P 1 to P 5 before the y-axis rotation conversion (that is, the normal vectors of the vertices shown in (a)) are left as they are after the rotation conversion. to set up as a temporary normal vector of P'1 ~P' 5.

【0059】図9(c)は、眼球座標系において、眼球
モデル94の向きを維持させたままで、各頂点P1〜P5
の法線ベクトルの向きを変移角ψだけy軸方向を軸とし
て負方向(左回り)に回転させた一例を示す図である。
この場合には、各頂点P1〜P5の一つ一つについて、対
応する法線ベクトルN1〜N5をy軸回転させて、その回
転後の各ベクトルN´1〜N´5を各頂点の仮法線ベクト
ルとして設定する。
FIG. 9C shows each vertex P 1 -P 5 in the eyeball coordinate system while keeping the orientation of the eyeball model 94.
FIG. 6 is a diagram showing an example in which the direction of the normal vector is rotated in the negative direction (counterclockwise) about the y-axis direction by the displacement angle ψ.
In this case, for each one of the vertices P 1 to P 5, the normal vector N 1 to N 5 corresponding rotated y-axis, each vector N'1 ~N' 5 after its rotation Set as a provisional normal vector for each vertex.

【0060】図10は、仮法線ベクトルを用いた場合
と、通常の法線ベクトルを用いた場合の描画結果の比較
を示す図である。なお、左右二つのキャラクタ82,8
4は、頭部に対する左右の眼球の配置構成が等しい。ま
た、図10は、各キャラクタ82,84にそれぞれに平
行光線を投射して描画したものである。但し、左側のキ
ャラクタ82については、上記仮法線ベクトルを用いて
眼球の輝度処理を行い、右側のキャラクタ84について
は、通常の法線ベクトルを用いて眼球の輝度処理を行っ
た。その結果、左側のキャラクタ82では、左右の目の
図中右方にハイライトが表現されているのに対し、右側
のキャラクタ84では、左右の目のハイライトが異なる
位置に表現されている。このように、目の大きいキャラ
クタについて、眼球の法線ベクトルを用いて輝度処理を
すれば、違和感の有るハイライトを表現することとなる
が、仮法線ベクトルを用いて輝度処理を行うことで、尤
らしいハイライトを表現することが可能となる。
FIG. 10 is a diagram showing a comparison of drawing results when the tentative normal vector is used and when the normal vector is used. In addition, the left and right two characters 82, 8
No. 4 has the same arrangement of left and right eyeballs with respect to the head. Further, FIG. 10 is a drawing in which parallel rays are projected onto the respective characters 82 and 84 and drawn. However, for the character 82 on the left side, the luminance processing of the eyeball was performed using the temporary normal vector, and for the character 84 on the right side, the luminance processing of the eyeball was performed using the normal vector. As a result, with the character 82 on the left side, the highlights are expressed on the right side of the left and right eyes in the figure, whereas with the character 84 on the right side, the highlights of the left and right eyes are expressed at different positions. Thus, for a character with large eyes, if brightness processing is performed using the normal vector of the eyeball, it is possible to express a strange highlight, but by performing brightness processing using the provisional normal vector. , It is possible to express a likely highlight.

【0061】本実施の形態におけるゲーム装置1の機能
構成について説明する。図11は、ゲーム装置1の機能
ブロックの一例を示す図である。図11によれば、ゲー
ム装置1は、処理部100と、入力部200と、表示部
300と、情報記憶媒体400と、一時記憶部500
と、を備える。
The functional configuration of the game device 1 according to the present embodiment will be described. FIG. 11 is a diagram showing an example of functional blocks of the game device 1. According to FIG. 11, the game device 1 includes a processing unit 100, an input unit 200, a display unit 300, an information storage medium 400, and a temporary storage unit 500.
And

【0062】処理部100は、システム全体の制御、シ
ステム内の各機能部への命令の指示、入力部200から
入力される操作信号や情報記憶媒体400に記憶された
ゲーム情報410に基づいてゲームを進行するための処
理の他、画像処理、音処理等の各種処理を行うものであ
り、その機能は、各種プロセッサ(CPU、DSP等)
やASIC(ゲートアレイ等)等のハードウェア、ある
いは所与のプログラムにより実現できる。また、処理部
100は、主に、ゲーム演算部110と画像生成部12
0とを含み、入力部200から入力される操作信号に応
じた処理をゲーム演算部110に実行させ、更に、その
処理結果に基づく画像を画像生成部120に生成させ
る。
The processing unit 100 controls the entire system, gives instructions to each functional unit in the system, gives an instruction based on the operation signal input from the input unit 200 and the game information 410 stored in the information storage medium 400. In addition to the processing for advancing processing, various processing such as image processing and sound processing are performed, and the function thereof is various processors (CPU, DSP, etc.).
And hardware such as ASIC (gate array etc.) or a given program. In addition, the processing unit 100 mainly includes the game calculation unit 110 and the image generation unit 12.
Including 0, the game calculation unit 110 is caused to execute a process corresponding to the operation signal input from the input unit 200, and the image generation unit 120 is caused to generate an image based on the processing result.

【0063】ゲーム演算部110は、ゲームにおける各
種選択用の画面の設定処理や、ゲームの進行処理、仮想
空間に存在する各キャラクタやオブジェクト等の座標、
向き、動作などを決定する処理、視点の位置および向き
を決定する処理、などの種々のゲーム処理を実行する。
なお、これらの処理は、入力部200から入力される操
作信号や、情報記憶媒体400に格納されたゲーム情報
410に基づいて実行する。また、ゲーム演算部110
は、キャラクタ制御部112を含み、情報記憶媒体40
0に格納されたゲーム情報410に基づいて機能させ
る。
The game calculation section 110 sets the screen for various selections in the game, the game progressing process, the coordinates of each character or object existing in the virtual space,
Various game processes such as a process for determining a direction and a motion, a process for determining a position and a direction of a viewpoint, and the like are executed.
Note that these processes are executed based on the operation signal input from the input unit 200 and the game information 410 stored in the information storage medium 400. In addition, the game calculation unit 110
Includes the character control unit 112 and includes the information storage medium 40.
It is made to function based on the game information 410 stored in 0.

【0064】画像生成部120は、ゲーム演算部110
によって決定された情報に基づいて1フレーム毎にゲー
ム画像をリアルタイムに生成する処理を実行するもので
あり、CPU、DSP、画像生成専用のIC、メモリな
どのハードウェアにより構成される。具体的には、画像
生成部120は、前方・後方クリッピングを実行して仮
想空間のビューボリューム(視点から投影面を通して見
える仮想空間の範囲)を決定する処理、ワールド座標系
における各キャラクタやオブジェクトの座標を視点の座
標に基づいて2次元座標系(投影面)へと変換する処
理、個々のオブジェクトを順次描画してゲーム画像を生
成する処理、などを1フレーム毎に実行してゲーム画像
を生成する。そして、生成したゲーム画像を必要なタイ
ミング(即ち、1フレーム間隔)で表示部300に出力
して表示させる。
The image generation unit 120 includes the game calculation unit 110.
The CPU executes a process for generating a game image for each frame in real time on the basis of the information determined by, and includes hardware such as a CPU, a DSP, an IC for image generation, and a memory. Specifically, the image generation unit 120 performs a process of performing front / rear clipping to determine a view volume of the virtual space (a range of the virtual space that can be seen from the viewpoint through the projection surface) of each character or object in the world coordinate system. Generate a game image by executing processing for converting each coordinate into a two-dimensional coordinate system (projection plane) based on the coordinates of the viewpoint, processing for sequentially drawing individual objects to generate a game image, etc. for each frame To do. Then, the generated game image is output to the display unit 300 and displayed at a required timing (that is, at one frame interval).

【0065】また、画像生成部120は、各モデルの頂
点の輝度を決定する処理を実行する輝度処理部122を
含み、情報記憶媒体400に格納されるゲーム情報41
0に基づいて機能させる。
The image generation unit 120 also includes a brightness processing unit 122 for executing the process of determining the brightness of the vertices of each model, and the game information 41 stored in the information storage medium 400.
Function based on 0.

【0066】入力部200は、図1に示したゲームコン
トローラ3,4に相当する機能部であって、プレーヤの
操作入力を電気信号として処理部100に出力するもの
である。なお、入力部200は、図1に示したようなゲ
ームコントローラ3,4だけでなく、キーボードなどの
汎用の入力装置、マウス、トラックボール、ジョイステ
ィック等の入力手段を用いてもよい。
The input section 200 is a functional section corresponding to the game controllers 3 and 4 shown in FIG. 1, and outputs the operation input of the player to the processing section 100 as an electric signal. The input unit 200 may use not only the game controllers 3 and 4 shown in FIG. 1 but also a general-purpose input device such as a keyboard, an input means such as a mouse, a trackball, and a joystick.

【0067】表示部300は、図1に示すディスプレイ
2に相当する機能部であり、処理部100から入力され
る指示に従って、画像生成部120が生成するゲーム画
像を逐次表示する。なお、表示部300は主にコンピュ
ータなどに接続されるディスプレイにより実現しても良
いし、TV放送を表示する際に主に用いられるディスプ
レイによって実現してもかまわない。
The display section 300 is a functional section corresponding to the display 2 shown in FIG. 1, and sequentially displays the game images generated by the image generation section 120 in accordance with an instruction input from the processing section 100. The display unit 300 may be realized mainly by a display connected to a computer or the like, or may be realized by a display mainly used when displaying a TV broadcast.

【0068】情報記憶媒体400は、本実施の形態にお
けるゲーム装置1の駆動に係るシステムプログラムやデ
ータ、ゲームを実現する為に必要なゲーム情報410な
どを記憶するものであり、CD−ROM、MO、DV
D、メモリ、ハードディスク等のハードウェアにより実
現できる。
The information storage medium 400 stores a system program and data relating to the driving of the game apparatus 1 according to the present embodiment, game information 410 necessary for realizing a game, and a CD-ROM, MO. , DV
It can be realized by hardware such as D, memory, hard disk.

【0069】なお、ゲーム情報410には、ゲーム演算
部110を機能させる為に必要な情報が含まれる。具体
的には、ゲームシナリオや、仮想空間に配置する各オブ
ジェクトの情報、入力部200から入力される操作信号
に応じて各オブジェクトやキャラクタの動作を決定する
為の情報、ゲームの得点を算出するための情報、ゲーム
時間を計時するための情報、キャラクタ制御部112を
機能させる為のキャラクタ制御プログラム420、など
が含まれる。
The game information 410 includes information necessary for the game calculation section 110 to function. Specifically, a game scenario, information about each object placed in the virtual space, information for determining the action of each object or character according to an operation signal input from the input unit 200, and a game score are calculated. Information, information for timing the game time, a character control program 420 for causing the character control unit 112 to function, and the like.

【0070】また、ゲーム情報410には、画像生成部
120が機能する為に必要な情報が含まれる。即ち、ゲ
ーム演算部110による処理結果に基づいて画像生成部
120が1フレーム毎にゲーム画像を生成するためのプ
ログラムが含まれる。例えば、仮想空間におけるオブジ
ェクトやキャラクタの座標をワールド座標系から視点に
基づく2次元座標系に変換する処理を実現する為の情
報、輝度処理部122が輝度処理を行う為の輝度処理プ
ログラム430、などが含まれる。更に、ゲーム情報4
10には、キャラクタモデルデータ440と、眼球モデ
ルデータ450とが含まれる。
In addition, the game information 410 includes information necessary for the image generating section 120 to function. That is, a program for the image generation unit 120 to generate a game image for each frame based on the processing result by the game calculation unit 110 is included. For example, information for realizing the process of converting the coordinates of the object or character in the virtual space from the world coordinate system to the two-dimensional coordinate system based on the viewpoint, the brightness processing program 430 for the brightness processing unit 122 to perform the brightness processing, and the like. Is included. Furthermore, game information 4
10 includes character model data 440 and eyeball model data 450.

【0071】キャラクタモデルデータ440とは、キャ
ラクタを構成する各部位モデル(例えば、頭部、胴体
部、腕部、といった部位のモデル)のデフォルトの位置
関係を定義するための情報である。
The character model data 440 is information for defining a default positional relationship of each part model (for example, a model of a part such as a head, a body, and an arm) that constitutes a character.

【0072】また、キャラクタモデルデータ440に
は、頭部モデルに対する眼球モデルの位置およびデフォ
ルトの向きが記憶されている。正確には、頭部モデルに
対する、眼球座標系の原点の位置、および眼球座標系に
おける各座標軸のデフォルトの方向等が設定されてい
る。例えば、図9(b)に示すように、眼球座標系にお
ける眼球モデルを変移角ψの分だけ傾けて設定した場合
には、キャラクタモデルデータ440には、眼球座標系
のz−y平面を頭部モデルの鼻頭と後頭部とを結ぶ平面
と平行に配置するための情報が含まれる。また、図9
(c)に示すように、瞳孔の法線ベクトルがz軸(眼球
座標系)と平行に設定されている場合には、キャラクタ
モデルデータ440には、眼球座標系のz−y平面が、
鼻頭と後頭部とを結ぶ平面と変移角ψを成す(鋭角が)
ように配置するための情報が含まれる。即ち、キャラク
タ制御部112は、ワールド座標系における頭部モデル
の配置を決定した後、キャラクタモデルデータ440に
基づいてワールド座標系における眼球モデルの配置を決
定する。
The character model data 440 also stores the position of the eyeball model with respect to the head model and the default orientation. To be precise, the position of the origin of the eye coordinate system with respect to the head model, the default direction of each coordinate axis in the eye coordinate system, and the like are set. For example, as shown in FIG. 9B, when the eyeball model in the eyeball coordinate system is set to be inclined by the displacement angle ψ, the character model data 440 includes the yz plane of the eyeball coordinate system as the head. The information for arranging in parallel with the plane connecting the nasal head and the back of the partial model is included. In addition, FIG.
As shown in (c), when the pupil normal vector is set parallel to the z-axis (eyeball coordinate system), the character model data 440 includes the zy plane of the eyeball coordinate system.
Form a transition angle ψ with the plane connecting the nose and occipital region (the acute angle is)
Information for placement is included. That is, the character control unit 112 determines the placement of the head model in the world coordinate system, and then determines the placement of the eyeball model in the world coordinate system based on the character model data 440.

【0073】眼球モデルデータ450とは、眼球モデル
の形状を定義する為の情報であり、頂点データ452
と、ポリゴンデータ454を含む。
The eyeball model data 450 is information for defining the shape of the eyeball model, and the vertex data 452.
And polygon data 454.

【0074】図12は、頂点データ452の格納形式の
一例を示す図である。図12によれば、頂点データ45
2には、眼球モデルを形成する各頂点を識別するための
頂点No.と、眼球座標系における各頂点の座標と、眼
球座標系における各頂点の仮法線ベクトルと、各頂点の
基調色情報(RK,GK,BK)と、光彩色情報(RL,G
L,BL)とがそれぞれテーブル形式で記憶されている。
FIG. 12 is a diagram showing an example of the storage format of the vertex data 452. According to FIG. 12, the vertex data 45
2 shows a vertex number for identifying each vertex forming the eyeball model. , The coordinates of each vertex in the eyeball coordinate system, the provisional normal vector of each vertex in the eyeball coordinate system, the basic color information (R K , G K , B K ) of each vertex, and the color information ( RL , G
L , B L ) are stored in a table format.

【0075】ここで、基調色情報とは、該当する頂点に
光が投射されていないときの、頂点のベースの色を意味
する。また、光彩色情報とは、該当する頂点に光を投射
したときの輝きの色を意味する。なお、Rは赤、Gは
緑、Bは青、の各原色の濃淡値を示している。
Here, the basic color information means the color of the base of the vertex when light is not projected on the corresponding vertex. In addition, the luminescent color information means the color of brilliance when light is projected on the corresponding vertex. It should be noted that R indicates red, G indicates green, and B indicates blue, and the grayscale values of the respective primary colors.

【0076】図13は、ポリゴンデータ454の格納形
式の一例を示す図である。図13によれば、ポリゴンデ
ータ454には、各ポリゴンを識別する為のポリゴンN
o.と、各ポリゴンを構成する頂点の頂点No.とがテ
ーブル形式で記憶されている。
FIG. 13 is a diagram showing an example of the storage format of the polygon data 454. According to FIG. 13, the polygon data 454 includes a polygon N for identifying each polygon.
o. And the vertex numbers of the vertices forming each polygon. And are stored in a table format.

【0077】一時記憶部500は、処理部100の作業
領域として用いられる記憶部であり、処理部100によ
る演算結果や、入力部200から入力される操作情報、
情報記憶媒体400から読み出したデータやプログラム
などを一時的に記憶する機能部である。具体的には、各
キャラクタの座標、向き、動作内容などを記憶したり、
ゲーム得点を記憶したり、処理部100により生成され
た画像情報を記憶したりする。また、一時記憶部500
は、RAMやVRAMなどのハードウェアにより実現さ
れるものである。
The temporary storage unit 500 is a storage unit used as a work area of the processing unit 100, and includes a calculation result by the processing unit 100, operation information input from the input unit 200,
It is a functional unit that temporarily stores data and programs read from the information storage medium 400. Specifically, it stores the coordinates, orientation, motion details, etc. of each character,
The game score is stored, and the image information generated by the processing unit 100 is stored. In addition, the temporary storage unit 500
Is realized by hardware such as RAM or VRAM.

【0078】なお、ゲーム演算部110に含まれるキャ
ラクタ制御部112は、入力部200から入力される操
作信号や、情報記憶媒体400に記憶されるキャラクタ
制御プログラム420に基づいて、仮想空間(ワールド
座標系)におけるキャラクタの位置、向き、ポーズ、動
作を決定する機能部である。
The character control unit 112 included in the game calculation unit 110 is based on the operation signal input from the input unit 200 and the character control program 420 stored in the information storage medium 400. It is a functional unit that determines the position, orientation, pose, and motion of the character in the system.

【0079】より詳細には、キャラクタ制御部112
は、まず、キャラクタの座標系(キャラクタ座標系)内
で、キャラクタの形状を決定する。その際、キャラクタ
モデルデータ440に含まれる各部位モデルのデフォル
トの位置関係と、入力部200から入力される操作信号
などに基づいて、各部位モデルを回転させたり、平行移
動させることによって、キャラクタ座標系における、キ
ャラクタの形状を特定する為の各頂点の座標を決定す
る。
More specifically, the character control unit 112
First, the shape of the character is determined within the coordinate system of the character (character coordinate system). At that time, based on the default positional relationship of each body part model included in the character model data 440, the operation signal input from the input unit 200, and the like, each body part model is rotated or moved in parallel to generate character coordinates. The coordinates of each vertex for specifying the shape of the character in the system are determined.

【0080】一方で、キャラクタ制御部112は、入力
部200から入力される操作信号やゲーム情報410に
基づいて、ワールド座標系におけるキャラクタの代表点
の座標および向きを決定する。そして、その決定したキ
ャラクタの代表点の座標および向きに基づいて、キャラ
クタ座標系における各頂点の座標を、ワールド座標系に
変換する。
On the other hand, the character control unit 112 determines the coordinates and orientation of the representative point of the character in the world coordinate system based on the operation signal input from the input unit 200 and the game information 410. Then, based on the determined coordinates and orientation of the representative point of the character, the coordinates of each vertex in the character coordinate system are converted into the world coordinate system.

【0081】また、キャラクタ制御部112は、キャラ
クタモデルデータ440に基づいて、ワールド座標系に
おける頭部モデルの座標および向きを決定すると、更に
その決定情報に基づいて、ワールド座標系における眼球
モデルの代表点の座標および向きを決定する。また、眼
球モデルデータ450に基づいて、眼球座標系における
眼球モデルの各頂点の座標を決定するとともに、各頂点
の座標を、眼球モデルの代表点の座標に基づいて、眼球
座標系からワールド座標系に変換する。
When the character control unit 112 determines the coordinates and orientation of the head model in the world coordinate system based on the character model data 440, the character control unit 112 further represents the representative eyeball model in the world coordinate system based on the determination information. Determine the coordinates and orientation of the points. Further, the coordinates of each vertex of the eyeball model in the eyeball coordinate system are determined based on the eyeball model data 450, and the coordinates of each vertex are changed from the eyeball coordinate system to the world coordinate system based on the coordinates of the representative point of the eyeball model. Convert to.

【0082】また、画像生成部120に含まれる輝度処
理部122は、眼球モデルの各頂点の仮法線ベクトル
と、基調色情報、光彩色情報、および、ワールド座標系
における光線ベクトルと、に基づいて、各頂点の色情報
を決定する機能部である。具体的には、キャラクタ制御
部112によって、ワールド座標系における眼球モデル
の各頂点の座標を決定すると、係る頂点における仮法線
ベクトルNと、光線ベクトルLとの内積N・Lを算出し
て、輝度γ(=|N・L|)を決定する。そして、基調
色情報(RK,GK,BK)と光彩色情報(RL,GL
L)の各色成分を輝度γに基づいて合成し、係る頂点
の色情報(R,G,B)を決定する。 R=RK・(1−γ)+RL・γ …(1) G,Bについても同様に行う。
The luminance processing section 122 included in the image generating section 120 is based on the temporary normal vector of each vertex of the eyeball model, the basic tone color information, the chromatic color information, and the light ray vector in the world coordinate system. Is a functional unit that determines the color information of each vertex. Specifically, when the coordinates of each vertex of the eyeball model in the world coordinate system are determined by the character control unit 112, the inner product N · L of the provisional normal vector N and the ray vector L at the vertex is calculated, The brightness γ (= | N · L |) is determined. Then, the basic color information (R K , G K , B K ) and the luminescent color information (R L , G L ,
Each color component of B L ) is combined based on the brightness γ, and the color information (R, G, B) of the vertex is determined. R = RK · (1-γ) + RL · γ (1) The same applies to G and B.

【0083】以下に、眼球モデルにおける各頂点の色を
決定する処理を説明する。図14は、眼球輝度処理を説
明するためのフローチャートである。以下に示す処理
は、キャラクタ制御部112と輝度処理部122がゲー
ム情報410に基づいて、1フレーム毎に、左右の眼球
モデルに対してそれぞれ実行する処理である。
The process of determining the color of each vertex in the eyeball model will be described below. FIG. 14 is a flowchart for explaining the eyeball luminance processing. The processing described below is processing performed by the character control unit 112 and the brightness processing unit 122 for each of the left and right eyeball models for each frame based on the game information 410.

【0084】図14によれば、キャラクタ制御部112
は、まず、ワールド座標系における眼球モデルの代表点
の位置および向きを決定する(ステップS1;図15
(a))。より正確には、ワールド座標系における、眼
球座標系の原点210の座標と、各座標軸(x軸、y
軸、z軸)の方向を決定する。
According to FIG. 14, the character control unit 112.
First determines the position and orientation of the representative point of the eyeball model in the world coordinate system (step S1; FIG. 15).
(A)). More precisely, in the world coordinate system, the coordinates of the origin 210 of the eyeball coordinate system and each coordinate axis (x axis, y
Axis, z-axis) direction.

【0085】そして、ワールド座標系における眼球座標
系の原点の座標と各座標軸の方向とに基づいて、眼球モ
デルの各頂点の座標を、眼球座標系からワールド座標系
へと変換する(ステップS2;図15(b))。更に、
ワールド座標系における眼球座標系の各座標軸の方向に
基づいて各頂点の仮法線ベクトルを、ワールド座標系に
おける向きに変換する(ステップS3;図15
(c))。なお、ステップS2、S3にて決定したワー
ルド座標系における各頂点の座標と、仮法線ベクトルの
向きは、変換後頂点データ510として一時記憶部50
0に記憶する。
Then, the coordinates of each vertex of the eyeball model are converted from the eyeball coordinate system to the world coordinate system based on the coordinates of the origin of the eyeball coordinate system in the world coordinate system and the direction of each coordinate axis (step S2; FIG. 15B). Furthermore,
Based on the direction of each coordinate axis of the eye coordinate system in the world coordinate system, the temporary normal vector of each vertex is converted to the orientation in the world coordinate system (step S3; FIG. 15).
(C)). The coordinates of each vertex in the world coordinate system determined in steps S2 and S3 and the orientation of the temporary normal vector are stored in the temporary storage unit 50 as the transformed vertex data 510.
Store at 0.

【0086】図16は、変換後頂点データ510の格納
形式の一例を示す図である。図16によれば、変換後頂
点データ510には、頂点No.と、ワールド座標系へ
の変換後の頂点の座標と、変換後の仮法線ベクトルとが
テーブル形式で記憶されている。
FIG. 16 is a diagram showing an example of the storage format of the converted vertex data 510. According to FIG. 16, the converted vertex data 510 includes the vertex number. And the coordinates of the vertices after conversion to the world coordinate system and the tentative normal vector after conversion are stored in a table format.

【0087】眼球モデルにおける全ての頂点について、
ワールド座標系における座標と、仮法線ベクトルの向き
を決定すると、輝度処理部122が各頂点の色を決定す
る処理を開始する。
For all vertices in the eye model,
When the coordinates in the world coordinate system and the direction of the temporary normal vector are determined, the brightness processing unit 122 starts the process of determining the color of each vertex.

【0088】まず、輝度処理部122は、一時記憶部5
00に記憶された変換後頂点データ510の中から、未
処理の頂点No.を抽出する(ステップS4)。そして
その抽出した頂点No.に対応する仮法線ベクトルを読
み出す(ステップS5)。
First, the brightness processing section 122 includes the temporary storage section 5
00 from the converted vertex data 510 stored in No. 00. Is extracted (step S4). Then, the extracted vertex No. The provisional normal vector corresponding to is read out (step S5).

【0089】更に、その読み出した仮法線ベクトルと、
ワールド座標系における光線ベクトルの内積を算出し
(ステップS6)、その内積結果に基づいて、基調色情
報と輝度色情報を合成して該当する頂点に与える色情報
を決定する。決定した色情報は、頂点色情報データ52
0として頂点No.と対応付けて一時記憶部500に格
納する(ステップS7)。
Furthermore, the read provisional normal vector and
The inner product of the light ray vectors in the world coordinate system is calculated (step S6), and based on the inner product result, the basic color information and the luminance color information are combined to determine the color information to be given to the corresponding vertex. The determined color information is the vertex color information data 52.
0 as the vertex number. It is stored in the temporary storage unit 500 in association with (step S7).

【0090】図17は、頂点色情報データ520の格納
形式の一例を示す図である。図17によれば、頂点色情
報データ520には、頂点No.と色情報とがテーブル
形式で記憶されている。
FIG. 17 is a diagram showing an example of the storage format of the vertex color information data 520. According to FIG. 17, the vertex color information data 520 includes the vertex number. And color information are stored in a table format.

【0091】該当する頂点の色情報を一時記憶部500
に記憶すると、変換後頂点データ510に記憶された全
ての頂点について色情報を決定したか否かを判定し(ス
テップS8)、未処理の頂点が存在する場合には、ステ
ップS4に戻って処理を繰り返す。一方、全ての頂点に
ついて色情報を決定する処理が終了した場合には、本処
理を終了する。
Temporary storage unit 500 stores the color information of the corresponding vertex.
When it is stored in, it is determined whether or not the color information has been determined for all the vertices stored in the converted vertex data 510 (step S8). If there is an unprocessed vertex, the process returns to step S4 and is processed. repeat. On the other hand, when the process of determining the color information for all the vertices is completed, this process is completed.

【0092】なお、眼球モデルを形成するポリゴンを描
画する際には、3次元のワールド座標系から2次元座標
系(投影面)へと各頂点の座標を変換し、更に各頂点の
色情報を線形補間することによって、ポリゴンを描画す
る。例えば、図18に示すような、頂点p1〜p3によっ
て形成されるポリゴン220内の点222の色を決定す
る際には、次ぎのように計算する。まず、線分p1−p2
上の点p12の色を、頂点p1とp2の色情報を線形補間す
ることによって決定する。同様に、線分p1−p3上の点
13の色を、頂点p1とp3の色情報を線形補間すること
によって決定する。更に、線分p12−p13上の点222
の色を、頂点p12とp13の色情報を線形補間することに
よって決定する。
When drawing the polygons forming the eyeball model, the coordinates of each vertex are converted from the three-dimensional world coordinate system to the two-dimensional coordinate system (projection plane), and the color information of each vertex is further converted. A polygon is drawn by performing linear interpolation. For example, when determining the color of the point 222 in the polygon 220 formed by the vertices p 1 to p 3 as shown in FIG. 18, calculation is performed as follows. First, the line segment p 1 -p 2
The color of the upper point p 12 is determined by linearly interpolating the color information of vertices p 1 and p 2 . Similarly, the color of the p 13 points on the line segment p 1 -p 3, the color information of the vertices p 1 and p 3 are determined by linear interpolation. Furthermore, a point 222 on the line segment p 12 -p 13
Color is determined by linearly interpolating the color information of vertices p 12 and p 13 .

【0093】即ち、画像生成部120は、図13に示し
たポリゴンデータ454の中から各ポリゴンを構成する
頂点の頂点No.を読み出し、一時記憶部500に記憶
された変換後頂点データ510の中からその頂点No.
に対応する座標(ワールド座標系)を読み出す。更に、
その頂点の座標を、ワールド座標系から2次元座標系
(投影面の座標系)へと変換するとともに、眼球輝度処
理にて決定した各頂点の色情報を一時記憶部500に記
憶された頂点色情報データ520の中から読み出して、
係るポリゴンの描画を実行する。
That is, the image generator 120 determines the vertex number of the vertex forming each polygon from the polygon data 454 shown in FIG. From the converted vertex data 510 stored in the temporary storage unit 500, and the vertex number.
The coordinates (world coordinate system) corresponding to are read. Furthermore,
The coordinates of the vertices are converted from the world coordinate system to the two-dimensional coordinate system (the coordinate system of the projection plane), and the color information of each vertex determined by the eye luminance processing is stored in the temporary storage unit 500. Read from the information data 520,
The drawing of the polygon concerned is executed.

【0094】次に、ゲーム装置1のハードウェア構成に
ついて説明する。図19は、本実施の形態を実現可能と
するハードウェア構成の一例を示す図である。同図によ
ればゲーム装置1には、CPU600、RAM602、
ROM604、情報記憶媒体606、画像生成IC60
8、音生成IC610、I/Oポート612,614
が、システムバス616により相互にデータ入出力可能
に接続されている。そして、画像生成IC608には、
表示装置618が接続され、音生成IC610には、ス
ピーカ620が接続され、I/Oポート612には、コ
ントロール装置622が接続され、I/Oポート614
には、通信装置624が接続されている。
Next, the hardware configuration of the game device 1 will be described. FIG. 19 is a diagram showing an example of a hardware configuration that enables the present embodiment to be realized. According to the figure, the game device 1 includes a CPU 600, a RAM 602,
ROM 604, information storage medium 606, image generation IC 60
8. Sound generation IC 610, I / O ports 612, 614
Are mutually connected by a system bus 616 so that data can be input / output. Then, the image generation IC 608
A display device 618 is connected, a speaker 620 is connected to the sound generation IC 610, a control device 622 is connected to the I / O port 612, and an I / O port 614.
A communication device 624 is connected to.

【0095】ROM604は、ゲーム装置1本体の初期
化情報、ゲーム装置1本体の各部を機能させるための基
本情報などが記憶されている。なお、情報記憶媒体60
6は、図11に示す機能ブロックにおける情報記憶媒体
400に相当するものであり、ゲーム情報410や、本
実施の形態におけるゲームに登場する各キャラクタやオ
ブジェクトなどを表現する為のモデルデータやテクスチ
ャデータなどを記憶する他、その他各種画像データ、音
データ、プレイデータ等を格納する。また、ゲーム情報
410等を記憶する情報記憶媒体として、CD−RO
M、ゲームカセット、DVD、メモリカードなどが用い
られる。なお、業務用のゲーム装置により本実施の形態
を実現する場合には、ゲーム情報410等を記憶する情
報記憶媒体をROMなどのハードウェアにより実現で
き、この場合には情報記憶媒体606はROM604に
なる。また、パーソナルコンピュータにて本実施の形態
を実現する場合には、CD−ROM、DVD、ROM等
のメモリやハードディスク等が用いられる。
The ROM 604 stores initialization information of the main body of the game apparatus 1 and basic information for making each part of the main body of the game apparatus 1 function. The information storage medium 60
6 corresponds to the information storage medium 400 in the functional block shown in FIG. 11, and includes game information 410, model data and texture data for expressing each character or object appearing in the game according to the present embodiment. In addition to storing the above, other various image data, sound data, play data, etc. are stored. Further, as an information storage medium for storing the game information 410 and the like, a CD-RO
M, game cassettes, DVDs, memory cards, etc. are used. When the present embodiment is realized by a business-use game device, the information storage medium for storing the game information 410 and the like can be realized by hardware such as ROM. In this case, the information storage medium 606 is stored in the ROM 604. Become. When the present embodiment is implemented by a personal computer, a memory such as a CD-ROM, a DVD, a ROM, a hard disk, or the like is used.

【0096】コントロール装置622は、図1に示した
ようなゲームコントローラ3,4に相当するものであ
り、プレーヤがゲーム進行に応じて行う判断の結果を装
置本体に入力するための装置である。
The control device 622 corresponds to the game controllers 3 and 4 as shown in FIG. 1, and is a device for inputting the result of the judgment made by the player in accordance with the progress of the game to the main body of the device.

【0097】CPU600は、情報記憶媒体606に格
納されるプログラム、ROM604に格納されるシステ
ムプログラム(装置本体の初期化情報等)、コントロー
ル装置622によって入力される信号等に従って、装置
全体の制御や各種データ処理を行う。RAM602は、
このCPU600の作業領域等として用いられる記憶手
段であり、情報記憶媒体606やROM604の所与の
内容、あるいはCPU600の演算結果が格納される。
なお、RAM602は、図11に示した機能ブロックに
おける一時記憶部500に相当する働きをする。
The CPU 600 controls the entire apparatus and performs various controls according to a program stored in the information storage medium 606, a system program stored in the ROM 604 (initialization information of the apparatus main body, etc.), a signal input by the control device 622, and the like. Perform data processing. RAM602 is
The storage unit is used as a work area of the CPU 600, and stores given contents of the information storage medium 606 and the ROM 604, or the calculation result of the CPU 600.
The RAM 602 functions as the temporary storage unit 500 in the functional block shown in FIG.

【0098】更に、この種の装置には、音生成IC61
0と画像生成IC608とが設けられていて、ゲーム音
やゲーム画像の好適な出力が行えるようになっている。
音生成IC610は、情報記憶媒体606やROM60
4に記憶される情報に基づいて効果音やバックグラウン
ド音楽等のゲーム音を生成する集積回路であり、生成さ
れたゲーム音は、スピーカ620によって出力される。
また、画像生成IC608は、RAM602、ROM6
04、情報記憶媒体606等から出力される画像情報に
基づいて表示装置618に出力するための画素情報を生
成する集積回路である。また表示装置618は、CRT
やLCD、TV、プラズマディスプレイ、プロジェクタ
ー等により実現される。
Further, this type of device includes a sound generation IC 61
0 and an image generation IC 608 are provided so that a game sound and a game image can be appropriately output.
The sound generation IC 610 includes an information storage medium 606 and a ROM 60.
4 is an integrated circuit that generates a game sound such as a sound effect or a background music based on the information stored in FIG. 4, and the generated game sound is output by the speaker 620.
The image generation IC 608 includes a RAM 602 and a ROM 6
04, an integrated circuit that generates pixel information to be output to the display device 618 based on image information output from the information storage medium 606 or the like. The display device 618 is a CRT.
, LCD, TV, plasma display, projector and the like.

【0099】また、通信装置624は、ゲーム装置1の
内部で利用される各種の情報を外部とやり取りするもの
であり、他のゲーム装置と接続されてゲーム情報410
に応じた所与の情報を送受し、また、通信回線を介して
ゲーム情報410等の情報を送受すること等に利用され
る。
The communication device 624 is for exchanging various information used inside the game device 1 with the outside, and is connected to another game device to connect the game information 410.
It is used for transmitting and receiving given information according to, and for transmitting and receiving information such as the game information 410 via a communication line.

【0100】また、図1〜図18で説明した種々の処理
は、図14のフローチャートに示したゲーム実行中の処
理等を行うためのプログラムを含むゲーム情報410を
格納した情報記憶媒体606と、該プログラムに従って
動作するCPU600、画像生成IC608、音生成I
C610等によって実現される。なお、画像生成IC6
08、音生成IC610等で行われる処理は、CPU6
00あるいは汎用のDSP等によりソフトウェア的に行
ってもよい。
The various processes described with reference to FIGS. 1 to 18 are an information storage medium 606 storing game information 410 including a program for performing the process during game execution shown in the flowchart of FIG. CPU 600 that operates according to the program, image generation IC 608, sound generation I
It is realized by C610 and the like. The image generation IC 6
08, the processing performed by the sound generation IC 610, etc.
00 or a general-purpose DSP or the like may be performed by software.

【0101】なお、本実施の形態は、図1に示した家庭
用のゲーム装置1だけでなく、他のいかなる形態のゲー
ム装置に適用してもかまわない。例えば、図20に、ホ
スト装置700と、このホスト装置700と通信回線7
02を介して接続される端末704−1〜704−nと
を含むゲーム装置に本実施の形態を適用した場合の例を
示す。
The present embodiment may be applied not only to the home-use game machine 1 shown in FIG. 1 but also to any other form of game machine. For example, in FIG. 20, the host device 700, the host device 700 and the communication line 7
An example in which the present embodiment is applied to a game device including terminals 704-1 to 704-n connected via 02 is shown.

【0102】図20に示す形態の場合、図11に示した
情報記憶媒体400に記憶されるゲーム情報410等
は、例えば、ホスト装置700が制御可能な磁気ディス
ク装置、磁気テープ装置、メモリ等の情報記憶媒体70
6に格納されている。また、端末704−1〜704−
nが、CPU、画像生成IC、音生成IC、を有し、ス
タンドアローンでゲーム画像、ゲーム音を生成できるも
のである場合には、ホスト装置700からは、ゲーム画
像、ゲーム音を生成するためのゲーム情報410等が端
末704−1〜704−nに伝送される。一方、スタン
ドアローンで生成できない場合には、ホスト装置700
がゲーム画像、ゲーム音を生成し、これを端末704−
1〜704−nに伝送し端末において出力することにな
る。
In the case of the form shown in FIG. 20, the game information 410 or the like stored in the information storage medium 400 shown in FIG. 11 is, for example, a magnetic disk device, a magnetic tape device, a memory or the like which can be controlled by the host device 700. Information storage medium 70
6 is stored. Also, the terminals 704-1 to 704-
In the case where n has a CPU, an image generation IC, and a sound generation IC and can generate a game image and a game sound in a stand-alone manner, the host device 700 generates the game image and the game sound. Game information 410 and the like are transmitted to the terminals 704-1 to 704-n. On the other hand, if the standalone device cannot be created, the host device 700
Generates a game image and a game sound, and outputs this to the terminal 704-
1 to 704-n and output at the terminal.

【0103】あるいは、図21に示すように、本実施の
形態を業務用ゲーム装置800に適用してもよい。この
業務用ゲーム装置800は、プレーヤがスピーカ802
から出力される音を聞きながら、操作ボタン804を操
作することによって、ディスプレイ806に表示される
所与のキャラクタを操作して所与のゲームを楽しむ装置
である。業務用ゲーム装置800に内蔵されるシステム
基板808には、CPU、画像生成IC、音生成IC、
RAM、ROM、およびゲーム情報410を記憶する情
報記憶媒体であるメモリ810などが実装されている。
そして、CPUによって上記図1〜図18を用いて説明
した各種処理を実行して、ゲームを実現する。
Alternatively, as shown in FIG. 21, this embodiment may be applied to an arcade game machine 800. In this arcade game device 800, the player has a speaker 802.
This is a device for operating a given character displayed on the display 806 to enjoy a given game by operating the operation buttons 804 while listening to the sound output from the device. The system board 808 built in the arcade game device 800 has a CPU, an image generation IC, a sound generation IC,
A RAM, a ROM, a memory 810 that is an information storage medium that stores the game information 410, and the like are mounted.
Then, the CPU executes the various processes described with reference to FIGS. 1 to 18 to realize the game.

【0104】なお、上記実施の形態では、眼球モデルを
基準向きに配置した際の法線ベクトルに基づいて輝度処
理を行うこととした。しかし、この場合に限定する必要
はなく、基準向きに配置した際の法線ベクトルを用い
て、他の光学計算(例えば、光の反射や透過の計算)を
行っても良いし、リフレクションマッピングなどの処理
を行っても良いことは勿論である。
In the above embodiment, the brightness processing is performed based on the normal vector when the eyeball model is arranged in the reference direction. However, the present invention is not limited to this case, and other optical calculation (for example, calculation of light reflection or transmission) may be performed using the normal vector when arranged in the reference direction, reflection mapping, etc. It goes without saying that the processing of (1) may be performed.

【0105】例えば、光線追跡法として知られる方法で
は、通常、物体Aの法線ベクトルと、視点の視線ベクト
ルとの内積を算出して、視線ベクトルの反射方向を決定
し、その視線の反射方向に存在する物体Bを、物体Aの
表面上に表現することによって、物体Aの反射を表現し
ている。そこで、眼球の反射を表現する際には、図9を
用いて説明したような仮法線ベクトルを眼球の各頂点に
設定し、図22に示すように、眼球モデルの頂点900
の仮法線ベクトル902と、視点904の視線ベクトル
906との内積によって、視線ベクトル906の反射方
向908を算出し、係る反射方向908に存在するオブ
ジェクトを判定して眼球表面に表示するようにしてもよ
い。
For example, in the method known as the ray tracing method, the inner product of the normal vector of the object A and the line-of-sight vector of the viewpoint is usually calculated to determine the reflection direction of the line-of-sight vector, and the reflection direction of the line of sight is determined. The reflection of the object A is represented by representing the object B existing in the object A on the surface of the object A. Therefore, when expressing the reflection of the eyeball, a provisional normal vector as described with reference to FIG. 9 is set at each vertex of the eyeball, and as shown in FIG.
Of the tentative normal vector 902 and the line-of-sight vector 906 of the viewpoint 904, the reflection direction 908 of the line-of-sight vector 906 is calculated, and an object existing in the reflection direction 908 is determined and displayed on the eyeball surface. Good.

【0106】或いは、図9を用いて説明したような仮法
線ベクトルを用いて、リフレクションマッピングを行っ
ても良い。通常、リフレクションマッピングとして知ら
れる方法では、視点周辺の環境を表す環境テクスチャを
生成するとともに、物体Aの各頂点の法線ベクトルと、
視点の視線ベクトルとの内積を各頂点毎に算出し、各頂
点における視線ベクトルの反射方向を決定する。そし
て、各頂点における視線ベクトルの反射方向に該当する
環境テクスチャの範囲を物体Aの表面にマッピングして
いる。
Alternatively, the reflection mapping may be performed using the tentative normal vector as described with reference to FIG. Usually, in a method known as reflection mapping, an environment texture representing the environment around the viewpoint is generated, and a normal vector of each vertex of the object A,
The dot product with the line-of-sight vector of the viewpoint is calculated for each vertex, and the reflection direction of the line-of-sight vector at each vertex is determined. Then, the range of the environmental texture corresponding to the reflection direction of the line-of-sight vector at each vertex is mapped on the surface of the object A.

【0107】そこで、リフレクションマッピングを用い
て眼球の反射を表現する際には、図23に示すように、
眼球モデルの各頂点910、912、914の仮法線ベ
クトル920,922,924と、視点930の視線ベ
クトルの内積をそれぞれ計算して、視線ベクトルの反射
方向を決定する。そして、各頂点910、912、91
4における視線ベクトルの反射方向に該当する環境テク
スチャ940の範囲942を決定して、眼球モデルの該
当するポリゴンにマッピングする。
Therefore, when the reflection of the eyeball is expressed using reflection mapping, as shown in FIG.
The inner product of the provisional normal vectors 920, 922, 924 of the vertices 910, 912, 914 of the eyeball model and the line-of-sight vector of the viewpoint 930 is calculated, and the reflection direction of the line-of-sight vector is determined. Then, each vertex 910, 912, 91
The area 942 of the environment texture 940 corresponding to the reflection direction of the line-of-sight vector in 4 is determined and mapped to the corresponding polygon of the eyeball model.

【0108】或いは、より単純に、光線ベクトルの反射
方向を決定する際に、上述の仮法線ベクトルを用いて決
定しても良い。また、上記仮法線ベクトルを用いて、フ
ォン・シェーディングを行っても良いことは勿論であ
る。
Alternatively, more simply, when determining the reflection direction of the light ray vector, it may be determined using the above-mentioned provisional normal vector. Also, it goes without saying that von shading may be performed using the temporary normal vector.

【0109】これらの処理によって、図3に示したよう
な目の大きいキャラクタについても、左右の眼球に対し
て、相対的に同等な位置に同じ環境の画像を表現するこ
とが可能となる。
By these processes, it becomes possible to express the image of the same environment in a position relatively equivalent to the left and right eyeballs even for a character with large eyes as shown in FIG.

【0110】なお、本実施の形態では、頂点の法線ベク
トルを算出する際に、係る頂点を含む全てのポリゴンの
面における法線ベクトルの平均を設定することとして説
明したが、これに限定する必要はない。
In this embodiment, when the normal vector of the vertex is calculated, the average of the normal vectors of the faces of all polygons including the vertex is set, but the present invention is not limited to this. No need.

【0111】また、上記実施の形態では、眼球のハイラ
イトを尤らしく表現する場合を例に説明したが、眼球に
限定する必要はない。また、本実施の形態は、家庭用、
業務用のゲーム装置のみならず、シミュレータ、ディス
プレイに画像表示してアトラクションを実行するタイプ
の大型アトラクション装置、パーソナルコンピュータ、
マルチメディア端末、ゲーム画像を生成するシステム基
板等の種々の画像生成装置にも適用できる。
Further, in the above-mentioned embodiment, the case where the highlight of the eyeball is expressed is described as an example, but it is not limited to the eyeball. In addition, this embodiment is for home use,
Not only game machines for business use, but also simulators, large-scale attraction devices that display images on a display to execute attractions, personal computers,
It can also be applied to various image generating devices such as multimedia terminals and system boards for generating game images.

【0112】[0112]

【発明の効果】本発明によれば、物体の輝度処理をする
際、若しくは、物体表面に映る被反射物を決定する際
に、係る物体の向きに代えて、当該物体の基準向きを用
いる。故に、仮想空間に配置する物体の位置および向き
について、従来に知られた輝度処理、反射処理の方法で
は実現することのないはずの輝きや反射を、係る従来に
知られた処理の方法を用いて実現することが可能とな
る。
According to the present invention, the reference orientation of the object is used in place of the orientation of the object when performing the brightness processing of the object or determining the reflected object reflected on the surface of the object. Therefore, regarding the position and orientation of the object placed in the virtual space, the brightness and reflection that cannot be realized by the conventionally known methods of brightness processing and reflection processing are used. Can be realized by

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施の形態における家庭用のゲーム装置の外
観例を示す図である。
FIG. 1 is a diagram showing an example of the appearance of a home-use game machine according to the present embodiment.

【図2】輝度の決定方法について説明する為の図であ
る。
FIG. 2 is a diagram for explaining a method of determining brightness.

【図3】目の大きいキャラクタの顔面の一例を示す図で
ある。
FIG. 3 is a diagram showing an example of a face of a character with large eyes.

【図4】(a)は、一般的な人の頭部の断面図である。
(b)は、(a)に示す頭部の正面図である。(c)
は、目の大きいキャラクタの頭部の断面図である。
(d)は、(c)に示す頭部の正面図である。
FIG. 4A is a cross-sectional view of a general human head.
(B) is a front view of the head shown in (a). (C)
[Fig. 3] is a cross-sectional view of the head of a character with large eyes.
(D) is a front view of the head shown in (c).

【図5】(a)は、理想と実際の眼孔開口面の配置例を
示す図である。(b)は、眼球の「実際の向き」と「基
準向き」との関係を説明する為の図である。
FIG. 5A is a diagram showing an arrangement example of ideal and actual eye opening surfaces. (B) is a figure for demonstrating the relationship between the "actual direction" of an eyeball and a "reference direction."

【図6】(a)は、左右の眼球をそれぞれ基準向きに配
置した一例を示す図である。(b)は、左右の眼球を頭
部の形状に合わせて配置した一例を示す図である。
FIG. 6A is a diagram showing an example in which left and right eyeballs are respectively arranged in a reference direction. (B) is a figure which shows an example which arranged the right and left eyeballs according to the shape of the head.

【図7】眼球モデルの一例を示す図である。FIG. 7 is a diagram showing an example of an eyeball model.

【図8】六つのポリゴンに含まれる頂点の一例を示す図
である。
FIG. 8 is a diagram showing an example of vertices included in six polygons.

【図9】(a)は、図6に示す眼球モデルのx−z断面
を示す図である。(b)は、(a)に示す眼球モデルを
y軸周りにψ回転させた一例を示す図である。(c)
は、各頂点の法線ベクトルをy軸周りに−ψ回転させた
一例を示す図である。
9A is a view showing an xz section of the eyeball model shown in FIG. 6. FIG. (B) is a diagram showing an example in which the eyeball model shown in (a) is rotated by ψ around the y-axis. (C)
FIG. 4 is a diagram showing an example in which the normal vector of each vertex is rotated by −ψ about the y axis.

【図10】仮法線ベクトルを用いて眼球を描画した例
と、通常の法線ベクトルを用いて描画した例を示す図で
ある。
FIG. 10 is a diagram showing an example in which an eyeball is drawn using a tentative normal vector and an example in which an ordinary eyeball is drawn using a normal vector.

【図11】本実施の形態におけるゲーム装置の機能ブロ
ックの一例を示す図である。
FIG. 11 is a diagram showing an example of functional blocks of the game device in the present embodiment.

【図12】頂点データの格納形態の一例を示す図であ
る。
FIG. 12 is a diagram showing an example of a storage form of vertex data.

【図13】ポリゴンデータの格納形態の一例を示す図で
ある。
FIG. 13 is a diagram showing an example of a storage form of polygon data.

【図14】眼球輝度処理を説明するためのフローチャー
トである。
FIG. 14 is a flowchart for explaining eyeball luminance processing.

【図15】(a)は、ワールド座標系に眼球座標系を配
置した模式図である。(b)は、ワールド座標系に眼球
モデルの各頂点を配置した模式図である。(c)は、ワ
ールド座標系に各仮法線ベクトルを配置した模式図であ
る。
FIG. 15A is a schematic diagram in which an eyeball coordinate system is arranged in the world coordinate system. (B) is a schematic diagram in which each vertex of the eyeball model is arranged in the world coordinate system. (C) is a schematic diagram in which each temporary normal vector is arranged in the world coordinate system.

【図16】変換後頂点データの格納形態の一例を示す図
である。
FIG. 16 is a diagram showing an example of a storage form of converted vertex data.

【図17】頂点色情報データの格納形態の一例を示す図
である。
FIG. 17 is a diagram showing an example of a storage form of vertex color information data.

【図18】ポリゴンの3つの頂点を投影面の座標系に変
換した一例を示す図である。
FIG. 18 is a diagram showing an example in which three vertices of a polygon are converted into a coordinate system of a projection plane.

【図19】本実施の形態におけるゲーム装置のハードウ
ェア構成の一例を示す図である。
FIG. 19 is a diagram showing an example of a hardware configuration of a game device according to the present embodiment.

【図20】ホスト装置と端末を含むゲーム装置への本実
施の形態の適用例を示す図である。
FIG. 20 is a diagram showing an application example of the present embodiment to a game device including a host device and a terminal.

【図21】本実施形態を業務用のゲーム装置に適用した
例を示す図である。
FIG. 21 is a diagram showing an example in which the present embodiment is applied to an arcade game machine.

【図22】仮法線ベクトルを用いた反射計算の一例を示
す図である。
FIG. 22 is a diagram showing an example of reflection calculation using a provisional normal vector.

【図23】仮法線ベクトルを用いたリフレクションマッ
ピングの一例を示す図である。
FIG. 23 is a diagram showing an example of reflection mapping using a tentative normal vector.

【符号の説明】[Explanation of symbols]

1 ゲーム装置 100 処理部 110 ゲーム演算部 112 キャラクタ制御部 120 画像生成部 122 輝度処理部 200 入力部 300 表示部 400 情報記憶媒体 410 ゲーム情報 420 キャラクタ制御プログラム 430 輝度処理プログラム 440 キャラクタモデルデータ 450 眼球モデルデータ 452 頂点データ 454 ポリゴンデータ 500 一時記憶部 510 変換後頂点データ 520 頂点色情報データ 1 game device 100 processing unit 110 Game calculation unit 112 Character Control Unit 120 Image generator 122 Luminance processing unit 200 input section 300 display 400 information storage medium 410 Game information 420 character control program 430 Luminance processing program 440 character model data 450 Eyeball model data 452 vertex data 454 polygon data 500 temporary storage 510 Vertex data after conversion 520 Vertex color information data

───────────────────────────────────────────────────── フロントページの続き (72)発明者 板井 克倫 東京都大田区矢口2丁目1番の21号 株式 会社モノリスソフト内 Fターム(参考) 2C001 BC00 BC06 BC08 CB01 CB04 CB06 5B050 AA08 BA07 BA08 BA09 BA12 BA18 CA07 CA08 EA09 EA14 EA27 EA28 EA30 FA02 FA05 FA08 FA10 5B080 AA13 AA19 BA02 CA01 FA02 FA06 GA06    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Katsunori Itai             No. 21 stock, 2-1, Yaguchi, Ota-ku, Tokyo             Company Monolith Soft F term (reference) 2C001 BC00 BC06 BC08 CB01 CB04                       CB06                 5B050 AA08 BA07 BA08 BA09 BA12                       BA18 CA07 CA08 EA09 EA14                       EA27 EA28 EA30 FA02 FA05                       FA08 FA10                 5B080 AA13 AA19 BA02 CA01 FA02                       FA06 GA06

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】プロセッサによる演算・制御により、光源
と物体の配置位置および向きとに基づいて当該物体の輝
度処理を行う輝度処理手段と、前記物体を含む仮想空間
の画像を生成する手段と、を前記プロセッサを備える装
置に対して機能させるための画像生成情報であって、 前記輝度処理手段が、前記物体の向きに代えて、当該物
体の基準向きを用いて前記輝度処理を行うように、前記
装置に機能させるための情報を含むことを特徴とする画
像生成情報。
1. A brightness processing means for performing brightness processing of an object based on a light source and an arrangement position and orientation of the object by calculation and control by a processor, and means for generating an image of a virtual space including the object. Is image generation information for causing a device including the processor to function, wherein the brightness processing means performs the brightness processing by using a reference orientation of the object instead of the orientation of the object, Image generation information including information for causing the device to function.
【請求項2】請求項1に記載の画像生成情報において、 複数のプリミティブ面によって前記物体を形成する手段
を、前記装置に機能させるための情報と、 前記輝度処理手段が、前記物体が前記基準向きに配置さ
れたときの、当該物体を形成するプリミティブ面の頂点
の法線ベクトルに基づいて、前記輝度処理を行うよう
に、前記装置に機能させるための情報を含むことを特徴
とする画像生成情報。
2. The image generation information according to claim 1, wherein information for causing the apparatus to function means for forming the object by a plurality of primitive surfaces, and the luminance processing means for the object to be the reference. An image generation including information for causing the device to perform the luminance processing based on the normal vector of the apex of the primitive surface forming the object when the image generation is performed. information.
【請求項3】請求項1または2に記載の画像生成情報に
おいて、 開口方向が非平行な眼孔部を複数有するとともに、各眼
孔部に眼球を配置したキャラクタを前記仮想空間に配置
するキャラクタ配置手段を前記装置に機能させるための
情報と、 前記複数の眼孔部に配置される眼球それぞれを前記物体
とするための手段を前記装置に機能させるための情報
と、 前記輝度処理手段が、前記複数の眼孔部に配置される眼
球それぞれの向きに代えて、前記基準向きを用いて、前
記眼球それぞれについて前記輝度処理を行う、ように前
記装置に機能させるための情報と、 を含むことを特徴とする画像生成情報。
3. The image generation information according to claim 1 or 2, wherein a character having a plurality of eyelid portions whose opening directions are non-parallel and an eyeball placed in each eyelid portion is arranged in the virtual space. Information for causing the arrangement means to function in the device, information for causing the device to function as means for each of the eyeballs arranged in the plurality of eye holes, and the brightness processing means, Information for causing the device to function such that the luminance processing is performed for each of the eyeballs by using the reference orientation instead of the orientation of each eyeball arranged in the plurality of eye holes. Image generation information characterized by.
【請求項4】プロセッサによる演算・制御により、反射
体と視点との位置関係に応じて当該反射体に映る被反射
物を表現する反射表現手段と、前記反射体を含む仮想空
間の画像を前記視点に基づいて生成する手段と、を前記
プロセッサを備える装置に対して機能させるための画像
生成情報であって、 前記反射表現手段が、前記反射体の向きに代えて、前記
反射体の基準向きを用いて当該反射体に映る被反射物を
決定する、ように前記装置に機能させるための情報を含
むことを特徴とする画像生成情報。
4. A reflection expression means for expressing an object to be reflected on the reflector according to a positional relationship between the reflector and a viewpoint by calculation and control by a processor, and an image of a virtual space including the reflector. Image generation information for causing a device including the processor to function based on a viewpoint, wherein the reflection expressing unit is, instead of the direction of the reflector, a reference direction of the reflector. Image generation information including information for causing the device to function so as to determine the object to be reflected on the reflector using.
【請求項5】請求項4に記載の画像生成情報において、 複数のプリミティブ面によって前記物体を形成する手段
を、前記装置に機能させるための情報と、 前記反射表現手段が、前記反射体が基準向きに配置され
たときの、当該反射体の頂点の法線ベクトルに基づい
て、当該反射体に映る被反射物を決定する、ように前記
装置に機能させるための情報を含むことを特徴とする画
像生成情報。
5. The image generation information according to claim 4, wherein information for causing the device to function the means for forming the object by a plurality of primitive surfaces, and the reflection expression means, the reflector is a reference. It includes information for causing the device to function so as to determine the object to be reflected on the reflector based on the normal vector of the vertex of the reflector when arranged in the orientation. Image generation information.
【請求項6】プロセッサによる演算・制御により、操作
入力に応答してキャラクタをリアルタイムに動作させ、
前記キャラクタが登場するゲームを実行する手段と、視
点に基づいて前記キャラクタを含む仮想空間の画像を生
成する手段と、を前記プロセッサを備える装置に機能さ
せるためのゲーム情報であって、 前記キャラクタが、開口方向が非平行な眼孔部を複数有
するとともに、各眼孔部に眼球を配置して前記キャラク
タを構成するキャラクタ構成手段と、 前記各眼球にハイライトを描画する際に、前記各眼孔部
に対する相対的に同じ位置にハイライトを描画するハイ
ライト手段と、 を前記装置に機能させるための情報を含むことを特徴と
するゲーム情報。
6. A processor operates and controls a character in real time in response to an operation input,
Game information for causing a device including the processor to cause a device that executes a game in which the character appears and a device that generates an image of a virtual space including the character based on a viewpoint, wherein the character is , A plurality of eye openings having non-parallel opening directions, and character forming means for forming the character by arranging an eye ball in each eye hole, and when drawing a highlight on each eye, each eye Game information comprising: highlighting means for drawing highlights at the same position relative to the hole; and information for causing the device to function.
【請求項7】請求項1から5の何れかに記載の画像生成
情報または、請求項6に記載のゲーム情報を記憶するこ
とを特徴とする情報記憶媒体。
7. An information storage medium, which stores the image generation information according to any one of claims 1 to 5 or the game information according to claim 6.
【請求項8】光源と物体の配置位置および向きとに基づ
いて当該物体の輝度処理を行う輝度処理手段と、前記物
体を含む仮想空間の画像を生成する手段と、を備える画
像生成装置であって、 前記輝度処理手段は、前記物体の向きに代えて、当該物
体の基準向きを用いて前記輝度処理を行うことを特徴と
する画像生成装置。
8. An image generation apparatus comprising: a brightness processing means for performing brightness processing of an object based on a light source and an arrangement position and orientation of the object; and a means for generating an image of a virtual space including the object. Then, the brightness processing means performs the brightness processing by using a reference orientation of the object instead of the orientation of the object.
【請求項9】反射体と視点との位置関係に応じて当該反
射体に映る被反射物を表現する反射表現手段と、前記反
射体を含む仮想空間の画像を前記視点に基づいて生成す
る手段と、を備える画像生成装置であって、 前記反射表現手段は、前記反射体の向きに代えて、当該
反射体の基準向きを用いて当該反射体に映る被反射物を
決定することを特徴とする画像生成装置。
9. A reflection expression means for expressing an object to be reflected on the reflector according to a positional relationship between the reflector and the viewpoint, and a means for generating an image of a virtual space including the reflector based on the viewpoint. And an image generating device including: wherein the reflection expressing unit determines a reflected object reflected on the reflector by using a reference orientation of the reflector instead of the orientation of the reflector. Image generating device.
【請求項10】操作入力に応答してキャラクタをリアル
タイムに動作させ、前記キャラクタが登場するゲームを
実行する手段と、視点に基づいて前記キャラクタを含む
仮想空間の画像を生成する手段と、を備えるゲーム装置
であって、 前記キャラクタが、開口方向が非平行な眼孔部を複数有
するとともに、各眼孔部に眼球を配置して前記キャラク
タを構成するキャラクタ構成手段と、 前記各眼球にハイライトを描画する際に、前記各眼孔部
に対する相対的に同じ位置にハイライトを描画するハイ
ライト手段と、 を更に備えることを特徴とするゲーム装置。
10. A means for moving a character in real time in response to an operation input to execute a game in which the character appears, and means for generating an image of a virtual space including the character based on a viewpoint. In the game device, the character has a plurality of eye-hole portions whose opening directions are not parallel to each other, and character forming means for forming the character by arranging an eye-ball in each eye-hole portion, and highlighting on each eye-ball. Highlighting means for drawing a highlight at the same position relative to each of the eye-holes when drawing the game device.
JP2002052301A 2002-02-27 2002-02-27 Image generation information, game information, information storage medium, image generation device, and game device Expired - Lifetime JP4006243B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002052301A JP4006243B2 (en) 2002-02-27 2002-02-27 Image generation information, game information, information storage medium, image generation device, and game device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002052301A JP4006243B2 (en) 2002-02-27 2002-02-27 Image generation information, game information, information storage medium, image generation device, and game device

Publications (2)

Publication Number Publication Date
JP2003256866A true JP2003256866A (en) 2003-09-12
JP4006243B2 JP4006243B2 (en) 2007-11-14

Family

ID=28664042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002052301A Expired - Lifetime JP4006243B2 (en) 2002-02-27 2002-02-27 Image generation information, game information, information storage medium, image generation device, and game device

Country Status (1)

Country Link
JP (1) JP4006243B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318390A (en) * 2005-05-16 2006-11-24 Namco Bandai Games Inc Image generation system, program, and information storage medium
WO2008149576A1 (en) * 2007-06-05 2008-12-11 Konami Digital Entertainment Co., Ltd. Image processor, image processing method, program, and information storage medium
JP2011083450A (en) * 2009-10-16 2011-04-28 Daito Giken:Kk Game machine
JP2013033489A (en) * 2012-09-24 2013-02-14 Daito Giken:Kk Image generation device
JP2014182697A (en) * 2013-03-21 2014-09-29 Fujitsu Ltd Image display device
CN111429567A (en) * 2020-03-23 2020-07-17 成都威爱新经济技术研究院有限公司 Digital virtual human eyeball real environment reflection method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318390A (en) * 2005-05-16 2006-11-24 Namco Bandai Games Inc Image generation system, program, and information storage medium
JP4693153B2 (en) * 2005-05-16 2011-06-01 株式会社バンダイナムコゲームス Image generation system, program, and information storage medium
WO2008149576A1 (en) * 2007-06-05 2008-12-11 Konami Digital Entertainment Co., Ltd. Image processor, image processing method, program, and information storage medium
JP2008304999A (en) * 2007-06-05 2008-12-18 Konami Digital Entertainment:Kk Image processor, image processing method and program
JP4764381B2 (en) * 2007-06-05 2011-08-31 株式会社コナミデジタルエンタテインメント Image processing apparatus, image processing method, and program
JP2011083450A (en) * 2009-10-16 2011-04-28 Daito Giken:Kk Game machine
JP2013033489A (en) * 2012-09-24 2013-02-14 Daito Giken:Kk Image generation device
JP2014182697A (en) * 2013-03-21 2014-09-29 Fujitsu Ltd Image display device
CN111429567A (en) * 2020-03-23 2020-07-17 成都威爱新经济技术研究院有限公司 Digital virtual human eyeball real environment reflection method

Also Published As

Publication number Publication date
JP4006243B2 (en) 2007-11-14

Similar Documents

Publication Publication Date Title
US6738061B2 (en) Method, apparatus, storage medium, program, and program product for generating image data of virtual three-dimensional space
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
US6717575B2 (en) Image drawing method, image drawing apparatus, recording medium, and program
JP3748451B1 (en) Program, information storage medium, and image generation system
JP2001319244A (en) Game system and information storage medium
JP2005032140A (en) Image generation system, program, and information storage medium
JP4006243B2 (en) Image generation information, game information, information storage medium, image generation device, and game device
JP2002063596A (en) Game system, program and information storage medium
JP2006323512A (en) Image generation system, program, and information storage medium
JP2001143099A (en) Image-forming system and information storage medium
JP4707078B2 (en) Image generation system, program, and information storage medium
JP4528008B2 (en) Program, information storage medium, and image generation system
JP4488346B2 (en) Program, information storage medium, and image generation system
JP2007272388A (en) Program, information storage medium and image generation system
JP2001229403A (en) Game system and information storage medium
JP4574058B2 (en) Image generation system, program, and information storage medium
JP2002133439A (en) Image forming device, image forming method, and game device
JP4159060B2 (en) Image generating apparatus and information storage medium
JP4229317B2 (en) Image generation system, program, and information storage medium
JP4662260B2 (en) Program, information storage medium, and image generation system
JP2005141647A (en) Program, information storage medium and image generating system
JP4394211B2 (en) Image generation system and information storage medium
JP2005275795A (en) Program, information storage medium and image generation system
JP4632530B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4688405B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050204

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20060116

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070827

R150 Certificate of patent or registration of utility model

Ref document number: 4006243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100831

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100831

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100831

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110831

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110831

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120831

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120831

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130831

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term