JP2001291120A - Image generation system and information storage medium - Google Patents

Image generation system and information storage medium

Info

Publication number
JP2001291120A
JP2001291120A JP2000108615A JP2000108615A JP2001291120A JP 2001291120 A JP2001291120 A JP 2001291120A JP 2000108615 A JP2000108615 A JP 2000108615A JP 2000108615 A JP2000108615 A JP 2000108615A JP 2001291120 A JP2001291120 A JP 2001291120A
Authority
JP
Japan
Prior art keywords
image
viewpoint
model
rendering
given
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000108615A
Other languages
Japanese (ja)
Other versions
JP4413369B2 (en
Inventor
Satoshi Ouchi
聡 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2000108615A priority Critical patent/JP4413369B2/en
Publication of JP2001291120A publication Critical patent/JP2001291120A/en
Application granted granted Critical
Publication of JP4413369B2 publication Critical patent/JP4413369B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To reduce a data amount related to the same object in an object space and to obtain a high quality image. SOLUTION: A model image generating part 142 renders an object model placed in a model space and reflects an image of rendering results on a virtual object, and a model image arranging part 134 subsequently arranges the virtual object within the object space instead of the object model. A game image generating part 144 generates an image obtained by looking at the object space from a given viewpoint, and the image is displayed on a displaying part 190.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、オブジェクト空間
内の所与の視点での画像を生成する画像生成システム等
に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image generation system for generating an image at a given viewpoint in an object space.

【0002】[0002]

【従来の技術】3Dのコンピュータグラフィックス(以
下、CGという。)において、形状が同じオブジェクト
(例えば木)を繰り返し表示する場合、オブジェクト空
間上にそのオブジェクトを直接配置するとなると、CG
データ量が増えてしまうため、次の様な方法が採られて
いた。即ち、そのオブジェクトに対するモデルを予め作
っておき、実際にそのモデルを表示する時にのみ、オブ
ジェクト空間に配置する手法である。
2. Description of the Related Art In 3D computer graphics (hereinafter, referred to as CG), when an object (for example, a tree) having the same shape is repeatedly displayed, if the object is directly arranged in an object space, CG is used.
To increase the amount of data, the following method has been adopted. In other words, this is a method in which a model for the object is created in advance, and the model is arranged in the object space only when the model is actually displayed.

【0003】また、CGデータ量をより一層少なくする
方法として、モデルのポリゴン数を削減する方法や、モ
デルではなくテクスチャとして1枚のポリゴンにマッピ
ングし、そのポリゴンを常に視点の方向に向ける事で擬
似的に物体を表現する方法等が実現・実用化されてい
た。
Further, as a method of further reducing the amount of CG data, a method of reducing the number of polygons in a model or a method of mapping a single polygon as a texture instead of a model, and always pointing the polygon in the direction of the viewpoint. A method of expressing an object in a pseudo manner has been realized and put into practical use.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、同じモ
デルを複数並べる方法では、モデルの数に比例して全体
のポリゴン数が増えるため、描画負荷が非常に大きくな
ってしまう。また一方、ポリゴン数を削減する方法にお
いては、描画速度が改善されるものの、精細さの欠ける
画像となってしまい、1枚のポリゴンを視点方向に向け
る方法では、マッピングされたテクスチャが変化しない
ため、注目して見た場合に、表示対象物が常にこちらを
向いているために違和感を抱く画像となってしまう。
However, in the method of arranging a plurality of the same models, the total number of polygons increases in proportion to the number of models, so that the drawing load becomes extremely large. On the other hand, in the method of reducing the number of polygons, the drawing speed is improved, but the image lacks in definition. In the method of turning one polygon in the viewpoint direction, the mapped texture does not change. However, when the image is viewed with attention, the image becomes uncomfortable because the display target always faces this direction.

【0005】本発明の課題は、オブジェクト空間におけ
る同じオブジェクトに係るデータ量を削減し、かつ高品
位な画像を得ることである。
An object of the present invention is to reduce the amount of data relating to the same object in the object space and obtain a high-quality image.

【0006】[0006]

【課題を解決するための手段】以上の課題を解決するた
め、請求項1記載の発明は、オブジェクト空間内の所与
の視点(例えば、実施形態におけるワールド視点)での
画像を生成する画像生成システムであって、所与のオブ
ジェクトモデルをレンダリングするためのレンダリング
手段(例えば、図2のモデル画像生成部142)と、前
記レンダリング手段によるレンダリング結果の画像を反
映させた仮想体(例えば、図1(c)の1ポリゴンにマ
ッピングされたテクスチャ134a)を、前記所与のオ
ブジェクトモデルの代わりに、前記オブジェクト空間内
に配置するための配置手段(例えば、図2のモデル画像
配置部134)と、を備えることを特徴とする。
In order to solve the above problems, the invention according to claim 1 is directed to an image generation for generating an image at a given viewpoint in an object space (for example, a world viewpoint in the embodiment). In the system, a rendering unit for rendering a given object model (for example, the model image generation unit 142 in FIG. 2), and a virtual body (for example, FIG. 1) reflecting an image of a rendering result by the rendering unit (C) an arrangement means for arranging the texture 134a mapped to one polygon in the object space instead of the given object model (for example, the model image arrangement unit 134 in FIG. 2); It is characterized by having.

【0007】また、請求項9記載の発明は、オブジェク
ト空間内の所与の視点での画像を生成させるための情報
を記憶した情報記憶媒体であって、所与のオブジェクト
モデルに係る情報と、所与の仮想体に係る情報と、前記
所与のオブジェクトモデルをレンダリングするためのレ
ンダリング情報と、前記レンダリング情報によるレンダ
リング結果の画像を前記所与の仮想体に反映させるとと
もに、前記所与のオブジェクトモデルの代わりに、当該
仮想体を配置するための配置情報と、を含むことを特徴
とする。
According to a ninth aspect of the present invention, there is provided an information storage medium storing information for generating an image at a given viewpoint in an object space, the information storage medium comprising: Information on a given virtual body, rendering information for rendering the given object model, and an image rendered as a result of the rendering information are reflected on the given virtual body, and the given object is And arrangement information for arranging the virtual object, instead of the model.

【0008】ここで、仮想体とは、1枚のポリゴンから
なる平面であってもよいし、円筒状の回転体であっても
よい。また、仮想体への反映においては、単なるマッピ
ングの他、パラメータ化テクスチャマッピングや投影マ
ッピング、置換マッピング等、種々の手法が含まれる意
である。
[0008] Here, the virtual body may be a plane formed of one polygon or a cylindrical rotating body. In addition, in the reflection to the virtual body, various techniques such as parameterized texture mapping, projection mapping, and replacement mapping are included in addition to simple mapping.

【0009】この請求項1または9記載の発明によれ
ば、例えば、オブジェクトモデルが1000ポリゴンか
らなるモデルであり、仮想体が1ポリゴンからなる平面
である場合、オブジェクト空間において、僅か1ポリゴ
ンのデータ容量または1ポリゴンに係る描画演算処理
で、1000ポリゴンのモデル画像を得ることができ
る。したがって、同一のオブジェクトモデルを複数配置
する必要のある場合、画像データの容量や描画演算処理
に係る処理量を大幅に削減し、画像生成に係る処理負担
を軽くすることができる。
According to the first or ninth aspect of the present invention, for example, when the object model is a model composed of 1000 polygons and the virtual body is a plane composed of one polygon, only one polygon data is stored in the object space. A 1000-polygon model image can be obtained by the drawing calculation processing relating to the capacity or one polygon. Therefore, when it is necessary to arrange a plurality of the same object models, it is possible to greatly reduce the capacity of image data and the amount of processing related to rendering calculation processing, and reduce the processing load related to image generation.

【0010】また、請求項2記載の発明のように、請求
項1記載の画像生成システムであって、前記レンダリン
グ手段は、前記所与の視点の視点位置または視点方向
と、前記仮想体の配置位置とに基づいて、レンダリング
する視点(例えば、本実施形態におけるモデル視点)を
変更することとしてもよい。
According to a second aspect of the present invention, in the image generation system according to the first aspect, the rendering means includes a viewpoint position or a viewpoint direction of the given viewpoint and an arrangement of the virtual body. The viewpoint to be rendered (for example, the model viewpoint in the present embodiment) may be changed based on the position.

【0011】また、請求項10記載の発明のように、請
求項9記載の情報記憶媒体であって、前記レンダリング
情報は、前記所与の視点の視点位置または視点方向と、
前記所与の仮想体の配置位置とに基づいて、レンダリン
グする視点を変更するための情報を含むこととしてもよ
い。
According to a tenth aspect of the present invention, in the information storage medium according to the ninth aspect, the rendering information includes a viewpoint position or a viewpoint direction of the given viewpoint,
The information may include information for changing a rendering viewpoint based on the arrangement position of the given virtual body.

【0012】この請求項2または10記載の発明によれ
ば、オブジェクト空間において所与の視点の視点位置ま
たは視点方向が変化した場合であっても、その変化に応
じてレンダリングする視点が変更されるため、矛盾のな
い画像を得ることができる。具体的には、本実施形態に
おいて、図4〜6を参照して説明するように、視点がタ
ンブル等した場合にあっても、実際のオブジェクトモデ
ルに対する視点の移動と同様の画像を得ることができ
る。
According to the second or tenth aspect of the present invention, even when the viewpoint position or viewpoint direction of a given viewpoint changes in the object space, the viewpoint to be rendered is changed according to the change. Therefore, a consistent image can be obtained. Specifically, in the present embodiment, as described with reference to FIGS. 4 to 6, even when the viewpoint tumbles, an image similar to the movement of the viewpoint with respect to the actual object model can be obtained. it can.

【0013】また、請求項3記載の発明のように、請求
項1または2記載の画像生成システムであって、前記配
置手段は、前記所与の視点に対する対向面に、前記レン
ダリング結果の画像をマッピングすることにより、前記
仮想体に当該画像を反映させることとしてもよい。
According to a third aspect of the present invention, in the image generating system according to the first or second aspect, the arranging means places the image of the rendering result on a surface facing the given viewpoint. By mapping, the image may be reflected in the virtual body.

【0014】また、請求項11記載の発明のように、請
求項9または10記載の情報記憶媒体であって、前記配
置情報は、前記所与の視点に対する対向面に、前記レン
ダリング結果の画像をマッピングするための情報を含む
こととしてもよい。
In the information storage medium according to the ninth or tenth aspect, the arrangement information includes the image of the rendering result on a surface facing the given viewpoint. It may include information for mapping.

【0015】ここで、マッピングとは、本明細書を通じ
て説明した種々のマッピング手法を含む意である。
Here, the mapping is intended to include the various mapping methods described throughout this specification.

【0016】この請求項3または11記載の発明によれ
ば、仮想体の対向面に画像がマッピングされるため、当
該画像は、必ず所与の視点に対向することとなるため、
斜めから見えるような歪んだ画像となるのを避けること
ができる。
According to the third or eleventh aspect of the present invention, since the image is mapped on the opposing surface of the virtual body, the image always faces the given viewpoint.
It is possible to avoid a distorted image that can be seen from an oblique direction.

【0017】また、請求項4記載の発明のように、請求
項1または2記載の画像生成システムであって、前記仮
想体は、回転体として構成することとしてもよい。
According to a fourth aspect of the present invention, in the image generation system according to the first or second aspect, the virtual body may be configured as a rotating body.

【0018】この請求項4記載の発明によれば、仮想体
が回転体であるため、平面等の場合と比べて画像データ
の量の削減率は減少するが、当該仮想体に係る部分の画
像を、より立体的な画像として得ることができる。
According to the fourth aspect of the present invention, since the virtual body is a rotating body, the reduction rate of the amount of image data is reduced as compared with the case of a plane or the like. Can be obtained as a more three-dimensional image.

【0019】また、請求項5記載の発明のように、請求
項1から4のいずれか記載の画像生成システムであっ
て、前記配置手段は、前記オブジェクト空間における所
与の視点の位置に基づいて、当該所与の視点に対する前
記仮想体の角度を変化させることとしてもよい。
According to a fifth aspect of the present invention, in the image generating system according to any one of the first to fourth aspects, the arranging means is configured to determine a position of a given viewpoint in the object space. The angle of the virtual body with respect to the given viewpoint may be changed.

【0020】この請求項5記載の発明によれば、例え
ば、仮想体の画像が反映された面を、必ず所与の視点に
向けることにより、斜めから見えるような歪んだ画像と
なるのを防ぐことができる。
According to the fifth aspect of the present invention, for example, the surface on which the image of the virtual object is reflected is always directed to a given viewpoint, thereby preventing a distorted image that can be seen obliquely. be able to.

【0021】また、請求項6記載の発明のように、請求
項1から5のいずれか記載の画像生成システムであっ
て、前記レンダリング手段は、前記所与のオブジェクト
モデルを中心とした、角度の異なる視点におけるレンダ
リングを行い、前記配置手段は、前記レンダリング手段
による視点角度の異なるレンダリング結果の画像の内、
前記仮想体に反映させる画像を、前記オブジェクト空間
内における所与の視点の視点方向と、前記仮想体の配置
位置とに基づいて決定することとしてもよい。
According to a sixth aspect of the present invention, in the image generating system according to any one of the first to fifth aspects, the rendering means includes an angle adjusting unit which centers the given object model. Rendering at different viewpoints, the arranging means, among the images of the rendering results of different viewpoint angles by the rendering means,
The image to be reflected on the virtual body may be determined based on a viewpoint direction of a given viewpoint in the object space and an arrangement position of the virtual body.

【0022】この請求項6記載の発明によれば、例え
ば、オブジェクト空間における所与の視点がパーン等し
た場合、実際であれば、オブジェクトモデルが回転しな
いはずであるが、本発明を適用したことにより、オブジ
ェクトモデルの画像が回転してしまうといった欠点を補
うことができる。
According to the invention of claim 6, for example, when a given viewpoint in the object space pans or the like, the object model should not actually rotate, but the present invention is applied. Thereby, the disadvantage that the image of the object model is rotated can be compensated.

【0023】また、請求項7記載の発明のように、請求
項1から6のいずれか記載の画像生成システムであっ
て、前記配置手段は、前記仮想体を配置する位置情報に
基づいて、前記仮想体に反映させる前記レンダリング結
果の画像の輝度を変化させることとしてもよい。
According to a seventh aspect of the present invention, in the image generation system according to any one of the first to sixth aspects, the arranging means is configured to determine the position of the virtual object based on the position information. The luminance of the image of the rendering result reflected on the virtual body may be changed.

【0024】この請求項7記載の発明によれば、例え
ば、所与の視点に対して手前の仮想体に対しては明る
く、奥側の仮想体に対しては暗く輝度を変更することに
より、遠近感をよりリアルに表現することができたり、
オブジェクト空間における光源を仮想体に反映させるこ
とにより、実際のオブジェクトモデルに近い光源に係る
効果を得ることができる。
According to the seventh aspect of the present invention, for example, by changing the brightness of a virtual object in front of a given viewpoint, the brightness of the virtual object on the near side is changed to be darker. You can express the perspective more realistically,
By reflecting the light source in the object space on the virtual body, it is possible to obtain an effect related to the light source close to the actual object model.

【0025】また、請求項8記載の発明のように、請求
項7記載の画像生成システムであって、前記配置手段
は、バンプマッピングにより前記レンダリング結果の画
像の輝度を変化させることとしてもよい。
According to an eighth aspect of the present invention, in the image generating system according to the seventh aspect, the arranging means may change the luminance of the rendering result image by bump mapping.

【0026】この請求項8記載の発明によれば、仮想体
の表面が平らであった場合であっても、当該表面全体の
輝度変更だけでなく、種々の特性を有する表面を表現し
たり、光源を反映させたよりリアルな輝度変更を施すこ
とが可能となる。
According to the eighth aspect of the present invention, even when the surface of the virtual body is flat, not only the luminance of the entire surface is changed but also a surface having various characteristics can be expressed. It is possible to perform more realistic luminance change reflecting the light source.

【0027】[0027]

【発明の実施の形態】以下、本発明の好適な実施形態に
ついて図面を参照して説明する。なお、以下では、オブ
ジェクト空間上に複数配置するオブジェクトを「木」と
して図示および説明するが、「木」以外のオブジェクト
に対しても本発明が適用できることは言うまでもない。
また、ゲーム用画像の生成システムに適用した場合を例
に取って説明するが、本発明が適用されるものはこれに
限られるものではない。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings. In the following, a plurality of objects arranged in the object space are illustrated and described as “trees”, but it goes without saying that the present invention can be applied to objects other than “trees”.
Further, a case where the present invention is applied to a game image generation system will be described as an example, but the present invention is not limited to this.

【0028】まず、本発明の原理について説明する。図
1は、本発明の原理を説明するための図である。本発明
においては、まず、オブジェクト空間と、モデル空間と
を用意する。オブジェクト空間は従来のCGにおいて実
現されている、種々のオブジェクトが配置されている地
形等を含む空間のことであり、所与の視点(以下、この
オブジェクト空間における視点をワールド視点とい
う。)からこのオブジェクト空間をレンダリングするこ
とによって、最終的な画像が生成される。モデル空間
は、オブジェクト空間において複数配置しなければなら
ないオブジェクトモデル1つを、所与の視点(以下、こ
のモデル空間における視点をモデル視点という。)から
レンダリングするための空間である。
First, the principle of the present invention will be described. FIG. 1 is a diagram for explaining the principle of the present invention. In the present invention, first, an object space and a model space are prepared. The object space is a space that is realized in a conventional CG and includes a terrain on which various objects are arranged, and from a given viewpoint (hereinafter, a viewpoint in this object space is referred to as a world viewpoint). By rendering the object space, the final image is generated. The model space is a space for rendering one object model that needs to be arranged in the object space from a given viewpoint (hereinafter, a viewpoint in this model space is referred to as a model viewpoint).

【0029】図1(a)は、モデル空間に置かれた
「木」のオブジェクトモデル186aを示す図であり、
図1(b)は、モデル視点120aによって、オブジェ
クトモデル186aをレンダリングした結果が画像14
2aとして得られた状態を示す図である。図1(c)
は、図1(b)の画像142aをテクスチャ134aと
して1つのポリゴンにマッピング・複製し、図中手前の
ワールド視点(不図示)に向けて(以下、このワールド
視点に対するテクスチャの角度をモデル配置角度とい
う。)、オブジェクト空間上に配置した状態を示す図で
ある。
FIG. 1A is a diagram showing a "tree" object model 186a placed in a model space.
FIG. 1B shows an image 14 obtained by rendering the object model 186a using the model viewpoint 120a.
It is a figure which shows the state obtained as 2a. FIG. 1 (c)
Maps and duplicates the image 142a of FIG. 1B as a texture 134a onto one polygon and directs it toward a world viewpoint (not shown) in the front of the figure (hereinafter, the angle of the texture with respect to this world viewpoint is referred to as the model arrangement angle FIG. 2 is a diagram showing a state where the objects are arranged in an object space.

【0030】従って、モデル視点から見たオブジェクト
モデルの画像がテクスチャとされ、その複製がオブジェ
クト空間上に配置(この、テクスチャがオブジェクトモ
デルの代わりに配置される位置を、以下、モデル配置位
置という。)される。このため、オブジェクトモデルが
1000ポリゴンであっても、オブジェクト空間上にお
いては1ポリゴンのテクスチャとして配置されることと
なる。即ち、オブジェクト空間上において、精細なオブ
ジェクトモデルを僅か1ポリゴンで得ることができる。
Therefore, the image of the object model viewed from the model viewpoint is used as a texture, and a copy of the image is placed in the object space. (The position where the texture is placed instead of the object model is hereinafter referred to as a model placement position.) ) Is done. Therefore, even if the object model is 1000 polygons, it is arranged as a texture of one polygon in the object space. That is, a fine object model can be obtained with only one polygon in the object space.

【0031】なお、本実施形態においては、簡明のた
め、モデル画像をテクスチャとしてマッピングしたポリ
ゴンを、単に「テクスチャ」として説明する。
In the present embodiment, for the sake of simplicity, a polygon in which a model image is mapped as a texture will be described simply as a "texture".

【0032】図2に、本実施形態のブロック図の一例を
示す。なお同図において本実施形態は、少なくとも処理
部100を含めばよく(或いは処理部100と情報記憶
媒体180)、それ以外のブロック(例えば操作部16
0、表示部190)については、任意の構成要素とする
ことができる。
FIG. 2 shows an example of a block diagram of the present embodiment. In this figure, the present embodiment only needs to include at least the processing unit 100 (or the processing unit 100 and the information storage medium 180), and the other blocks (for example, the operation unit 16)
0, display unit 190) can be any component.

【0033】ここで処理部100は、システム全体の制
御、システム内の各ブロックへの命令の指示、ゲーム処
理、画像処理、音処理などの各種の処理を行うものであ
り、その機能は、各種プロセッサ(CPU、DSP
等)、或いはASIC(ゲートアレイ等)などのハード
ウェアや、所与のプログラム(ゲームプログラム)によ
り実現できる。
The processing unit 100 performs various processes such as control of the entire system, instruction of instructions to each block in the system, game processing, image processing, and sound processing. Processor (CPU, DSP)
Or an ASIC (gate array or the like) or a given program (game program).

【0034】操作部160は、プレーヤが操作データを
入力するためのものであり、その機能は、レバー、ボタ
ン、筐体などのハードウェアにより実現できる。
The operation section 160 is for the player to input operation data, and its function can be realized by hardware such as a lever, a button, and a housing.

【0035】記憶部170は、処理部100や通信部1
96などのワーク領域となるもので、その機能はRAM
などのハードウェアにより実現できる。
The storage unit 170 stores the processing unit 100 and the communication unit 1
A work area such as 96
It can be realized by hardware such as.

【0036】情報記憶媒体(機械読み取り可能な記憶媒
体)180は、プログラムやデータなどの情報を格納す
るものであり、その機能は、光ディスク(CD、DV
D)、光磁気ディスク(MO)、磁気ディスク、ハード
ディスク、磁気テープ、或いはメモリ(ROM)などの
ハードウェアにより実現できる。処理部100は、この
情報記憶媒体180に格納される情報に基づいて本発明
(本実施形態)の種々の処理を行う。即ち情報記憶媒体
180には、本発明(本実施形態)の手段(特に処理部
100に含まれるブロック)を実行するための情報(プ
ログラム或いはデータ)が格納される。
An information storage medium (machine-readable storage medium) 180 stores information such as programs and data, and functions as an optical disk (CD, DV).
D), a magneto-optical disk (MO), a magnetic disk, a hard disk, a magnetic tape, or hardware such as a memory (ROM). The processing unit 100 performs various processes of the present invention (the present embodiment) based on the information stored in the information storage medium 180. That is, the information storage medium 180 stores information (program or data) for executing the means (particularly, the blocks included in the processing unit 100) of the present invention (the present embodiment).

【0037】なお、情報記憶媒体180に格納される情
報の一部又は全部は、システムへの電源投入時等に記憶
部170に転送されることになる。また情報記憶媒体1
80に記憶される情報は、本発明の処理を行うためのプ
ログラムコード、画像データ、音データ、表示物の形状
データ、テーブルデータ、リストデータ、本発明の処理
を指示するための情報、その指示に従って処理を行うた
めの情報等の少なくとも1つを含むものである。
A part or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the power to the system is turned on. Information storage medium 1
The information stored in 80 is a program code for performing the processing of the present invention, image data, sound data, shape data of a display object, table data, list data, information for instructing the processing of the present invention, and instructions for the processing. The information includes at least one of information for performing processing according to.

【0038】表示部190は、本実施形態により生成さ
れた画像を出力するものであり、その機能は、CRT、
LCD、プラズマディスプレイ、液晶プラズマディスプ
レイ、プロジェクター或いはHMD(ヘッドマウントデ
ィスプレイ)などのハードウェアにより実現できる。
The display section 190 outputs an image generated according to the present embodiment.
It can be realized by hardware such as an LCD, a plasma display, a liquid crystal plasma display, a projector, or an HMD (head mounted display).

【0039】音出力部192は、本実施形態により生成
された音を出力するものであり、その機能は、スピーカ
などのハードウェアにより実現できる。携帯型情報記憶
装置194は、プレーヤの個人データやセーブデータな
どが記憶されるものであり、この携帯型情報記憶装置1
94としては、メモリカードや携帯型ゲーム装置などを
考えることができる。
The sound output section 192 outputs the sound generated according to the present embodiment, and its function can be realized by hardware such as a speaker. The portable information storage device 194 stores a player's personal data, save data, and the like.
As the 94, a memory card, a portable game device, or the like can be considered.

【0040】通信部196は、外部(例えばホスト装置
や他の画像生成システム)との間で通信を行うための各
種の制御を行うものであり、その機能は、各種プロセッ
サ、或いは通信用ASICなどのハードウェアや、プロ
グラムなどにより実現できる。
The communication unit 196 performs various controls for communicating with an external device (for example, a host device or another image generation system), and has a function of various processors or a communication ASIC. Hardware and programs.

【0041】なお本発明(本実施形態)の手段を実行す
るためのプログラム或いはデータは、ホスト装置(サー
バ)が有する情報記憶媒体からネットワーク及び通信部
196を介して情報記憶媒体180に配信するようにし
てもよい。このようなホスト装置(サーバ)の情報記憶
媒体の使用も本発明の範囲内に含まれる。
A program or data for executing the means of the present invention (this embodiment) is distributed from the information storage medium of the host device (server) to the information storage medium 180 via the network and the communication unit 196. It may be. Use of the information storage medium of such a host device (server) is also included in the scope of the present invention.

【0042】処理部100は、ゲーム演算部110と、
画像生成部140と、音生成部150とを含む。
The processing section 100 includes a game operation section 110,
It includes an image generation unit 140 and a sound generation unit 150.

【0043】ゲーム演算部110は、コイン(代価)の
受付処理、各種モードの設定処理、ゲームの進行処理、
選択画面の設定処理、オブジェクトデータ184に基づ
いてオブジェクトの位置や角度を求める処理、オブジェ
クトを動作させる処理、視点の位置や視線角度を求める
処理、オブジェクトをオブジェクト空間へ配置する処
理、ヒットチェック処理、ゲーム結果(得点、成績等)
を演算する処理、複数のプレーヤが共通のゲーム空間で
プレイするための処理、或いはゲームオーバー処理など
の種々のゲーム処理を、操作部160から入力される操
作データや、携帯型情報記憶装置194に格納された個
人データ、保存データ、ゲームプログラム182などに
基づいて行う。
The game calculation unit 110 receives coins (price), sets various modes, progresses the game,
Selection screen setting processing, processing for obtaining the position and angle of an object based on the object data 184, processing for operating the object, processing for obtaining the position and viewpoint of the viewpoint, processing for arranging the object in the object space, hit check processing Game results (scores, grades, etc.)
, A process for a plurality of players to play in a common game space, or various game processes such as a game over process, by using the operation data input from the operation unit 160 or the portable information storage device 194. This is performed based on the stored personal data, stored data, game program 182, and the like.

【0044】またゲーム演算部110は、モデル空間設
定部120と、オブジェクト空間設定部130とを含
む。モデル空間設定部120は、モデルデータ186に
基づいて、オブジェクトモデルと、モデル視点とに基づ
くモデル空間を設定するものであり、オブジェクト空間
におけるワールド視点の視点位置と、視点方向に基づい
て、モデル視点の視点位置、視点方向を変更する。
The game calculation section 110 includes a model space setting section 120 and an object space setting section 130. The model space setting unit 120 sets a model space based on the object model and the model viewpoint based on the model data 186. Based on the viewpoint position of the world viewpoint in the object space and the viewpoint direction, the model space setting unit 120 sets the model viewpoint. Change the viewpoint position and viewpoint direction of.

【0045】オブジェクト空間設定部130は、ワール
ド視点からモデル配置位置までの距離および角度、ワー
ルド視点の視点方向に対するモデル配置角度等を判断す
るモデル位置判断部132と、画像生成部140から入
力される画像をテクスチャとし、ワールド視点に対向す
る向きに、オブジェクトモデルの代わりに当該テクスチ
ャを配置するモデル画像配置部134とを有している。
The object space setting unit 130 is input from the model position determining unit 132 for determining the distance and angle from the world viewpoint to the model arrangement position, the model arrangement angle with respect to the world viewpoint direction, and the like, and the image generation unit 140. It has a model image arranging section 134 for arranging the texture in place of the object model in the direction facing the world viewpoint, using the image as a texture.

【0046】画像生成部140は、ゲーム演算部110
からの指示等にしたがって各種の画像処理を行うもので
あり、モデル空間におけるモデル視点から見える画像を
生成してオブジェクト空間設定部130に出力するモデ
ル画像生成部142と、オブジェクト空間におけるワー
ルド視点から見える画像を生成して、表示部190に出
力するゲーム画像生成部144とを有する。
The image generation section 140 is provided with a game operation section 110
Performs various types of image processing in accordance with instructions from the user, and generates a viewable image from the model viewpoint in the model space and outputs the image to the object space setting unit 130, and a view from the world viewpoint in the object space. A game image generation unit 144 that generates an image and outputs the generated image to the display unit 190.

【0047】ここで、本実施形態の特徴である、モデル
視点がワールド視点と連動して制御される点について図
を参照して説明する。図3は、ゲーム画像が生成される
1フレーム間における画像生成に係る動作を示すフロー
チャートである。
Here, a feature of this embodiment, that the model viewpoint is controlled in conjunction with the world viewpoint, will be described with reference to the drawings. FIG. 3 is a flowchart showing an operation related to image generation during one frame in which a game image is generated.

【0048】まず、オブジェクト空間におけるワールド
視点からモデル配置位置までの距離および角度がモデル
位置判断部132によって判断される(ステップS
1)。次いで、その判断結果に基づいて、モデル空間設
定部120は、モデル空間におけるモデル視点の位置、
視点方向を変更して、モデル空間を設定する(ステップ
S2)。即ち、オブジェクト空間におけるワールド視点
とモデル配置位置との関係を、モデル空間に置き換える
処理を行う。
First, the distance and angle from the world viewpoint to the model arrangement position in the object space are determined by the model position determination unit 132 (step S).
1). Next, based on the determination result, the model space setting unit 120 sets the position of the model viewpoint in the model space,
The model direction is set by changing the viewpoint direction (step S2). That is, a process of replacing the relationship between the world viewpoint and the model arrangement position in the object space with the model space is performed.

【0049】例えば、図4に示すように、オブジェクト
空間において、ワールド視点130aが、モデル配置位
置を中心としてタンブルした場合(位置(A)から位置
(B)へ移動)を考える。この場合、まず、モデル位置
判断部132が、ワールド視点とモデル配置位置との位
置に基づいて、タンブルした角度θを判断する(実際に
は、オブジェクト空間の座標値に基づいて、ワールド視
点からモデル配置位置までの位置方向で求めることがで
きる。)。次いで、モデル空間設定部120は、ワール
ド視点130aがタンブルした角度θと同じ角度だけ、
モデル空間におけるモデル視点をタンブルさせる。図5
は、モデル空間におけるモデル視点120aのタンブル
を示す図である。
For example, as shown in FIG. 4, it is assumed that the world viewpoint 130a tumbles around the model arrangement position (moves from position (A) to position (B)) in the object space. In this case, first, the model position determination unit 132 determines the tumble angle θ based on the position between the world viewpoint and the model arrangement position (actually, based on the coordinate values in the object space, the model is determined from the world viewpoint. It can be obtained in the position direction up to the arrangement position.) Next, the model space setting unit 120 sets the world viewpoint 130a to the same angle as the tumbled angle θ.
Tumble the model viewpoint in the model space. FIG.
Is a diagram showing a tumble of a model viewpoint 120a in a model space.

【0050】次いで、変更されたモデル視点120aに
基づいて、モデル画像生成部142は、オブジェクトモ
デルをレンダリングし、モデル画像を生成する(ステッ
プS3)。ここで、図5において、モデル視点120a
がタンブルしたことにより、レンダリングされて得られ
る画像142aは動的に変化することが分かる。
Next, based on the changed model viewpoint 120a, the model image generator 142 renders the object model and generates a model image (step S3). Here, in FIG.
It can be understood that the image 142a obtained by rendering dynamically changes due to the tumble.

【0051】次いで、生成されたモデル画像がモデル画
像配置部134に出力されると、モデル画像配置部13
4は、モデル画像をテクスチャとして(ステップS
4)、オブジェクト空間上に、ワールド視点に対向する
向きに配置する(ステップS5)。
Next, when the generated model image is output to the model image arranging unit 134, the model image arranging unit 13
4 uses the model image as a texture (step S
4) The object is arranged on the object space in a direction facing the world viewpoint (step S5).

【0052】このため、ゲーム画像生成部144によっ
てゲーム画像が最終的に生成されるが(ステップS
6)、この時の画像において、オブジェクトモデルであ
る「木」は、図6に示すように、横から見た画像として
得られることとなる。
For this reason, the game image is finally generated by the game image generating section 144 (step S).
6) In the image at this time, the "tree" as the object model is obtained as an image viewed from the side as shown in FIG.

【0053】このように、オブジェクト空間において
は、オブジェクトモデルの代わりにテクスチャが配置さ
れることとなるが、ワールド視点に連動してモデル空間
上のモデル視点が変更等されるため、オブジェクト空間
におけるテクスチャには整合性の取れた画像が配置され
ることとなる。
As described above, in the object space, the texture is arranged instead of the object model. However, since the model viewpoint in the model space is changed in conjunction with the world viewpoint, the texture in the object space is changed. Will be arranged with a consistent image.

【0054】なお、ステップS6において、ゲーム画像
生成部144は、ワールド視点とモデル配置位置との距
離に応じて、配置されたテクスチャに対する輝度を変更
することとしてもよい。例えば、ワールド視点に対して
手前のテクスチャに対しては明るく、奥側のテクスチャ
に対しては暗く輝度を変更することにより、遠近感をよ
りリアルに表現することができる。また、当該テクスチ
ャに対して、バンプマッピング等を施すことにより、種
々のライティング(光源)処理を行うこととしてもよ
い。配置されるテクスチャは実際には1つのポリゴンで
あるため、輝度を変更する場合には、テクスチャ全体に
係る輝度が変更されることとなるが、バンプマッピング
を行うことにより、1つのポリゴンではあるものの、光
源を反映したよりリアルな画像を得ることができる。
In step S6, the game image generation unit 144 may change the luminance of the placed texture according to the distance between the world viewpoint and the model placement position. For example, by changing the luminance to be brighter for the texture in front of the world viewpoint and darker for the texture on the far side, the perspective can be expressed more realistically. Various lighting (light source) processing may be performed by performing bump mapping or the like on the texture. Since the texture to be arranged is actually one polygon, when the brightness is changed, the brightness of the entire texture is changed. However, by performing bump mapping, the brightness is changed to one polygon. Thus, a more realistic image reflecting the light source can be obtained.

【0055】また、上述のような手法を試みた場合、以
下の2つの問題が発生する。第1の問題は、モデル配置
位置が複数あった場合に、どのモデル配置位置を基準と
するか、即ち、ワールド視点は、オブジェクト空間上を
移動するわけであるが、どこのモデル配置位置と、ワー
ルド視点との関係を基準として、モデル空間を設定すれ
ばよいか、が問題となる。しかし、ワールド視点から見
える画像が最終的にゲーム画像として生成されることに
鑑みれば、ワールド視点の視野範囲内にあるモデル配置
位置の内、代表点1点を選定し、この代表点とワールド
視点との関係を基準とすることにより、問題は解決す
る。尚、この代表点の選定は、視野範囲内、ワールド視
点から最も遠いモデル配置位置を選定することとしても
よいし、近傍のモデル配置位置を代表点としてもよい。
When the above method is attempted, the following two problems occur. The first problem is that, when there are a plurality of model arrangement positions, which model arrangement position is used as a reference, that is, the world viewpoint moves in the object space. The question is whether to set the model space based on the relationship with the world viewpoint. However, considering that an image viewed from the world viewpoint is finally generated as a game image, one representative point is selected from among the model arrangement positions within the world viewpoint field of view, and this representative point and the world viewpoint are selected. The problem is solved by using the relationship as a reference. Note that the selection of the representative point may be performed by selecting a model arrangement position farthest from the world viewpoint within the visual field range, or a model arrangement position in the vicinity may be set as the representative point.

【0056】第2の問題は、ワールド視点とモデル配置
位置との角度の判断方法によって発生する問題である。
最も顕著に問題が表れる、ワールド視点がパーンした場
合について説明する。図7に示すように、ワールド視点
130aがパーンした場合、パーン前においてはワール
ド視点130aとモデル配置位置とが対向していたが、
パーン後においては視点方向が変わったために、視点方
向とモデル配置位置方向との間に角度差θ1が発生す
る。この角度差θ1に応じて、モデル空間設定部120
が、図5に示すようにモデル視点をタンブルさせてしま
うと、図7のオブジェクト空間における「木」が、ワー
ルド視点130aの位置が変化していないにも関わら
ず、回転する結果となる。
The second problem is a problem generated by the method of determining the angle between the world viewpoint and the model arrangement position.
The following describes a case where the world viewpoint pans, where the problem appears most noticeably. As shown in FIG. 7, when the world viewpoint 130a pans, the world viewpoint 130a and the model arrangement position face each other before the panning.
After the panning, since the viewpoint direction has changed, an angle difference θ1 occurs between the viewpoint direction and the model arrangement position direction. According to the angle difference θ1, the model space setting unit 120
However, if the model viewpoint is tumbled as shown in FIG. 5, the result is that the “tree” in the object space in FIG. 7 rotates even though the position of the world viewpoint 130a has not changed.

【0057】この問題を解決する手段としては、2つの
方法が考えられる。1つは、ワールド視点の視点方向を
基準とするのではなく、オブジェクト空間における座標
系を基準として、ワールド視点と、モデル配置位置との
位置方向に基づいて角度を判断する方法である。この場
合には、ワールド視点の位置が変化しない場合には、モ
デル空間におけるモデル視点も変化しないこととなるた
め、矛盾のない画像を得ることができる。
As means for solving this problem, two methods can be considered. One is a method of determining the angle based on the position direction between the world viewpoint and the model arrangement position, not based on the viewpoint direction of the world viewpoint, but based on a coordinate system in the object space. In this case, if the position of the world viewpoint does not change, the model viewpoint in the model space does not change, so that a consistent image can be obtained.

【0058】もう1つの方法は、モデル空間において、
モデル視点1つからの画像を生成するのではなく、複数
の視点位置から画像を生成しておき、ワールド視点の視
点方向等に応じて、テクスチャとして使用する画像を判
断する方法である。具体的には、図8に示すように、モ
デル空間において、モデル視点120aを所与の位置だ
け上下左右移動し、各位置におけるオブジェクトモデル
186aの画像をレンダリングする。そして、オブジェ
クト空間におけるワールド視点の視点方向が変化した場
合にあっては、レンダリングして得られた複数の画像の
内から、使用する画像を判断する。このことにより、ワ
ールド視点の視点方向が変化した場合であっても、モデ
ルが回転することを防ぐことができる。
Another method is as follows in model space:
Instead of generating an image from one model viewpoint, an image is generated from a plurality of viewpoint positions, and an image to be used as a texture is determined according to the viewpoint direction of the world viewpoint. Specifically, as shown in FIG. 8, the model viewpoint 120a is moved up, down, left, and right by a given position in the model space, and an image of the object model 186a at each position is rendered. Then, when the viewpoint direction of the world viewpoint in the object space changes, an image to be used is determined from among a plurality of images obtained by rendering. Thereby, even if the viewpoint direction of the world viewpoint changes, it is possible to prevent the model from rotating.

【0059】図2において、処理部100のもう1つの
機能部である音生成部150は、ゲーム処理部110か
らの指示等にしたがって各種の音処理を行い、BGM、
効果音、音声などの音を生成し、音出力部192に出力
する。
In FIG. 2, a sound generation unit 150, which is another functional unit of the processing unit 100, performs various types of sound processing according to an instruction from the game processing unit 110, and performs BGM,
A sound such as a sound effect or voice is generated and output to the sound output unit 192.

【0060】上述したゲーム演算部110、画像生成部
140、音生成部150の機能は、その全てをハードウ
ェアにより実現してもよいし、その全てをプログラムに
より実現してもよい。或いは、ハードウェアとプログラ
ムの両方により実現してもよい。
The functions of the game operation unit 110, the image generation unit 140, and the sound generation unit 150 described above may be entirely realized by hardware, or may be entirely realized by a program. Alternatively, it may be realized by both hardware and a program.

【0061】また、本実施形態の画像生成システムは、
1人のプレーヤのみがプレイできるシングルプレーヤモ
ード専用のシステムにしてもよいし、このようなシング
ルプレーヤモードのみならず、複数のプレーヤがプレイ
できるマルチプレーヤモードを備えるシステムにしても
よい。
The image generation system according to the present embodiment
A system dedicated to the single player mode in which only one player can play may be provided, or a system having a multi-player mode in which a plurality of players can play in addition to such a single player mode may be used.

【0062】また複数のプレーヤがプレイする場合に、
これらの複数のプレーヤに提供するゲーム画像やゲーム
音を、1つの端末を用いて生成してもよいし、ネットワ
ーク(伝送ライン、通信回線)などで接続された複数の
端末を用いて生成してもよい。
When a plurality of players play,
The game image and the game sound to be provided to the plurality of players may be generated using one terminal, or may be generated using a plurality of terminals connected by a network (transmission line, communication line) or the like. Is also good.

【0063】次に、本実施形態を実現できるハードウェ
アの構成の一例について図9を用いて説明する。
Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.

【0064】メインプロセッサ900は、CD(DV
D)982(情報記憶媒体)に格納されたプログラム、
通信インターフェース990を介して転送されたプログ
ラム、或いはROM950(情報記憶媒体の1つ)に格
納されたプログラムなどに基づき動作し、ゲーム処理、
画像処理、音処理などの種々の処理を実行する。
The main processor 900 has a CD (DV
D) a program stored in 982 (information storage medium),
It operates based on a program transferred via the communication interface 990 or a program stored in the ROM 950 (one of information storage media), and performs game processing,
Various processes such as image processing and sound processing are executed.

【0065】コプロセッサ902は、メインプロセッサ
900の処理を補助するものであり、高速並列演算が可
能な積和算器や除算器を有し、マトリクス演算(ベクト
ル演算)を高速に実行する。例えば、オブジェクトを移
動させたり、動作させたり(モーション)するための物
理シミュレーションに、マトリクス演算などの処理が必
要な場合には、メインプロセッサ900上で動作するプ
ログラムが、その処理をコプロセッサ902に指示(依
頼)する。
The coprocessor 902 assists the processing of the main processor 900, has a multiply-accumulate unit and a divider capable of high-speed parallel operation, and executes a matrix operation (vector operation) at high speed. For example, when a process such as a matrix operation is required for a physical simulation for moving or moving an object (motion), a program operating on the main processor 900 sends the process to the coprocessor 902. Instruct (request).

【0066】ジオメトリプロセッサ904は、座標変
換、透視変換、光源計算、曲面生成などのジオメトリ処
理を行うものであり、高速並列演算が可能な積和算器や
除算器を有し、マトリクス演算(ベクトル演算)を高速
に実行する。例えば、座標変換、透視変換、光源計算な
どの処理を行う場合には、メインプロセッサ900で動
作するプログラムが、その処理をジオメトリプロセッサ
904に指示する。
The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation. The geometry processor 904 includes a multiply-accumulate unit and a divider capable of high-speed parallel computation, and performs matrix computation (vector computation). Calculation) at high speed. For example, when performing processing such as coordinate transformation, perspective transformation, and light source calculation, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.

【0067】データ伸長プロセッサ906は、圧縮され
た画像データや音データを伸長するデコード処理を行っ
たり、メインプロセッサ900のデコード処理をアクセ
レートする処理を行う。これにより、オープニング画
面、インターミッション画面、エンディング画面、或い
はゲーム画面などにおいて、MPEG方式等で圧縮され
た動画像を表示できるようになる。なお、デコード処理
の対象となる画像データや音データは、ROM950、
CD(DVD)982に格納されたり、或いは通信イン
ターフェース990を介して外部から転送される。
The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data, and performs a process for accelerating the decoding process of the main processor 900. As a result, a moving image compressed by the MPEG method or the like can be displayed on an opening screen, an intermission screen, an ending screen, a game screen, or the like. The image data and sound data to be decoded are stored in the ROM 950,
It is stored in a CD (DVD) 982 or transferred from the outside via a communication interface 990.

【0068】描画プロセッサ910は、ポリゴンや曲面
などのプリミティブ面で構成されるオブジェクトの描画
(レンダリング)処理を高速に実行するものである。オ
ブジェクトの描画の際には、メインプロセッサ900
は、DMAコントローラ970の機能を利用して、オブ
ジェクトデータを描画プロセッサ910に渡すと共に、
必要であればテクスチャ記憶部924にテクスチャを転
送する。すると、描画プロセッサ910は、これらのオ
ブジェクトデータやテクスチャに基づいて、Zバッファ
などを利用した陰面消去を行いながら、オブジェクトを
フレームバッファ922に高速に描画する。また、描画
プロセッサ910は、αブレンディング(半透明処
理)、ミップマッピング、フォグ処理、トライリニア・
フィルタリング、アンチエイリアシング、シェーディン
グ処理なども行うことができる。そして、1フレーム分
の画像がフレームバッファ922に書き込まれると、そ
の画像はディスプレイ912に表示される。
The drawing processor 910 executes a high-speed drawing (rendering) process of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900
Uses the function of the DMA controller 970 to pass object data to the drawing processor 910,
If necessary, the texture is transferred to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and the texture. Further, the drawing processor 910 includes α blending (semi-transparent processing), mip mapping, fog processing, trilinear
Filtering, anti-aliasing, shading, etc. can also be performed. Then, when an image for one frame is written to the frame buffer 922, the image is displayed on the display 912.

【0069】サウンドプロセッサ930は、多チャンネ
ルのADPCM音源などを内蔵し、BGM、効果音、音
声などの高品位のゲーム音を生成する。生成されたゲー
ム音は、スピーカ932から出力される。
The sound processor 930 includes a multi-channel ADPCM sound source and the like, and generates high-quality game sounds such as BGM, sound effects, and voices. The generated game sound is output from the speaker 932.

【0070】ゲームコントローラ942からの操作デー
タや、メモリカード944からのセーブデータ、個人デ
ータは、シリアルインターフェース940を介してデー
タ転送される。
Operation data from the game controller 942, save data and personal data from the memory card 944 are transferred via the serial interface 940.

【0071】ROM950にはシステムプログラムなど
が格納される。なお、業務用ゲームシステムの場合に
は、ROM950が情報記憶媒体として機能し、ROM
950に各種プログラムが格納されることになる。な
お、ROM950の代わりにハードディスクを利用する
ようにしてもよい。RAM960は、各種プロセッサの
作業領域として用いられる。
The ROM 950 stores a system program and the like. In the case of the arcade game system, the ROM 950 functions as an information storage medium,
Various programs are stored in 950. Note that a hard disk may be used instead of the ROM 950. The RAM 960 is used as a work area for various processors.

【0072】DMAコントローラ970は、プロセッ
サ、メモリ(RAM、VRAM、ROM等)間でのDM
A転送を制御するものである。
The DMA controller 970 is provided between the processor and the memory (RAM, VRAM, ROM, etc.).
A transfer is controlled.

【0073】CD・DVDドライブ980は、プログラ
ム、画像データ、或いは音データなどが格納されるCD
(DVD)982(情報記憶媒体)を駆動し、これらの
プログラム、データへのアクセスを可能にする。
The CD / DVD drive 980 is a CD in which programs, image data, sound data, etc. are stored.
(DVD) 982 (information storage medium) to access these programs and data.

【0074】通信インターフェース990は、ネットワ
ークを介して外部との間でデータ転送を行うためのイン
ターフェースである。この場合に、通信インターフェー
ス990に接続されるネットワークとしては、通信回線
(アナログ電話回線、ISDN、ケーブルTV用回
線)、高速シリアルバスなどが考えられる。そして、通
信回線を利用することでインターネットを介したデータ
転送が可能になる。また、高速シリアルバスを利用する
ことで、他の画像生成システム、他のゲームシステムと
の間でのデータ転送が可能になる。
The communication interface 990 is an interface for performing data transfer with the outside via a network. In this case, as a network connected to the communication interface 990, a communication line (an analog telephone line, an ISDN, a cable TV line), a high-speed serial bus, or the like can be considered. Then, data can be transferred via the Internet by using a communication line. Further, by using the high-speed serial bus, data transfer between another image generation system and another game system becomes possible.

【0075】なお、本発明の各手段は、その全てを、ハ
ードウェアのみにより実行することとしてもよいし、情
報記憶媒体に格納されるプログラムや通信インターフェ
ースを介して配信されるプログラムのみにより実行して
もよい。或いは、ハードウェアとプログラムの両方によ
り実行してもよい。
Each of the means of the present invention may be entirely executed by hardware, or executed only by a program stored in an information storage medium or a program distributed via a communication interface. You may. Alternatively, it may be executed by both hardware and a program.

【0076】そして、本発明の各手段をハードウェアと
プログラムの両方により実行する場合には、情報記憶媒
体には、本発明の各手段をハードウェアを利用して実行
するための情報(プログラム、データ)が格納されるこ
とになる。より具体的には、上記プログラムが、ハード
ウェアである各プロセッサ902、904、906、9
10、930等に処理を指示すると共に、必要であれば
データを渡す。そして、各プロセッサ902、904、
906、910、930等は、その指示と渡されたデー
タとに基づいて、本発明の各手段を実行することにな
る。
When each unit of the present invention is executed by both hardware and a program, information (program, program, etc.) for executing each unit of the present invention using hardware is stored in the information storage medium. Data) will be stored. More specifically, the program is executed by each of the processors 902, 904, 906, and 9 as hardware.
The processing is instructed to 10, 930, etc., and data is passed if necessary. Then, each processor 902, 904,
906, 910, 930, etc. execute the respective means of the present invention based on the instruction and the passed data.

【0077】図10(a)に、本実施形態を業務用ゲー
ムシステムに適用した場合の例を示す。プレーヤは、デ
ィスプレイ1100上に映し出されたゲーム画像を見な
がら、レバー1102、ボタン1104等を操作してゲ
ームを楽しむ。内蔵されるシステムボード(サーキット
ボード)1106には、各種プロセッサ、各種メモリな
どが実装される。そして、本発明の各手段を実行するた
めの情報(プログラム、データ)は、システムボード1
106上の情報記憶媒体であるメモリ1108に格納さ
れる。以下、この情報を格納情報と呼ぶ。
FIG. 10A shows an example in which the present embodiment is applied to an arcade game system. The player enjoys the game by operating the lever 1102, the button 1104, and the like while watching the game image projected on the display 1100. Various processors, various memories, and the like are mounted on a built-in system board (circuit board) 1106. The information (program, data) for executing each means of the present invention is stored in the system board 1.
It is stored in a memory 1108 which is an information storage medium on 106. Hereinafter, this information is referred to as storage information.

【0078】図10(b)に、本実施形態を家庭用のゲ
ームシステムに適用した場合の例を示す。プレーヤはデ
ィスプレイ1200に映し出されたゲーム画像を見なが
ら、ゲームコントローラ1202、1204を操作して
ゲームを楽しむ。この場合、上記格納情報は、本体シス
テムに着脱自在な情報記憶媒体であるCD(DVD)1
206、或いはメモリカード1208、1209等に格
納されている。
FIG. 10B shows an example in which the present embodiment is applied to a home game system. The player enjoys the game by operating the game controllers 1202 and 1204 while watching the game image projected on the display 1200. In this case, the stored information is stored in a CD (DVD) 1 which is an information storage medium detachable from the main system.
206 or a memory card 1208, 1209, or the like.

【0079】図10(c)に、ホスト装置1300と、
このホスト装置1300とネットワーク1302(LA
Nのような小規模ネットワークやインターネットのよう
な広域ネットワーク)を介して接続される端末1304
−1〜1304−nとを含むシステムに本実施形態を適
用した場合の例を示す。この場合、上記格納情報は、例
えばホスト装置1300が制御可能な磁気ディスク装
置、磁気テープ装置、メモリ等の情報記憶媒体1306
に格納されている。端末1304−1〜1304−n
が、スタンドアロンでゲーム画像、ゲーム音を生成でき
るものである場合には、ホスト装置1300からは、ゲ
ーム画像、ゲーム音を生成するためのゲームプログラム
などが端末1304−1〜1304−nに配信される。
一方、スタンドアロンで生成できない場合には、ホスト
装置1300がゲーム画像、ゲーム音を生成し、これを
端末1304−1〜1304−nに伝送することにより
端末において出力することとなる。
FIG. 10C shows a host device 1300,
The host device 1300 and the network 1302 (LA
N 1304 connected via a small network such as N or a wide area network such as the Internet).
An example in the case where the present embodiment is applied to a system including -1 to 1304-n will be described. In this case, the stored information is, for example, an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300.
Is stored in Terminals 1304-1 to 1304-n
However, when a game image and a game sound can be generated stand-alone, a game program and the like for generating a game image and a game sound are distributed from the host device 1300 to the terminals 1304-1 to 1304-n. You.
On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, and transmits them to the terminals 1304-1 to 1304-n to output them.

【0080】なお、図10(c)の構成の場合に、本発
明の各手段を、ホスト装置(サーバ)と端末とで分散し
て実行するようにしてもよい。また、本発明の各手段を
実行するための上記格納情報を、ホスト装置(サーバ)
の情報記憶媒体と端末の情報記憶媒体に分散して格納す
るようにしてもよい。
In the case of the configuration shown in FIG. 10C, each means of the present invention may be executed by distributing between a host device (server) and a terminal. Further, the storage information for executing each means of the present invention is stored in a host device (server).
May be stored separately in the information storage medium of the terminal and the information storage medium of the terminal.

【0081】またネットワークに接続する端末は、家庭
用ゲームシステムであってもよいし業務用ゲームシステ
ムであってもよい。そして、業務用ゲームシステムをネ
ットワークに接続する場合には、業務用ゲームシステム
との間で情報のやり取りが可能であると共に家庭用ゲー
ムシステムとの間でも情報のやり取りが可能な携帯型情
報記憶装置(メモリカード、携帯型ゲーム装置)を使用
可能なよう構成してもよい。
The terminal connected to the network may be a home game system or an arcade game system. When the arcade game system is connected to a network, the portable information storage device is capable of exchanging information with the arcade game system and exchanging information with the home game system. (A memory card, a portable game device) may be used.

【0082】なお本発明は、上記実施形態で説明した内
容に限定されるものではなく、種々の変形実施が可能で
ある。例えば、ワールド視点やモデル視点を左右方向へ
移動する場合を主に説明したが、上下方向へ移動する場
合においても、上記手法を適用することが可能である。
The present invention is not limited to the contents described in the above embodiment, and various modifications can be made. For example, the case where the world viewpoint or the model viewpoint is moved in the left-right direction has been mainly described, but the above-described method can be applied to the case where the viewpoint is moved in the up-down direction.

【0083】また、モデル空間をオブジェクト空間とは
別個独立に生成することとして説明したが、オブジェク
ト空間において、モデル空間を設定することとしてもよ
い。即ち、オブジェクト空間上の代表点に、オブジェク
トモデル1つを配置し、ワールド視点から、このオブジ
ェクトモデルのみをレンダリングすることによって、モ
デル画像を得る。そして、代表点以外のモデル配置位置
に、テクスチャ化したモデル画像を配置することとして
もよい。この場合であっても、モデル空間においてモデ
ル視点からレンダリングして得られる画像と同様の画像
を得ることができる。
Further, the model space has been described as being generated independently of the object space. However, the model space may be set in the object space. That is, a model image is obtained by arranging one object model at a representative point in the object space and rendering only this object model from the world viewpoint. Then, a textured model image may be arranged at a model arrangement position other than the representative point. Even in this case, an image similar to the image obtained by rendering from the model viewpoint in the model space can be obtained.

【0084】また、モデル画像をテクスチャとして1つ
のポリゴンにマッピングし、オブジェクト空間上に、当
該テクスチャ(実際には1ポリゴン)を配置することと
して説明したが、マッピングする対象体は、1ポリゴン
からなる平面である必要はない。即ち、図11に示すよ
うに、円筒状の回転体にマッピングし、当該回転体をオ
ブジェクト空間上に配置することとしてもよい。その場
合には、回転体であるため、上述した1ポリゴンからな
る平面に比べて、よりリアルにモデルを表現することが
できる。
In the above description, the model image is mapped to one polygon as a texture, and the texture (actually, one polygon) is arranged in the object space. However, the object to be mapped is composed of one polygon. It need not be flat. That is, as shown in FIG. 11, mapping to a cylindrical rotating body may be performed, and the rotating body may be arranged in the object space. In this case, since the object is a rotating body, the model can be expressed more realistically than the plane formed by one polygon.

【0085】また、モデル空間に、オブジェクト空間と
同じ光源を同じ位置に配置することとしてもよい。その
場合には、オブジェクト空間に実際にオブジェクトモデ
ルを配置した場合と同様の光源に係る効果を得ることが
できる。
Further, the same light source as in the object space may be arranged at the same position in the model space. In that case, it is possible to obtain the same effect on the light source as in the case where the object model is actually arranged in the object space.

【0086】最後に、本発明を適用して得られた実際の
画像を説明する。図12は、モデル空間において、オブ
ジェクトモデルをバイクとし、モデル視点の位置を変化
させることによって得られた画像を示す図であり、
(a)が正面、(b)および(c)が斜め方向からレン
ダリングした画像である。
Finally, an actual image obtained by applying the present invention will be described. FIG. 12 is a diagram showing an image obtained by changing the position of a model viewpoint in a model space, using an object model as a motorcycle,
(A) is an image rendered from the front, and (b) and (c) are images rendered from an oblique direction.

【0087】また、図13は、図12(a)の画像を1
つのポリゴンにマッピングし、オブジェクト空間上のモ
デル配置位置に配置した状態を示す図である。同様に、
図14は図12(b)の画像を、図15は図12(c)
の画像を用いてオブジェクト空間上に当該ポリゴンを配
置した状態を示す図である。このように、本発明を適用
することにより、オブジェクト空間において、1ポリゴ
ンでありながら、精細な画像を得ることが可能となる。
FIG. 13 shows the image of FIG.
FIG. 6 is a diagram showing a state where the polygons are mapped to two polygons and arranged at a model arrangement position in an object space. Similarly,
14 shows the image of FIG. 12B, and FIG. 15 shows the image of FIG.
FIG. 6 is a diagram showing a state where the polygons are arranged on an object space using the image of FIG. As described above, by applying the present invention, it is possible to obtain a fine image in the object space even though it is one polygon.

【0088】[0088]

【発明の効果】本発明によれば、例えば、オブジェクト
モデルが1000ポリゴンからなるモデルであり、仮想
体が1ポリゴンからなる平面である場合、オブジェクト
空間においては、僅か1ポリゴンのデータ容量または1
ポリゴンに係る描画演算処理で、1000ポリゴンのモ
デル画像を得ることができる。したがって、同一のオブ
ジェクトモデルを複数配置する必要のある場合には、こ
の1ポリゴンの平面を配置すればよいため、画像データ
の容量や描画演算処理に係る処理量を大幅に削減するこ
とができる。また、画像データ量の削減に伴って、画像
生成に係る処理を高速化することができる。
According to the present invention, for example, when the object model is a model consisting of 1000 polygons and the virtual body is a plane consisting of one polygon, the data capacity of only one polygon or one
A 1000-polygon model image can be obtained by the drawing calculation process for polygons. Therefore, when it is necessary to arrange a plurality of the same object models, the plane of one polygon may be arranged, so that the capacity of the image data and the processing amount related to the drawing operation can be significantly reduced. Further, with the reduction in the amount of image data, it is possible to speed up the processing related to image generation.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理を説明するための図。FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】本実施形態のブロック図の一例を示す図。FIG. 2 is a diagram showing an example of a block diagram of the embodiment.

【図3】ゲーム画像が生成される1フレーム間における
画像生成に係る動作を示すフローチャート。
FIG. 3 is a flowchart showing an operation related to image generation during one frame in which a game image is generated.

【図4】オブジェクト空間と、モデル空間との関係を説
明するための図。
FIG. 4 is a diagram for explaining a relationship between an object space and a model space.

【図5】オブジェクト空間と、モデル空間との関係を説
明するための図。
FIG. 5 is a diagram for explaining a relationship between an object space and a model space.

【図6】オブジェクト空間と、モデル空間との関係を説
明するための図。
FIG. 6 is a diagram for explaining a relationship between an object space and a model space.

【図7】オブジェクト空間と、モデル空間との関係を説
明するための図。
FIG. 7 is a diagram for explaining a relationship between an object space and a model space.

【図8】モデル空間において、複数の視点から画像を生
成することを説明するための図。
FIG. 8 is a diagram illustrating generation of an image from a plurality of viewpoints in a model space.

【図9】本実施形態を実現できるハードウェア構成の一
例を示す図。
FIG. 9 is a view showing an example of a hardware configuration capable of realizing the embodiment.

【図10】本実施形態が適用される種々の形態のシステ
ムの例を示す図。
FIG. 10 is a diagram showing an example of a system in various modes to which the present embodiment is applied.

【図11】モデル画像をマッピングする仮想体を回転体
とした場合の例を示す図。
FIG. 11 is a diagram illustrating an example in which a virtual body for mapping a model image is a rotating body.

【図12】本発明を適用して得られた実際の画像例を示
す図。
FIG. 12 is a view showing an example of an actual image obtained by applying the present invention.

【図13】本発明を適用して得られた実際の画像例を示
す図。
FIG. 13 is a diagram showing an example of an actual image obtained by applying the present invention.

【図14】本発明を適用して得られた実際の画像例を示
す図。
FIG. 14 is a diagram showing an example of an actual image obtained by applying the present invention.

【図15】本発明を適用して得られた実際の画像例を示
す図。
FIG. 15 is a diagram showing an example of an actual image obtained by applying the present invention.

【符号の説明】[Explanation of symbols]

100 処理部 110 ゲーム演算部 120 モデル空間設定部 130 オブジェクト空間設定部 132 モデル位置判断部 134 モデル画像配置部 140 画像生成部 142 モデル画像生成部 144 ゲーム画像生成部 180 情報記憶媒体 182 ゲームプログラム 184 オブジェクトデータ 186 モデルデータ Reference Signs List 100 processing unit 110 game calculation unit 120 model space setting unit 130 object space setting unit 132 model position determination unit 134 model image placement unit 140 image generation unit 142 model image generation unit 144 game image generation unit 180 information storage medium 182 game program 184 object Data 186 Model data

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】オブジェクト空間内の所与の視点での画像
を生成する画像生成システムであって、 所与のオブジェクトモデルをレンダリングするためのレ
ンダリング手段と、 前記レンダリング手段によるレンダリング結果の画像を
反映させた仮想体を、前記所与のオブジェクトモデルの
代わりに、前記オブジェクト空間内に配置するための配
置手段と、 を備えることを特徴とする画像生成システム。
1. An image generation system for generating an image at a given viewpoint in an object space, comprising: rendering means for rendering a given object model; and reflecting an image of a rendering result by the rendering means. And an arrangement unit for arranging the virtual object in the object space instead of the given object model.
【請求項2】請求項1記載の画像生成システムであっ
て、 前記レンダリング手段は、前記所与の視点の視点位置ま
たは視点方向と、前記仮想体の配置位置とに基づいて、
レンダリングする視点を変更することを特徴とする画像
生成システム。
2. The image generation system according to claim 1, wherein the rendering unit is configured to determine, based on a viewpoint position or a viewpoint direction of the given viewpoint and an arrangement position of the virtual body.
An image generation system characterized by changing a rendering viewpoint.
【請求項3】請求項1または2記載の画像生成システム
であって、 前記配置手段は、前記所与の視点に対する対向面に、前
記レンダリング結果の画像をマッピングすることによ
り、前記仮想体に当該画像を反映させることを特徴とす
る画像生成システム。
3. The image generation system according to claim 1, wherein the arranging unit maps the rendering result image on a surface facing the given viewpoint, thereby mapping the rendering result on the virtual body. An image generation system characterized by reflecting an image.
【請求項4】請求項1または2記載の画像生成システム
であって、 前記仮想体は、回転体であることを特徴とする画像生成
システム。
4. The image generation system according to claim 1, wherein the virtual body is a rotating body.
【請求項5】請求項1から4のいずれか記載の画像生成
システムであって、 前記配置手段は、前記オブジェクト空間における所与の
視点の位置に基づいて、当該所与の視点に対する前記仮
想体の角度を変化させることを特徴とする画像生成シス
テム。
5. The image generation system according to claim 1, wherein the arranging unit is configured to determine the virtual object for the given viewpoint based on a position of the given viewpoint in the object space. An image generation system characterized by changing the angle of the image.
【請求項6】請求項1から5のいずれか記載の画像生成
システムであって、 前記レンダリング手段は、前記所与のオブジェクトモデ
ルを中心とした、角度の異なる視点におけるレンダリン
グを行い、 前記配置手段は、前記レンダリング手段による視点角度
の異なるレンダリング結果の画像の内、前記仮想体に反
映させる画像を、前記オブジェクト空間内における所与
の視点の視点方向と、前記仮想体の配置位置とに基づい
て決定することを特徴とする画像生成システム。
6. The image generation system according to claim 1, wherein said rendering means performs rendering at different viewpoints centered on said given object model, and said arranging means. Of the rendering result images having different viewpoint angles by the rendering means, based on the viewpoint direction of a given viewpoint in the object space and the arrangement position of the virtual body in the object space. An image generation system characterized by determining.
【請求項7】請求項1から6のいずれか記載の画像生成
システムであって、 前記配置手段は、前記仮想体を配置する位置情報に基づ
いて、前記仮想体に反映させる前記レンダリング結果の
画像の輝度を変化させることを特徴とする画像生成シス
テム。
7. The image generation system according to claim 1, wherein the layout unit reflects the rendering result on the virtual body based on positional information for arranging the virtual body. An image generation system characterized by changing the luminance of an image.
【請求項8】請求項7記載の画像生成システムであっ
て、 前記配置手段は、バンプマッピングにより前記レンダリ
ング結果の画像の輝度を変化させることを特徴とする画
像生成システム。
8. The image generating system according to claim 7, wherein said arranging means changes the luminance of the rendered image by bump mapping.
【請求項9】オブジェクト空間内の所与の視点での画像
を生成させるための情報を記憶した情報記憶媒体であっ
て、 所与のオブジェクトモデルに係る情報と、 所与の仮想体に係る情報と、 前記所与のオブジェクトモデルをレンダリングするため
のレンダリング情報と、 前記レンダリング情報によるレンダリング結果の画像を
前記所与の仮想体に反映させるとともに、前記所与のオ
ブジェクトモデルの代わりに、当該仮想体を配置するた
めの配置情報と、 を含むことを特徴とする情報記憶媒体。
9. An information storage medium storing information for generating an image at a given viewpoint in an object space, comprising: information relating to a given object model; and information relating to a given virtual body. And rendering information for rendering the given object model; and an image rendered as a result of the rendering information is reflected on the given virtual body, and instead of the given object model, An information storage medium, comprising: placement information for locating.
【請求項10】請求項9記載の情報記憶媒体であって、 前記レンダリング情報は、前記所与の視点の視点位置ま
たは視点方向と、前記所与の仮想体の配置位置とに基づ
いて、レンダリングする視点を変更するための情報を含
むことを特徴とする情報記憶媒体。
10. The information storage medium according to claim 9, wherein the rendering information is rendered based on a viewpoint position or a viewpoint direction of the given viewpoint and an arrangement position of the given virtual body. An information storage medium including information for changing a viewpoint to be read.
【請求項11】請求項9または10記載の情報記憶媒体
であって、 前記配置情報は、前記所与の視点に対する対向面に、前
記レンダリング結果の画像をマッピングするための情報
を含むことを特徴とする情報記憶媒体。
11. The information storage medium according to claim 9, wherein the arrangement information includes information for mapping the image of the rendering result on a surface facing the given viewpoint. Information storage medium.
JP2000108615A 2000-04-10 2000-04-10 Image generation system and information storage medium Expired - Fee Related JP4413369B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000108615A JP4413369B2 (en) 2000-04-10 2000-04-10 Image generation system and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000108615A JP4413369B2 (en) 2000-04-10 2000-04-10 Image generation system and information storage medium

Publications (2)

Publication Number Publication Date
JP2001291120A true JP2001291120A (en) 2001-10-19
JP4413369B2 JP4413369B2 (en) 2010-02-10

Family

ID=18621421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000108615A Expired - Fee Related JP4413369B2 (en) 2000-04-10 2000-04-10 Image generation system and information storage medium

Country Status (1)

Country Link
JP (1) JP4413369B2 (en)

Also Published As

Publication number Publication date
JP4413369B2 (en) 2010-02-10

Similar Documents

Publication Publication Date Title
JP4527853B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP3249955B2 (en) Image generation system and information storage medium
JP3269814B2 (en) Image generation system and information storage medium
JP2005032140A (en) Image generation system, program, and information storage medium
JP3280355B2 (en) Image generation system and information storage medium
JP3656012B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP3297410B2 (en) Image generation system and information storage medium
JP2006323512A (en) Image generation system, program, and information storage medium
JP2001079261A (en) Image forming system and information recording medium
JP2001325605A (en) Game system and information storage medium
JP2001229403A (en) Game system and information storage medium
JP4528008B2 (en) Program, information storage medium, and image generation system
JP4245356B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4707078B2 (en) Image generation system, program, and information storage medium
JP4187192B2 (en) Image generation system, program, and information storage medium
JP4574058B2 (en) Image generation system, program, and information storage medium
JP4394211B2 (en) Image generation system and information storage medium
JP4704615B2 (en) Image generation system, program, and information storage medium
JP3292713B2 (en) Image generation system and information storage medium
JP3254195B2 (en) Image generation system and information storage medium
JP4592087B2 (en) Image generation system, program, and information storage medium
JP2002092640A (en) Game system and information storage medium
JP4413369B2 (en) Image generation system and information storage medium
JP4632530B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4391633B2 (en) Image generation system and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070409

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070409

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070502

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090519

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091118

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4413369

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131127

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees