JP2001229395A - Game system and information storage medium - Google Patents

Game system and information storage medium

Info

Publication number
JP2001229395A
JP2001229395A JP2000040062A JP2000040062A JP2001229395A JP 2001229395 A JP2001229395 A JP 2001229395A JP 2000040062 A JP2000040062 A JP 2000040062A JP 2000040062 A JP2000040062 A JP 2000040062A JP 2001229395 A JP2001229395 A JP 2001229395A
Authority
JP
Japan
Prior art keywords
processing
rendering
type
information
given
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000040062A
Other languages
Japanese (ja)
Other versions
JP3656012B2 (en
Inventor
Yoichi Mizuno
陽一 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2000040062A priority Critical patent/JP3656012B2/en
Publication of JP2001229395A publication Critical patent/JP2001229395A/en
Application granted granted Critical
Publication of JP3656012B2 publication Critical patent/JP3656012B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a game system which can perform more real rendering expression of a plurality of objects included in a given frame with reduced processing burden and to provide an information storage medium. SOLUTION: In this game system where images are generated, a processing switching part 132 decides the type of each of the plurality of objects arranged in a three-dimensional space according to the distance between a virtual camera and the objects every time these objects are rendered. A geometry operation part 132 performs the geometry operations for executing the rendering processes with different degrees of precision according to the aforementioned types of objects. The contents of at least one of the texture mapping, reflection, shading, light source and semitransparent processes are omitted or simplified to perform the rendering process in response to this process type.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ゲームシステム及
び情報記憶媒体に関する。
[0001] The present invention relates to a game system and an information storage medium.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】従来よ
り、仮想的な3次元空間であるオブジェクト空間内の所
与の視点から見える画像を生成するゲームシステムが知
られており、いわゆる仮想現実を体験できるものとして
人気が高い。
2. Description of the Related Art Conventionally, there has been known a game system for generating an image which can be viewed from a given viewpoint in an object space which is a virtual three-dimensional space. Popular as something you can do.

【0003】さて、このようなゲームシステムでは、プ
レーヤの仮想現実感の向上のために、よりリアルな画像
を生成することが重要な技術的課題になっている。
In such a game system, it is an important technical problem to generate a more realistic image in order to improve the virtual reality of the player.

【0004】ここにおいてシェーディング処理、光源処
理、環境マッピング、マルチテクチャマッピング、半透
明処理、反射処理、オブジェクトの材質や属性や光源の
影響や仮想カメラへ向き等を考慮した処理等の様々なレ
ンダリング手法を駆使することにり、よりリアルな画像
を生成することが可能となる。
Here, various rendering methods such as shading processing, light source processing, environment mapping, multi-texture mapping, translucent processing, reflection processing, processing in consideration of the material and attribute of an object, the influence of a light source, the direction to a virtual camera, and the like are used. By making full use of, it is possible to generate a more realistic image.

【0005】しかしかかる様々なレンダリング処理は一
般に演算量が多いため、オブジェクト数が多くなると、
処理負担の増大を招く原因になる。
However, since such various rendering processes generally require a large amount of calculation, when the number of objects increases,
This causes an increase in processing load.

【0006】従って限られたハード資源でリアルタイム
に画像生成を行うことが要求される家庭用、業務用ゲー
ムシステム等においては、処理負担が増大すると画像生
成が間に合わず、未完成の画像が表示されたり表示抜け
が生じたり等の不具合が発生する恐れがある。
Therefore, in a home-use or arcade game system or the like that requires real-time image generation with limited hardware resources, if the processing load increases, the image generation cannot be completed in time and an unfinished image is displayed. There is a possibility that troubles such as display failure, display omission, etc. may occur.

【0007】ところが不具合の発生を防ぐために前記様
々なレンダリング処理を一律に省略してしまうと、画像
のリアリティを損ねてしまうことになる。そこで、かか
る不具合の発生しない範囲で、可能な限りリアルな画像
を生成することが望まれる。
However, if the above-described various rendering processes are omitted uniformly in order to prevent the occurrence of a problem, the reality of the image is impaired. Therefore, it is desired to generate an image as realistic as possible within a range where such a defect does not occur.

【0008】本発明は、以上のような課題に鑑みてなさ
れたものであり、その目的とするところは、所与のフレ
ーム内の複数のオブジェクトについて少ない処理負担で
よりリアルなレンダリング表現が可能なゲームシステム
及び情報記憶媒体を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to realize a more realistic rendering expression with a small processing load for a plurality of objects in a given frame. It is to provide a game system and an information storage medium.

【0009】[0009]

【課題を解決するための手段】本発明は画像生成を行う
ゲームシステムであって、所与のフレームの画像を生成
する際に、所与の条件に基いて複数の異なるタイプのレ
ンダリング処理から各オブジェクト毎にレンダリング処
理のタイプを選択する手段と、各オブジェクト毎に選択
したタイプに応じたレンダリング処理を施して前記所与
のフレームの画像を生成する手段と、を含むことを特徴
とする。
SUMMARY OF THE INVENTION The present invention is a game system for generating an image, wherein when generating an image of a given frame, a plurality of different types of rendering processes are performed based on given conditions. It is characterized by including means for selecting a type of rendering processing for each object, and means for performing rendering processing according to the type selected for each object to generate an image of the given frame.

【0010】また本発明に係る情報記憶媒体は、コンピ
ュータにより使用可能な情報記憶媒体であって、上記手
段を実行するためのプログラムを含むことを特徴とす
る。また本発明に係るプログラムは、コンピュータによ
り使用可能なプログラム(搬送波に具現化されるプログ
ラムを含む)であって、上記手段を実行するための処理
ルーチンを含むことを特徴とする。
[0010] An information storage medium according to the present invention is an information storage medium usable by a computer, and includes a program for executing the above means. Further, the program according to the present invention is a program usable by a computer (including a program embodied in a carrier wave), and includes a processing routine for executing the above means.

【0011】ここににおいてレンダリング処理のタイプ
とは、施すレンダリング手法の相違によって分けられる
レンダリング形式であり、入力するモデル情報について
はレンダリング処理のタイプと無関係である。またレン
ダリング手法とは例えばテクスチャマッピングの種類や
光源処理や半透明処理や反射処理等の各種レンダリング
手法を意味する。
Here, the type of rendering processing is a rendering format that is divided according to the difference in rendering method to be applied, and the model information to be input is irrelevant to the type of rendering processing. Further, the rendering technique means various types of rendering techniques such as texture mapping types, light source processing, translucent processing, and reflection processing.

【0012】レンダリング処理のタイプによって、生成
される画像の雰囲気やリアリティの度合いや演算負荷等
が異なる。
Depending on the type of rendering processing, the atmosphere of the generated image, the degree of reality, the calculation load, and the like differ.

【0013】本発明によれは、所与の条件に基いて1フ
レーム内でオブジェクト単位でレンダリング処理のタイ
プを選択することが出来る。このため、目的に応じて各
オブジェクト単位に最適なタイプのレンダリング処理を
選択することにより、効率良く所望のレンダリング効果
を得られる画像を生成することが出来る。
According to the present invention, the type of rendering processing can be selected for each object within one frame based on given conditions. Therefore, by selecting an optimal type of rendering processing for each object according to the purpose, it is possible to efficiently generate an image that can obtain a desired rendering effect.

【0014】本発明は、画像生成を行うゲームシステム
であって、3次元空間に配置された複数のオブジェクト
について、所与の条件に基いてオブジェクト毎に当該オ
ブジェクトをレンダリングする際のタイプを決定する手
段と、各オブジェクト毎に決定されたタイプに応じて精
密度の異なるレンダリング処理を施して、前記複数のオ
ブジェクトの画像を生成する手段と、を含むことを特徴
とする。
The present invention is a game system for generating an image, and determines a type of rendering a plurality of objects arranged in a three-dimensional space for each object based on given conditions. Means for performing rendering processing with different degrees of precision according to the type determined for each object to generate images of the plurality of objects.

【0015】また本発明に係る情報記憶媒体は、コンピ
ュータにより使用可能な情報記憶媒体であって、上記手
段を実行するためのプログラムを含むことを特徴とす
る。また本発明に係るプログラムは、コンピュータによ
り使用可能なプログラム(搬送波に具現化されるプログ
ラムを含む)であって、上記手段を実行するための処理
ルーチンを含むことを特徴とする。
Further, an information storage medium according to the present invention is an information storage medium usable by a computer, and includes a program for executing the above means. Further, the program according to the present invention is a program usable by a computer (including a program embodied in a carrier wave), and includes a processing routine for executing the above means.

【0016】ここににおいてレンダリング処理のタイプ
とは、施すレンダリング手法の相違によって分けられる
レンダリング形式であり、入力するモデル情報について
はレンダリング処理のタイプと無関係である。またレン
ダリング手法とは例えばテクスチャマッピングの種類や
光源処理や半透明処理や反射処理等の各種レンダリング
手法を意味する。
Here, the type of the rendering process is a rendering format that is divided according to the difference in the rendering method to be applied, and the model information to be input is irrelevant to the type of the rendering process. Further, the rendering technique means various types of rendering techniques such as texture mapping types, light source processing, translucent processing, and reflection processing.

【0017】レンダリング処理のタイプによって、生成
される画像の雰囲気やリアリティの度合いや演算負荷等
が異なる。
The atmosphere, the degree of reality, the calculation load, and the like of the generated image differ depending on the type of the rendering process.

【0018】一般に精密度とは細部まで巧みに表現され
ているかや注意が細かい点までいきとどいているかの度
合いを表すが、ここでもレンダリング処理が細部まで巧
みに表現されているかや注意が細かい点までいきとどい
ているかという意味で用いている。従って精密度の異な
るレンダリング処理とは、例えば表現のリアル度や詳細
度等が異なるレンダリング処理を意味する。また一般に
精密度が高いほど処理は複雑になるので処理の複雑度が
異なる場合でもよい。
In general, the precision refers to the degree to which the details are skillfully expressed and whether or not attention is kept to a fine point. Here, too, the rendering processing is skillfully expressed to details and the point at which attention is paid to details. I use it in the sense that it keeps going. Therefore, the rendering processing with different degrees of precision means, for example, rendering processing with different degrees of realism and detail of expression. In general, the higher the precision, the more complicated the processing. Therefore, the processing may be different in complexity.

【0019】精密度が低いレンダリング処理とは例えば
テクスチャマッピングの種類や光源処理や半透明処理や
反射処理等の各種レンダリング処理を省略したり、簡略
化したりしてレンダリング処理等であり、省略や簡略か
の程度に応じてレンダリング処理の精密度を判断しても
よい。
The rendering process with low precision is, for example, a rendering process in which various types of rendering processes such as a type of texture mapping, a light source process, a translucent process, and a reflection process are omitted or simplified. The degree of precision of the rendering process may be determined according to the degree.

【0020】本発明によれは、3次元空間に配置された
複数のオブジェクトについて、所与の条件に基いてオブ
ジェクト毎に精密度の異なるレンダリング処理を施すこ
とが出来る。
According to the present invention, a plurality of objects arranged in a three-dimensional space can be subjected to rendering processing with different degrees of precision for each object based on given conditions.

【0021】従って目的に応じてオブジェクト毎に精密
度の異なるレンダリング処理を施すことにより複数のオ
ブジェクトに一律に同じ精密度のレンダリング処理を施
す場合に比べて、少ない演算負荷で効率良く所望の高い
画像を生成することが出来る。
Therefore, by performing rendering processing with different degrees of precision for each object in accordance with the purpose, compared to a case where rendering processing of the same degree of precision is uniformly applied to a plurality of objects, a desired high image can be efficiently obtained with a small calculation load. Can be generated.

【0022】ここにおいて当該オブジェクトをレンダリ
ングする際の精密度は、当該オブジェクトの画像全体の
リアル度に与える影響の大きさに基いて判断することが
好ましい。これにより1フレーム内のオブジェクトにつ
いて、すべて同じ精密度でレンダリング処理を行うので
なく画像全体のリアル度に与える影響の大きいものによ
り高い精密度のレンダリング処理を施し、画像全体のリ
アル度に与える影響の小さいものにより低い精密度のレ
ンダリング処理を施すことができ少ない処理負担でより
リアルな画像を生成することが出来る。
Here, it is preferable to determine the precision at the time of rendering the object based on the magnitude of the effect of the object on the realism of the entire image of the object. As a result, not all objects in one frame are rendered with the same precision, but those that have a large effect on the realism of the entire image are subjected to a high-precision rendering process. Smaller objects can be rendered with lower precision, and a more realistic image can be generated with less processing load.

【0023】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、前記レンダリング処理のタイ
プに応じて、テクスチャマッピング処理、反射処理、シ
ェーディング処理、光源処理、半透明処理の少なくとも
1つの処理を内容を、省略又は簡略化してレンダリング
処理を行うことを特徴とする。
The game system, the information storage medium, and the program according to the present invention include at least one of a texture mapping process, a reflection process, a shading process, a light source process, and a translucent process according to the type of the rendering process. Is omitted or simplified to perform the rendering process.

【0024】ここにおいて光源処理とは光源との位置関
係に基いたシェーディング処理や光の反射を表現する処
理等である。また反射処理とは例えば仮想カメラとプリ
ミティブの位置関係に基いて反射を表現する処理等であ
る。また半透明処理とは、オブジェクトの透けて見える
部分についてアルファマッピング処理等により半透明描
画を行う処理である。
Here, the light source processing includes shading processing based on the positional relationship with the light source, processing for expressing light reflection, and the like. The reflection processing is processing for expressing reflection based on the positional relationship between the virtual camera and the primitive. The translucent process is a process of performing translucent drawing on a transparent part of an object by an alpha mapping process or the like.

【0025】テクスチャマッピング処理には環境マッピ
ングやマルチテクスチャマピング等を含み、テクスチャ
マッピング処理を省略又は簡略化するとは例えばには環
境マッピング処理を省略したり、マルチテクスチャマッ
ピングのマッピング回数を削減したりする場合も含む。
The texture mapping processing includes environment mapping, multi-texture mapping, and the like. To omit or simplify the texture mapping processing includes, for example, omitting the environment mapping processing or reducing the number of times of multi-texture mapping. Includes the case.

【0026】本発明によればレンダリング処理のタイプ
に応じて、テクスチャマッピング処理、反射処理、シェ
ーディング処理、光源処理、半透明処理の少なくとも1
つの処理の内容を、省略又は簡略化してレンダリング処
理を行うことをにより、タイプに応じてレンダリング処
理の精密度を変えたり、処理負荷をかえたりすることが
出来る。
According to the present invention, at least one of texture mapping processing, reflection processing, shading processing, light source processing, and translucent processing is performed according to the type of rendering processing.
By performing the rendering process by omitting or simplifying the contents of the two processes, the precision of the rendering process can be changed or the processing load can be changed depending on the type.

【0027】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、前記オブジェクトの定義点に
与えられているアトリビュートデータを用いてジオメト
リ演算を行い描画時に必要な定義点のアトリビュートデ
ータを生成するジオメトリ演算手段と、前記描画時に必
要な定義点のアトリビュートデータに基いてオブジェク
トの描画を行う描画手段とを含み、前記ジオメトリ演算
手段は、描画時に必要な定義点のアトリビュートデータ
のうち、定義点座標以外のアトリビュートデータを生成
する処理を前記レンダリング処理のタイプに応じて簡略
化してジオメトリ演算を行うことを特徴とする。
A game system, an information storage medium, and a program according to the present invention perform a geometry operation using attribute data given to a definition point of the object to generate attribute data of a definition point required at the time of drawing. Computing means, and a drawing means for drawing an object based on the attribute data of the definition points required at the time of drawing, wherein the geometry calculation means includes, among the attribute data of the definition points required at the time of drawing, other than the definition point coordinates. And a geometric operation is performed by simplifying the process of generating attribute data according to the type of the rendering process.

【0028】ここにおいてオブジェクトの定義点とは、
オブジェクトの形状を定義(特定)するための点であ
り、ポリゴンの頂点や自由曲面の制御点などを含む。
Here, the definition point of the object is
This is a point for defining (specifying) the shape of an object, and includes vertices of a polygon, control points of a free-form surface, and the like.

【0029】またアトリビュートデータとは点、線、面
などのグラフィックプリミティブに関連づけられたプロ
パティのデータであり、レンダリング特性に影響を与え
るものである。例えばオブジェクトの定義点(頂点、制
御点)のアトリビュートデータとしては、色(輝度)、
位置、テクスチャ座標、法線ベクトル、α値、デプスキ
ューイングのバック色がある。
The attribute data is property data associated with graphic primitives such as points, lines, and surfaces, and has an effect on rendering characteristics. For example, attribute data of a definition point (vertex, control point) of an object includes color (luminance),
There are position, texture coordinates, normal vector, α value, and depth queuing background color.

【0030】本発明によれば描画時に必要な定義点のア
トリビュートデータのうち、定義点座標以外のアトリビ
ュートデータを生成する処理を前記レンダリング処理の
タイプに応じて簡略化してジオメトリ演算を行うことに
より、前記レンダリング処理のタイプに応じてジオメト
リ演算の演算負荷を軽減することが出来る。
According to the present invention, among the attribute data of the definition points required at the time of drawing, the process of generating the attribute data other than the definition point coordinates is simplified according to the type of the rendering process, and the geometry calculation is performed. The operation load of the geometry operation can be reduced according to the type of the rendering processing.

【0031】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、前記ジオメトリ演算手段は、
描画時に必要な定義点のアトリビュートデータのうち、
定義点座標以外のアトリビュートデータを生成するため
のアルゴリズムの異なる複数の処理ルーチンを有してお
り、前記レンダリング処理のタイプに応じて所与のルー
チンを選択して演算を実行することを特徴とする。
Further, in the game system, the information storage medium and the program according to the present invention, the geometry calculation means may include:
Of the attribute data of the definition point required at the time of drawing,
It has a plurality of processing routines with different algorithms for generating attribute data other than the definition point coordinates, and performs a calculation by selecting a given routine according to the type of the rendering processing. .

【0032】本発明ではジオメトリ演算をプログラムに
より実行するため、処理ステップ数やデータのアクセス
回数の異なるアルゴリズムの複数の処理ルーチンから、
タイイプに応じて処理ルーチンを選択することによりジ
オメトリ演算の演算負荷を軽減することが出来る。
In the present invention, since the geometry calculation is executed by a program, a plurality of processing routines of an algorithm having different numbers of processing steps and data accesses are used.
By selecting a processing routine according to the type, the calculation load of the geometry calculation can be reduced.

【0033】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、オブジェクトの定義点に与え
られているアトリビュートデータにもとづいてジオメト
リ演算を行い描画時に必要な定義点のアトリビュートデ
ータを生成するジオメトリ演算手段と、前記描画時に必
要な定義点のアトリビュートデータに基き描画処理を行
う描画プロセッサとを含み、前記ジオメトリ演算手段
は、3次元空間のオブジェクトの定義点に与えられてい
る色、輝度、α値、マッピング情報値、法線情報情報の
少なくともひとつのアトリビュートデータを用いて描画
時に必要な定義点のアトリビュートデータを生成する処
理について、実行時ステップ数又は実行時のアクセス回
数の異なる複数の処理ルーチンを有し、前記レンダリン
グ処理のタイプに応じて、前記処理ルーチンを切り替え
て処理を実行することを特徴とする。
The game system, the information storage medium, and the program according to the present invention perform a geometry calculation based on attribute data given to a definition point of an object and generate attribute data of a definition point required at the time of drawing. Means, and a drawing processor for performing a drawing process based on attribute data of a defined point required at the time of drawing, wherein the geometry calculation means includes a color, a luminance, an α value given to a defined point of an object in a three-dimensional space. For the process of generating attribute data of a defined point required at the time of drawing using at least one attribute data of mapping information value and normal line information information, a plurality of processing routines having different execution step numbers or execution access numbers are required. According to the type of the rendering process. Te, and executes the process by switching the processing routine.

【0034】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、前記所与の条件は、オブジェ
クトと仮想カメラの距離に関する条件を含むことを特徴
とする。
In the game system, the information storage medium, and the program according to the present invention, the given condition includes a condition relating to a distance between the object and the virtual camera.

【0035】本発明によれば仮想カメラとオブジェクト
の距離に応じて、レンダリング処理の精密度を変えるこ
とが出来る。
According to the present invention, the precision of the rendering process can be changed according to the distance between the virtual camera and the object.

【0036】ここにおいてオブジェクトが仮想カメラか
ら離れるほど精密度の低いタイプのレンダリング処理を
行うことが好ましい。
Here, it is preferable to perform a type of rendering processing with lower precision as the object moves away from the virtual camera.

【0037】近景に位置するオブジェクトは大きく見え
るため精密度の高いレンダリング手法を用いてリアルに
表現しないと画像のリアルティを低下させることになる
が、遠景に見えるオブジェクトについては小さくしか表
示されないため精密度の低いレンダリング処理をおこな
っても画像全体のリアル度に与える影響は少ない。
Objects located in the foreground appear large, and if they are not realistically represented using a high-precision rendering method, the realism of the image will be reduced. Even if a low rendering process is performed, the effect on the realness of the entire image is small.

【0038】従って本発明によれば仮想カメラから近い
オブジェクトに精密度の高いレンダリング処理を施し、
仮想カメラからはなれたオブジェクトにより精密度の低
いレンダリング処理を施すことで、1フレーム内のオブ
ジェクトについて、すべて同じ精密度でレンダリング処
理を行う場合に比べ少ない処理負担でよりリアルな画像
を生成することが出来る。
Therefore, according to the present invention, an object close to the virtual camera is subjected to highly precise rendering processing,
By performing low-precision rendering processing on an object separated from the virtual camera, it is possible to generate a more realistic image with a smaller processing load for all objects in one frame than when performing rendering processing with the same precision. I can do it.

【0039】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、前記所与の条件は、光源から
オブジェクトが受ける影響の度合いに関する条件を含む
ことを特徴とする。
The game system, the information storage medium, and the program according to the present invention are characterized in that the given condition includes a condition relating to a degree of influence of the light source on the object.

【0040】本発明によれば光源からオブジェクトが受
ける影響の度合いに応じて、レンダリング処理の精密度
を変えることが出来る。
According to the present invention, the precision of the rendering process can be changed in accordance with the degree of the effect of the light source on the object.

【0041】たとえば光源が点光源の場合には光源とオ
ブジェクトとの距離に応じて光源から受ける影響の度合
いがことなるし、光源が平行光源の場合はオブジェクト
と光源の向きに応じて光源から受ける影響の度合いが異
なり、光源の個数によっても光源から受ける影響の度合
いが異なる。
For example, when the light source is a point light source, the degree of influence from the light source depends on the distance between the light source and the object. When the light source is a parallel light source, the effect from the light source depends on the direction of the object and the light source. The degree of influence differs, and the degree of influence from the light source also differs depending on the number of light sources.

【0042】従ってオブジェクトが受けるこれらの影響
の度合いを考慮してレンダリング時の精密度を決定する
ことが好ましい。
Therefore, it is preferable to determine the precision at the time of rendering in consideration of the degree of these effects on the object.

【0043】このように本発明によれば1フレーム内の
オブジェクトについて、光源から受ける影響の度合いが
高いオブジェクトに精密度の高いレンダリング処理を施
し、光源から受ける影響の度合いが低いオブジェクトに
精密度の低いレンダリング処理を施すことですべて、同
じ精密度でレンダリング処理を行う場合に比べ少ない処
理負担でよりリアルな画像を生成することが出来る。
As described above, according to the present invention, with respect to the object within one frame, the object having a high degree of influence from the light source is subjected to the high-precision rendering processing, and the object having a low degree of influence from the light source is subjected to the high precision. By performing a low rendering process, a more realistic image can be generated with a smaller processing load than when rendering is performed with the same precision.

【0044】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、前記所与の条件は、オブジェ
クトと光源と仮想カメラの配置に関する条件を含むこと
を特徴とする。
Further, the game system, the information storage medium and the program according to the present invention are characterized in that the given condition includes a condition relating to an arrangement of an object, a light source and a virtual camera.

【0045】本発明によればオブジェクトと光源と仮想
カメラの配置に応じて、レンダリング処理の精密度を変
えることが出来る。従って仮想カメラに近くて、光が当
っているオブジェクトを高い精密度で表現することが好
ましい。
According to the present invention, the precision of the rendering process can be changed according to the arrangement of the object, the light source, and the virtual camera. Therefore, it is preferable to represent the illuminated object close to the virtual camera with high precision.

【0046】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、前記所与の条件は、同一モデ
ルに基き倍率の違う複数の大きさのオブジェクトを生成
して画像生成を行う場合には、前記倍率に関する条件を
含むことを特徴とする。
The game system, the information storage medium, and the program according to the present invention are arranged so that, when the given condition is to generate an image by generating objects of a plurality of sizes having different magnifications based on the same model, It is characterized by including a condition relating to the magnification.

【0047】本発明によれば同一モデルに基き倍率の違
う複数の大きさのオブジェクトを生成して画像生成を行
う場合には、前記倍率に応じてレンダリング処理の精密
度を変えることが出来る。従って拡大率の高いオブジェ
クトを高い精密度で表現することが好ましい。
According to the present invention, when generating an image by generating objects of a plurality of sizes having different magnifications based on the same model, the precision of the rendering process can be changed according to the magnification. Therefore, it is preferable to express an object having a high magnification with high precision.

【0048】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、ジオメトリ演算を行う際に、
オブジェクトの定義点にアトリビュート情報として与え
られている色情報に基いてジオメトリ処理後のオブジェ
クトの定義点の色情報又は輝度情報を生成する演算処理
を、前記レンダリング処理のタイプに応じて簡略化して
行うことを特徴とする。
Further, the game system, the information storage medium and the program according to the present invention can
An arithmetic process of generating color information or luminance information of a definition point of an object after geometry processing based on color information given as attribute information to the definition point of the object is simplified according to the type of the rendering process. It is characterized by the following.

【0049】テクスチャマッピングを行うときはジオメ
トリ処理後のオブジェクトの定義点の輝度情報となり、
テクスチャマッピングを行わないときはジオメトリ処理
後のオブジェクトの定義点の色情報となる。
When the texture mapping is performed, the brightness information of the definition point of the object after the geometry processing is obtained.
When the texture mapping is not performed, the color information is the definition point of the object after the geometry processing.

【0050】また前記演算処理は、例えば読み込んだ色
情報をそのまま出す場合でもよいし、法線ベクトルや光
線ベクトルに基いた光源処理演算を行って生成した輝度
値を出力する場合でもよい。前記レンダリング処理のタ
イプに応じてこれらを簡略化することが出来る。
The arithmetic processing may be, for example, a case in which the read color information is output as it is, or a case in which a luminance value generated by performing a light source processing operation based on a normal vector or a light vector is output. These can be simplified according to the type of the rendering process.

【0051】また色情報又は輝度情報を生成する演算処
理を簡略化するとは、処理を省略する場合も含み、例え
ばオブジェクトの定義点にアトリビュート情報として与
えられている色情報を読み込まないで固定色情報をジオ
メトリ処理後のオブジェクトの定義点の色情報又は輝度
情報として出力する場合等である。
The simplification of the arithmetic processing for generating the color information or the luminance information includes the case where the processing is omitted. For example, the color information provided as the attribute information at the definition point of the object is not read and the fixed color information is not read. Is output as color information or luminance information of the definition point of the object after the geometry processing.

【0052】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、ジオメトリ演算を行う際に、
オブジェクトの定義点にアトリビュート情報として与え
られている法線ベクトルと仮想カメラの向き及び光線の
向きの少なくとも一方にもとづいて演算される光の反射
具合に応じてジオメトリ処理後の定義点の色情報又は輝
度情報を生成する演算処理を、前記レンダリング処理の
タイプに応じて簡略化して行うことを特徴とする。
Further, the game system, the information storage medium and the program according to the present invention can
The color information of the defined point after the geometry processing according to the normal vector given as attribute information to the defined point of the object and the degree of light reflection calculated based on at least one of the direction of the virtual camera and the direction of the light ray, or The arithmetic processing for generating the luminance information is performed in a simplified manner according to the type of the rendering processing.

【0053】簡略化するとは省略する場合も含む。The simplification includes the case where it is omitted.

【0054】これを簡略化すると視線の向きや光線のむ
きを反映しない陰影付けが施された精密度の低い画像が
生成される。
When this is simplified, an image with low precision, which is shaded and does not reflect the direction of the line of sight or the peeling of light rays, is generated.

【0055】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、ジオメトリ演算を行う際に、
オブジェクトの定義点にアトリビュート情報として与え
られているα値に基いてジオメトリ処理後のオブジェク
トを半透明描画する際に必要なアルファ値を生成する演
算処理を、前記レンダリング処理のタイプに応じて簡略
化して行うことを特徴とする。
The game system, the information storage medium, and the program according to the present invention, when performing a geometry operation,
The arithmetic processing for generating an alpha value necessary for semi-transparently rendering an object after geometry processing based on an α value given as attribute information to a defined point of the object is simplified according to the type of the rendering processing. It is characterized by performing.

【0056】簡略化するとは省略する場合も含む。The simplification includes the case where it is omitted.

【0057】これを簡略化するとオブジェクトの透けて
見えるはずの部分が半透明にならない精密度の低い画像
が生成される。
When this is simplified, a low-precision image in which a portion of the object that should be seen through is not translucent is generated.

【0058】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、前記レンダリング処理のタイ
プに応じて、オブジェクトの環境マッピングを行う処理
を省略してレンダリング処理を行うことを特徴とする。
The game system, the information storage medium, and the program according to the present invention are characterized in that the rendering process is performed by omitting the process of mapping the environment of the object according to the type of the rendering process.

【0059】また本発明に係るゲームシステム、情報記
憶媒体及びプログラムは、前記レンダリング処理のタイ
プに応じて、オブジェクトにテクスチャマッピングを行
う回数を変更してレンダリング処理を行うことを特徴と
する。
Further, the game system, the information storage medium, and the program according to the present invention are characterized in that the rendering process is performed by changing the number of times texture mapping is performed on an object according to the type of the rendering process.

【0060】[0060]

【発明の実施の形態】以下、本発明の好適な実施形態に
ついて図面を用いて説明する。
Preferred embodiments of the present invention will be described below with reference to the drawings.

【0061】1.構成 図1に、本実施形態のブロック図の一例を示す。なお同
図において本実施形態は、少なくとも処理部100を含
めばよく、それ以外のブロックについては、任意の構成
要素とすることができる。
1. Configuration FIG. 1 shows an example of a block diagram of the present embodiment. In this figure, the present embodiment only needs to include at least the processing unit 100, and the other blocks can be optional components.

【0062】ここで処理部100は、システム全体の制
御、システム内の各ブロックへの命令の指示、ゲーム処
理、画像処理、音処理などの各種の処理を行うものであ
り、その機能は、各種プロセッサ(CPU、DSP
等)、或いはASIC(ゲートアレイ等)などのハード
ウェアや、所与のプログラム(ゲームプログラム)によ
り実現できる。
The processing unit 100 performs various processes such as control of the entire system, instruction of commands to each block in the system, game processing, image processing, sound processing, and the like. Processor (CPU, DSP)
Or an ASIC (gate array or the like) or a given program (game program).

【0063】操作部160は、プレーヤが操作データを
入力するためのものであり、その機能は、レバー、ボタ
ン、筺体などのハードウェアにより実現できる。
The operation section 160 is for the player to input operation data, and its function can be realized by hardware such as a lever, a button, and a housing.

【0064】記憶部170は、処理部100や通信部1
96などのワーク領域となるもので、その機能はRAM
などのハードウェアにより実現できる。
The storage unit 170 stores the processing unit 100 and the communication unit 1
A work area such as 96
It can be realized by hardware such as.

【0065】情報記憶媒体(コンピュータにより使用可
能な記憶媒体)180は、プログラムやデータなどの情
報を格納するものであり、その機能は、光ディスク(C
D、DVD)、光磁気ディスク(MO)、磁気ディス
ク、ハードディスク、磁気テープ、或いはメモリ(RO
M)などのハードウェアにより実現できる。処理部10
0は、この情報記憶媒体180に格納される情報に基づ
いて本発明(本実施形態)の種々の処理を行う。即ち情
報記憶媒体180には、本発明(本実施形態)の手段
(特に処理部100に含まれるブロック)を実行するた
めの情報(プログラム或いはデータ)が格納される。
An information storage medium (a storage medium usable by a computer) 180 stores information such as programs and data.
D, DVD), magneto-optical disk (MO), magnetic disk, hard disk, magnetic tape, or memory (RO
M) and the like. Processing unit 10
0 performs various processes of the present invention (the present embodiment) based on the information stored in the information storage medium 180. That is, the information storage medium 180 stores information (program or data) for executing the means (particularly, the blocks included in the processing unit 100) of the present invention (the present embodiment).

【0066】なお、情報記憶媒体180に格納される情
報の一部又は全部は、システムへの電源投入時等に記憶
部170に転送されることになる。また情報記憶媒体1
80に記憶される情報は、本発明の処理を行うためのプ
ログラムコード、画像データ、音データ、表示物の形状
データ、テーブルデータ、リストデータ、本発明の処理
を指示するための情報、その指示に従って処理を行うた
めの情報等の少なくとも1つを含むものである。
A part or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the power to the system is turned on. Information storage medium 1
The information stored in 80 is a program code for performing the processing of the present invention, image data, sound data, shape data of a display object, table data, list data, information for instructing the processing of the present invention, and instructions for the processing. The information includes at least one of information for performing processing according to.

【0067】表示部190は、本実施形態により生成さ
れた画像を出力するものであり、その機能は、CRT、
LCD、或いはHMD(ヘッドマウントディスプレイ)
などのハードウェアにより実現できる。
The display section 190 outputs an image generated according to the present embodiment.
LCD or HMD (Head Mount Display)
It can be realized by hardware such as.

【0068】音出力部192は、本実施形態により生成
された音を出力するものであり、その機能は、スピーカ
などのハードウェアにより実現できる。
The sound output section 192 outputs the sound generated according to the present embodiment, and its function can be realized by hardware such as a speaker.

【0069】セーブ用情報記憶装置194は、プレーヤ
の個人データ(セーブデータ)などが記憶されるもので
あり、このセーブ用情報記憶装置194としては、メモ
リカードや携帯型ゲーム装置などを考えることができ
る。
The save information storage device 194 stores personal data (save data) of the player and the like. The save information storage device 194 may be a memory card, a portable game device, or the like. it can.

【0070】通信部196は、外部(例えばホスト装置
や他のゲームシステム)との間で通信を行うための各種
の制御を行うものであり、その機能は、各種プロセッ
サ、或いは通信用ASICなどのハードウェアや、プロ
グラムなどにより実現できる。
The communication unit 196 performs various controls for communication with the outside (for example, a host device or another game system), and has a function of various processors or an ASIC for communication. This can be realized by hardware, a program, or the like.

【0071】なお本発明(本実施形態)の手段を実行す
るためのプログラム或いはデータは、ホスト装置(サー
バー)が有する情報記憶媒体からネットワーク及び通信
部196を介して情報記憶媒体180に配信するように
してもよい。このようなホスト装置(サーバー)の情報
記憶媒体の使用も本発明の範囲内に含まれる。
A program or data for executing the means of the present invention (this embodiment) is distributed from the information storage medium of the host device (server) to the information storage medium 180 via the network and the communication unit 196. It may be. Use of the information storage medium of such a host device (server) is also included in the scope of the present invention.

【0072】処理部100は、ゲーム処理部110、画
像生成部130、音生成部150を含む。
The processing section 100 includes a game processing section 110, an image generation section 130, and a sound generation section 150.

【0073】ここでゲーム処理部110は、コイン(代
価)の受け付け処理、各種モードの設定処理、ゲームの
進行処理、選択画面の設定処理、オブジェクト(1又は
複数のプリミティブ面)の位置や回転角度(X、Y又は
Z軸回り回転角度)を求める処理、オブジェクトを動作
させる処理(モーション処理)、視点の位置(仮想カメ
ラの位置)や視線角度(仮想カメラの回転角度)を求め
る処理、マップオブジェクトなどのオブジェクトをオブ
ジェクト空間へ配置するための処理、ヒットチェック処
理、ゲーム結果(成果、成績)を演算する処理、複数の
プレーヤが共通のゲーム空間でプレイするための処理、
或いはゲームオーバー処理などの種々のゲーム処理を、
操作部160からの操作データや、セーブ用情報記憶装
置194からの個人データや、ゲームプログラムなどに
基づいて行う。
Here, the game processing section 110 performs processing for accepting coins (price), setting processing for various modes, processing for proceeding with a game, setting processing for a selection screen, position and rotation angle of an object (one or a plurality of primitive surfaces). Processing for calculating (the rotation angle around the X, Y or Z axis), processing for moving the object (motion processing), processing for obtaining the position of the viewpoint (the position of the virtual camera) and the line of sight (the rotation angle of the virtual camera), the map object Processing for arranging objects such as objects in the object space, hit check processing, processing for calculating game results (results, results), processing for playing by a plurality of players in a common game space,
Or various game processing such as game over processing,
This is performed based on operation data from the operation unit 160, personal data from the save information storage device 194, a game program, and the like.

【0074】画像生成部130は、ゲーム処理部110
からの指示等にしたがって各種の画像処理を行い、例え
ばオブジェクト空間内で仮想カメラ(視点)から見える
画像を生成して、表示部190に出力する。また、音生
成部150は、ゲーム処理部110からの指示等にした
がって各種の音処理を行い、BGM、効果音、音声など
の音を生成し、音出力部192に出力する。
The image generation unit 130 includes a game processing unit 110
Performs various image processing in accordance with an instruction from the camera, generates an image that can be viewed from a virtual camera (viewpoint) in the object space, and outputs the generated image to the display unit 190. In addition, the sound generation unit 150 performs various types of sound processing according to instructions from the game processing unit 110 and the like, generates sounds such as BGM, sound effects, and sounds, and outputs the sounds to the sound output unit 192.

【0075】なお、ゲーム処理部110、画像生成部1
30、音生成部150の機能は、その全てをハードウェ
アにより実現してもよいし、その全てをプログラムによ
り実現してもよい。或いは、ハードウェアとプログラム
の両方により実現してもよい。
The game processing section 110 and the image generation section 1
30, all of the functions of the sound generation unit 150 may be realized by hardware, or all of them may be realized by a program. Alternatively, it may be realized by both hardware and a program.

【0076】ゲーム処理部110は、移動・動作演算部
112、視点距離演算部114を含む。
The game processing section 110 includes a movement / motion calculation section 112 and a viewpoint distance calculation section 114.

【0077】ここで移動・動作演算部112は、車など
のオブジェクトの移動情報(位置データ、回転角度デー
タ)や動作情報(オブジェクトの各パーツの位置デー
タ、回転角度データ)を演算するものであり、例えば、
操作部160によりプレーヤが入力した操作データやゲ
ームプログラムなどに基づいて、オブジェクトを移動さ
せたり動作させたりする処理を行う。
Here, the movement / motion calculation unit 112 calculates movement information (position data and rotation angle data) and movement information (position data and rotation angle data of each part of the object) of an object such as a car. For example,
Based on operation data, a game program, and the like input by the player via the operation unit 160, a process of moving or moving an object is performed.

【0078】より具体的には、移動・動作演算部112
は、オブジェクトの位置や回転角度を例えば1フレーム
(1/60秒)毎に求める処理を行う。例えば(k−
1)フレームでのオブジェクトの位置をPMk-1、速度
をVMk-1、加速度をAMk-1、1フレームの時間を△t
とする。するとkフレームでのオブジェクトの位置PM
k、速度VMkは例えば下式(1)、(2)のように求め
られる。
More specifically, the movement / motion calculation unit 112
Performs a process of obtaining the position and rotation angle of the object, for example, for each frame (1/60 second). For example, (k-
1) The position of the object in the frame is PMk-1, the speed is VMk-1, the acceleration is AMk-1, and the time of one frame is Δt.
And Then, the position PM of the object at the k frame
k and the speed VMk are obtained, for example, as in the following equations (1) and (2).

【0079】 PMk=PMk-1+VMk-1×△t (1) VMk=VMk-1+AMk-1×△t (2) 視点距離演算部114は、各オブジェクトと仮想カメラ
との距離を演算する。
PMk = PMk−1 + VMk−1 × Δt (1) VMk = VMk−1 + AMk−1 × Δt (2) The viewpoint distance calculation unit 114 calculates the distance between each object and the virtual camera.

【0080】画像生成部130は、ジオメトリ処理部1
32、描画部140を含む。
The image generation unit 130 includes the geometry processing unit 1
32, and a drawing unit 140.

【0081】ここで、ジオメトリ処理部132は、座標
変換、クリッピング処理、透視変換、或いは光源計算な
どの種々のジオメトリ処理(3次元演算)を行う。そし
て、ジオメトリ処理後(透視変換後)のオブジェクトデ
ータ(オブジェクトの頂点座標などの形状データ、或い
は頂点テクスチャ座標、輝度データ等)は、記憶部17
0のメインメモリ172に保存される。
Here, the geometry processing unit 132 performs various types of geometry processing (three-dimensional operation) such as coordinate transformation, clipping processing, perspective transformation, and light source calculation. Then, the object data (shape data such as vertex coordinates of the object, vertex texture coordinates, luminance data, etc.) after the geometry processing (after the perspective transformation) is stored in the storage unit 17.
0 in the main memory 172.

【0082】ジオメトリ処理部132は処理タイプ選択
部134を含む。処理タイプ選択部134は仮想カメラ
からオブジェクトまでの距離に基き、3次元空間に配置
された複数のオブジェクトについて、オブジェクト毎に
当該オブジェクトをレンダリングする際のタイプを決定
する。
The geometry processing section 132 includes a processing type selection section 134. The processing type selection unit 134 determines, for each of the plurality of objects arranged in the three-dimensional space, the type of rendering the object based on the distance from the virtual camera to the object.

【0083】ジオメトリ演算部132は前記タイプに応
じて精密度の異なるレンダリング処理を施しすためのジ
オメトリ演算を行う。
The geometry calculation unit 132 performs a geometry calculation for performing rendering processing with different degrees of precision depending on the type.

【0084】描画部140は、ジオメトリ処理後のオブ
ジェクト(モデル)を、フレームバッファ174に描画
するための処理を行うものである。
The drawing section 140 performs processing for drawing the object (model) after the geometry processing in the frame buffer 174.

【0085】なお、本実施形態のゲームシステムは、1
人のプレーヤのみがプレイできるシングルプレーヤモー
ド専用のシステムにしてもよいし、このようなシングル
プレーヤモードのみならず、複数のプレーヤがプレイで
きるマルチプレーヤモードも備えるシステムにしてもよ
い。
Note that the game system of the present embodiment
The system may be a system dedicated to the single player mode in which only one player can play, or a system having not only such a single player mode but also a multi-player mode in which a plurality of players can play.

【0086】また複数のプレーヤがプレイする場合に、
これらの複数のプレーヤに提供するゲーム画像やゲーム
音を、1つの端末を用いて生成してもよいし、ネットワ
ーク(伝送ライン、通信回線)などで接続された複数の
端末を用いて生成してもよい。
When a plurality of players play,
The game image and the game sound to be provided to the plurality of players may be generated using one terminal, or may be generated using a plurality of terminals connected by a network (transmission line, communication line) or the like. Is also good.

【0087】2.本実施形態の特徴 以下本実施の形態の特徴について、図面を用いて説明す
る。
2. Features of the present embodiment Features of the present embodiment will be described below with reference to the drawings.

【0088】図2は、水中の魚群の様子を表した画像で
ある。同図に示す魚群のように、多数の魚オブジェクト
が含まれた画像を生成する場合、各魚についてシェーデ
ィング処理、光源処理、環境マッピング、マルチテクチ
ャマッピング、半透明処理、反射処理、オブジェクトの
材質や属性や光源の影響や仮想カメラへ向き等を考慮し
た処理等の様々なレンダリング手法を駆使することに
り、よりリアルな魚の画像を生成することが可能とな
る。
FIG. 2 is an image showing the state of a school of fish in water. When generating an image containing many fish objects like the fish school shown in the figure, shading processing, light source processing, environment mapping, multi-technical mapping, translucent processing, reflection processing, object material By making full use of various rendering methods such as processing considering the influence of attributes and light sources, the direction to the virtual camera, and the like, it is possible to generate a more realistic fish image.

【0089】しかしかかる様々なレンダリング処理は一
般に演算量が多いため、図2に示す魚群のすべての魚に
これを行ったのでは処理負担が著しく増大し、リアルタ
イム画像生成が困難になり、未完成の画像が表示された
り表示抜けが生じたり等の不具合が発生する恐れがあ
る。
However, since such various rendering processes generally require a large amount of calculation, if this process is performed on all fish in the school of fish shown in FIG. 2, the processing load is significantly increased, real-time image generation becomes difficult, and the process is not completed. There is a possibility that problems such as the display of an image or display omission may occur.

【0090】ところが近景に位置する魚は大きく見える
ため精密度の高いタイプのレンダリングっ処理用いてリ
アルに表現しないと画像のリアルティを低下させること
になるが、遠景に見える魚については小さくしか表示さ
れないため精密度の低いタイプのレンダリング処理をも
ちいても画像全体のリアル度に与える影響は少ない。
However, the fish located in the foreground looks large, so if it is not realistically rendered by using a high-precision type of rendering processing, the reality of the image will be reduced. Therefore, even if a low-precision type rendering process is used, the effect on the realism of the entire image is small.

【0091】本実施の形態の特徴は、1フレーム内のオ
ブジェクトについて、すべて同じ精密度でレンダリング
処理を行うのでなく、画像全体のリアル度に与える影響
の大きさに応じてオブジェクト毎にレンダリング処理の
タイプを選択できる点にある。従って画像全体のリアル
度に与える影響の大きいものにより精密度の高いタイプ
のレンダリング処理を施し、画像全体のリアル度に与え
る影響の小さいものに精密度低いタイプのレンダリング
処理を施すことで少ない処理負担でよりリアルな画像を
生成することが出来る。
The feature of the present embodiment is that the rendering process is not performed for all objects in one frame with the same precision, but for each object in accordance with the magnitude of the effect on the realism of the entire image. The point is that you can select the type. Therefore, the processing load is reduced by performing a high-precision type rendering process on an image having a large effect on the realness of the entire image and performing a low-precision type rendering process on a component having a small effect on the reality of the entire image. Can generate a more realistic image.

【0092】以下仮想カメラからの距離に応じて精密度
の異なるタイプのレンダリング処理を施す場合を例にと
り本実施の形態の特徴について説明する。
The features of the present embodiment will be described below by taking, as an example, a case of performing a type of rendering processing with different degrees of precision according to the distance from the virtual camera.

【0093】図3(A)〜(C)は、精密度の異なるタ
イプのレンダリング処理と処理負荷の関係について説明
するための図である。図3(A)〜(C)の310、3
20、330は同一モデルの魚に精密度の異なるタイプ
のレンダリング処理を施した場合の画像を模式的に表し
た物である。
FIGS. 3A to 3C are diagrams for explaining the relationship between rendering processing of different types of precision and processing load. 3 (A) to 3 (C), 3
Reference numerals 20 and 330 schematically depict images obtained by performing different types of rendering processing on fish of the same model.

【0094】図3(A)の310は精密度の高いタイプ
のレンダリング処理によって生成される魚オブジェクト
の画像であり、リアルに見えるような光源、テクスチャ
マッピング処理等が施されているため、処理負荷はおお
きくなる(処理負荷:60)。
Reference numeral 310 in FIG. 3A denotes an image of a fish object generated by a high-precision type rendering process. Since a realistic light source, texture mapping process, and the like are performed, the processing load is increased. (Processing load: 60).

【0095】図3(B)の320は精密度が中くらいの
タイプのレンダリング処理によって生成される魚オブジ
ェクトの画像であり、通常用いられるような光源、テク
スチャマッピング処理等が施されおり、処理負荷は中程
度である(処理負荷:30)。
Reference numeral 320 in FIG. 3B denotes an image of a fish object generated by a rendering process of a medium precision type, which has been subjected to a light source, a texture mapping process, and the like, which are usually used, and has a processing load. Is medium (processing load: 30).

【0096】図3(C)の330は精密度の低いタイプ
のレンダリング処理によって生成される魚オブジェクト
の画像であり、光源、テクスチャマッピング処理等を簡
略化されているため、処理負荷は小さい(処理負荷:1
2)。
Reference numeral 330 in FIG. 3C denotes an image of a fish object generated by a low-precision type rendering process. Since the light source, the texture mapping process, and the like are simplified, the processing load is small. Load: 1
2).

【0097】このように同一モデルの魚オブジェクトに
対して、精密度が高い場合、中くらいの場合、低い場合
の処理負荷の比率は、この例では60:30:12であ
り、レンダリング処理の精密度が高いタイプほど処理負
荷がほど大きくなる。
As described above, the processing load ratio when the precision is high, medium, and low for the fish object of the same model is 60:30:12 in this example. The higher the type, the greater the processing load.

【0098】図4(A)(B)はオブジェクトの仮想カ
メラからの距離とレンダリング処理の精密度との関係に
ついて説明するための図である。
FIGS. 4A and 4B are diagrams for explaining the relationship between the distance of the object from the virtual camera and the precision of the rendering process.

【0099】図4(A)に示すように、本実施の形態で
は精密度の低いタイプのレンダリング処理を施したオブ
ジェクトは遠景(仮想カメラから離れている)用として
用い、精密度が中くらいタイプののレンダリング処理を
施したオブジェクトは中景用として用い、精密度の高い
タイプのレンダリング処理を施したオブジェクトは、近
景(仮想カメラから近い)用として用いる。
As shown in FIG. 4A, in the present embodiment, an object subjected to low-precision type rendering processing is used for a distant view (away from the virtual camera), and a medium-precision type object is used. The object that has been subjected to the rendering processing is used for the middle view, and the object that has been subjected to the high-precision type rendering processing is used for the foreground (close to the virtual camera).

【0100】なお遠景、中景、近景と仮想カメラからの
距離との具体的な関係については、各画像やゲーム毎に
最適な値を設定することが望ましい。
As for the specific relationship between the distant, middle, and near views and the distance from the virtual camera, it is desirable to set an optimal value for each image or game.

【0101】図4(B)は1フレーム内の各魚オブジェ
クトについて視点からの距離に応じて精密度の異なるタ
イプのレンダリング処理を施して生成した画像を模式的
に表したものである。310−1〜310−6は近景に
当るるため精密度の高いタイプのレンダリング処理が施
されており、320−1〜320−4は中景に当るため
精密度が中くらいのタイプのレンダリング処理が施され
ており、320−1〜320−5は遠景に位置するため
精密度の低いタイプのレンダリング処理が施されてい
る。
FIG. 4B schematically shows an image generated by performing a rendering process of a type having a different degree of precision on each fish object in one frame according to the distance from the viewpoint. 310-1 to 310-6 are subjected to a high-precision type rendering process in order to fall into the foreground, and 320-1 to 320-4 are rendered to a medium-precision type rendering process in order to fall into the middle view. , And 320-1 to 320-5 are located in a distant view, so that a low-precision type rendering process is performed.

【0102】このようにすると、画像全体のリアル度に
与える影響の大きいものにより精密度の高いタイプのレ
ンダリング処理を施し、画像全体のリアル度に与える影
響の小さいものに精密度低いタイプのレンダリング処理
を施すことができる。従って、同じ精密度でレンダリン
グ処理を行う場合に近い効果を少ない処理負担で実現す
ることが出来る。
In this manner, a rendering process of a higher precision type is applied to an image which has a greater influence on the realness of the entire image, and a rendering process of a lower precision type is applied to an image having a small effect on the reality of the entire image. Can be applied. Therefore, an effect close to the case of performing the rendering processing with the same precision can be realized with a small processing load.

【0103】図5(A)〜(B)は同じ処理負荷で実現
できる画像例について説明するための図である。
FIGS. 5A and 5B are diagrams for explaining image examples that can be realized with the same processing load.

【0104】図5(A)はすべての魚オブジェクトを精
密度が中くらいのタイプのレンダリング処理を行った場
合に生成される画像を模式的に表した図である。1フレ
ーム内で画像生成可能な処理負荷が240であるとすれ
ば、精密度が中くらいのタイプレンダリング処理の処理
負荷は30であるため、図5(A)に示すように8オブ
ジェクトのみ出力可能となる。
FIG. 5A is a diagram schematically showing an image generated when rendering processing of a medium precision type is performed on all fish objects. Assuming that the processing load capable of generating an image in one frame is 240, the processing load of the medium-precision type rendering processing is 30. Therefore, only eight objects can be output as shown in FIG. Becomes

【0105】図5(B)は仮想カメラから離れた魚オブ
ジェクト320−1〜320−4については精密度の低
いタイプのレンダリング処理を施し、仮想カメラからの
距離が近い又は中くらいの魚オブジェクト330−1〜
330−10には精密度が中くらいのタイプのレンダリ
ング処理を行った場合に生成される画像を模式的に表し
た図である。1フレーム内で画像生成可能な処理負荷が
240であるとすれば、精密度が中くらいのタイプのレ
ンダリング処理、精密度の低いタイプのレンダリング処
理の処理負荷はそれぞれ30、12であるため、図5
(B)に示すように14オブジェクト出力可能となる。
FIG. 5B shows a low-precision type rendering process performed on fish objects 320-1 to 320-4 distant from the virtual camera, and a fish object 330 at a short or medium distance from the virtual camera. -1 to
FIG. 330-10 is a diagram schematically illustrating an image generated when rendering processing of a medium precision type is performed. Assuming that the processing load capable of generating an image in one frame is 240, the processing loads of the medium precision type rendering processing and the low precision type rendering processing are 30 and 12, respectively. 5
As shown in (B), 14 objects can be output.

【0106】このように仮想カメラから離れているもの
を表示するときに精密度の低いタイプのレンダリング処
理を採用することにより処理負荷が軽減するため、一律
に通常の精密度のタイプのレンダリング処理のみで出力
する場合に比べ、出力するオブジェクト数を増やすこと
が出来る。
As described above, the processing load is reduced by employing the low-precision type rendering processing when displaying an object far from the virtual camera, so that only the normal precision-type rendering processing is uniformly performed. The number of objects to be output can be increased as compared with the case of outputting with.

【0107】図5(C)は仮想カメラから近い魚オブジ
ェクト310−1、310−2については精密度の高い
タイプのレンダリング処理を施し、仮想カメラからの距
離が中くらいの魚オブジェクト320−1〜320−4
には精密度が中くらいのタイプのレンダリング処理を行
った場合に生成される画像を模式的に表した図である。
1フレーム内で画像生成可能な処理負荷が240である
とすれば、精密度の高いタイプのレンダリング処理、精
密度が中くらいのタイプのレンダリング処理の処理負荷
はそれぞれ60、30であるため、図5(C)に示すよ
うに出力されるオブジェクト数は少ないがリアルな表現
が可能となる。
FIG. 5C shows a high-precision type rendering process for the fish objects 310-1 and 310-2 that are close to the virtual camera, so that the fish objects 320-1 to 320-1 at an intermediate distance from the virtual camera. 320-4
FIG. 3 is a diagram schematically illustrating an image generated when a rendering process of a medium precision is performed.
Assuming that the processing load capable of generating an image in one frame is 240, the processing loads of the high-precision type rendering processing and the medium-precision type rendering processing are 60 and 30, respectively. Although the number of objects to be output is small as shown in FIG. 5 (C), a realistic expression is possible.

【0108】仮想カメラから近いものをリアルに表示し
たい場合には、近いものに対して精密度の高いタイプの
レンダリング処理を行うことにより、出力されるオブジ
ェクト数は減るがよりリアルな表現が可能となる。
When it is desired to display a close object from the virtual camera in a realistic manner, by performing a high-precision type rendering process on the close object, the number of output objects is reduced, but a more realistic expression is possible. Become.

【0109】次に本実施の形態において、オブジェクト
単位にレンダリング処理のタイプを選択して実行するこ
とにより演算負荷の軽減を実現する具体的な手法につい
て説明する。
Next, in the present embodiment, a specific method for reducing the calculation load by selecting and executing the type of rendering processing for each object will be described.

【0110】図6を用いて本実施の形態において3次元
空間に配置された所与のモデル情報を有するオブジェク
トについてレンダリング処理を行う場合について説明す
る。
A case where rendering processing is performed on an object having given model information arranged in a three-dimensional space in the present embodiment will be described with reference to FIG.

【0111】3次元空間に配置されたオブジェクトにレ
ンダリング処理240を施す際に、本実施の形態ではま
ず所定の情報220、230に基きCPU又は専用のプ
ロセッサでジオメトリ演算プログラムを実行させること
により、ジオメトリ処理250を行う。
When rendering processing 240 is performed on an object arranged in a three-dimensional space, in the present embodiment, a geometry calculation program is first executed by a CPU or a dedicated processor based on predetermined information 220 and 230 to obtain a geometry calculation program. Step 250 is performed.

【0112】ここにおいて220は、当該オブジェクト
の位置座標(a1)とオブジェクトと仮想カメラの距離
(b1)に関する情報であり、CPUによって演算され
る。
Here, 220 is information relating to the position coordinates (a1) of the object and the distance (b1) between the object and the virtual camera, and is calculated by the CPU.

【0113】また230は当該オブジェクトのモデル情
報としてオブジェクトを構成する各頂点に与えられてい
るアトリビュート情報230である。各頂点に与えられ
たアトリビュート情報230は頂点座標値(b1)、頂
点色値(b2)、アルファ・マッピング情報値(b
3)、法線ベクトル値(b4)を含む。
Reference numeral 230 denotes attribute information 230 given to each vertex of the object as model information of the object. The attribute information 230 given to each vertex includes a vertex coordinate value (b1), a vertex color value (b2), and an alpha mapping information value (b
3), including the normal vector value (b4).

【0114】なおここで頂点色値は例えばRGB値で与
えられ、アルファは例えば半透明演算を行う場合に用い
るα値であり、マッピング情報値はUVやSTQ等のテ
クスチャコーディネート値等である。
Here, the vertex color value is given as, for example, an RGB value, alpha is, for example, an α value used when performing a translucency operation, and the mapping information value is a texture coordinate value such as UV or STQ.

【0115】そしてジオメトリ処理の結果、3次元空間
のオブジェクトの各頂点のアトリビュート情報230に
基いて、ジオメトリ処理後にスクリーン座標系に変換さ
れた頂点のアトリビュート情報260が生成される。
As a result of the geometry processing, the vertex attribute information 260 converted into the screen coordinate system after the geometry processing is generated based on the attribute information 230 of each vertex of the object in the three-dimensional space.

【0116】ジオメトリ処理後のアトリビュート情報2
60は、頂点座標・フォグ値(c1)、頂点色・α値
(c2)、テクスチャコーディネイト値(c3)を含
む。ここで頂点座標はスクリーン座標系における頂点座
標であり、フォグ値はデプスキューイング処理を行う際
の奥行き情報により求められる係数等である。また頂点
色はテクスチャマッピングを行う場合は頂点の輝度を表
す情報となり、テクスチャマッピングを行わない場合に
は頂点の色を表す情報となる値である。またα値は半透
明描画等を行う場合に必要な値である。テクスチャコー
ディネイト値は、マッピングするテクスチャのUV値や
STQ値である。
Attribute information 2 after geometry processing
Reference numeral 60 includes a vertex coordinate / fog value (c1), a vertex color / α value (c2), and a texture coordinate value (c3). Here, the vertex coordinates are vertex coordinates in the screen coordinate system, and the fog value is a coefficient or the like obtained from depth information when performing the depth queuing process. The vertex color is information that indicates the luminance of the vertex when texture mapping is performed, and is the value that is the information that indicates the color of the vertex when texture mapping is not performed. The α value is a value necessary for performing translucent drawing or the like. The texture coordinate value is a UV value or STQ value of a texture to be mapped.

【0117】本実施の形態のジオメトリ処理250は、
精密度の異なるレンダリング処理を行うための複数のタ
イプの処理ルーチンを有している。
The geometry processing 250 according to the present embodiment comprises:
It has a plurality of types of processing routines for performing rendering processes with different degrees of precision.

【0118】処理1(252)は遠景用処理ルーティン
であり、当該オブジェクトが仮想カメラから離れている
場合には処理1が実行される。処理2(254)は中景
用処理ルーティンであり、当該オブジェクトが仮想カメ
ラから少し離れている場合には処理2が実行される。処
理3(254)は近景用処理ルーティンであり、当該オ
ブジェクトが仮想カメラから近い場合には処理3が実行
される。
Processing 1 (252) is a distant view processing routine, and processing 1 is executed when the object is away from the virtual camera. Process 2 (254) is a middle view process routine, and if the object is slightly away from the virtual camera, process 2 is executed. Processing 3 (254) is a near-view processing routine, and when the object is close to the virtual camera, processing 3 is executed.

【0119】処理1、処理2、処理3で実行される遠景
用処理ルーチン、中景用処理ルーチン、遠景用処理ルー
チンはいずれもモデル情報として与えられている頂点の
アトリビュート情報230を用いてジオメトリ処理後の
頂点のアトリビュートデータを生成するルーチンである
が、実行時ステップ数又は実行時のアクセス回数を異に
するルーチンである。
The distant view processing routine, the middle view processing routine, and the distant view processing routine executed in the processing 1, the processing 2 and the processing 3 all use the vertex attribute information 230 given as model information to perform the geometry processing. This is a routine for generating the attribute data of the later vertex, but is a routine in which the number of steps at execution or the number of accesses at execution is different.

【0120】精密度の高いレンダリング処理を行うため
のジオメトリ処理後の頂点のアトリビュートデータを生
成するルーチンのほうが実行時ステップ数又は実行時の
アクセス回数が高くなる。従って近景用処理ルーチンの
実行時ステップ数又は実行時のアクセス回数が最も高く
遠景用ルーチンの実行時ステップ数又は実行時のアクセ
ス回数が最も低くなる。
The number of steps at the time of execution or the number of times of access at the time of execution is higher in the routine for generating the attribute data of the vertices after the geometry processing for performing the rendering processing with high precision. Therefore, the number of steps or the number of accesses at the time of execution of the near view processing routine is the highest, and the number of steps at the time of execution of the distant view routine or the number of accesses at the time of execution is lowest.

【0121】本実施の形態では、オブジェクト単位でこ
の処理を選択することが出来る。従って、例えば近景等
のリアルな表現が必要なオブジェクトのみ演算負荷の高
い処理を選択し、遠景等のリアルさが要求されないオブ
ジェクトについては演算負荷の低い処理を選択すること
が出来る。
In this embodiment, this processing can be selected for each object. Therefore, for example, a process with a high calculation load can be selected only for an object that requires a realistic expression such as a near view, and a process with a low calculation load can be selected for an object that does not require realism, such as a distant view.

【0122】このように例えばオブジェクトの仮想カメ
ラとの距離に応じて各処理を使い分けることにより、少
ない演算負荷で最適なレンダリング処理を行うことが出
来る。
As described above, by appropriately using each processing in accordance with, for example, the distance between the object and the virtual camera, it is possible to perform the optimum rendering processing with a small calculation load.

【0123】図7は、各ジオメトリ処理ルーチンのレン
ダリング処理のタイプについて説明するための図であ
る。
FIG. 7 is a diagram for explaining the type of rendering processing in each geometry processing routine.

【0124】処理1は環境マッピングのみを行うタイプ
のレンダリング処理を実行する際のジオメトリ処理ルー
チンである。
Processing 1 is a geometry processing routine for executing a type of rendering processing for performing only environment mapping.

【0125】処理2は環境マッピングと半透明処理と頂
点色(輝度)反映処理を行うタイプのレンダリング処理
を実行する際のジオメトリ処理ルーチンである。
Processing 2 is a geometry processing routine for executing a type of rendering processing of performing environment mapping, translucent processing, and vertex color (luminance) reflection processing.

【0126】処理3は環境マッピングと半透明処理と反
射処理を行うタイプのレンダリング処理を実行する際の
ジオメトリ処理ルーチンである。
Processing 3 is a geometry processing routine for executing a type of rendering processing of performing environment mapping, translucent processing, and reflection processing.

【0127】本実施の形態では環境マッピングとして物
体表面における反射を表現するリフレクションマッピン
グを行う。このような環境マッピングにおいては、物体
の存在する3次元空間に仮想球や仮想円柱を考え、その
内面予め環境テクスチャを貼り付け、オブジェクトの表
面にそのテクスチャが反射しているような表示を行う。
反射方向ベクトルは視点位置(仮想カメラの位置)と物
体表面の点の座標で決まり、この反射方向ベクトルで対
応するテクスチャ座標(テクスチャコーディネート値)
が決定される。
In the present embodiment, reflection mapping expressing reflection on the object surface is performed as environment mapping. In such environment mapping, a virtual sphere or a virtual cylinder is considered in a three-dimensional space where an object exists, an environment texture is pasted on the inner surface thereof, and a display is made such that the texture is reflected on the surface of the object.
The reflection direction vector is determined by the viewpoint position (the position of the virtual camera) and the coordinates of a point on the object surface, and the texture coordinates (texture coordinate value) corresponding to the reflection direction vector
Is determined.

【0128】従ってレンダリング処理として環境マッピ
ングを行う場合には、視点位置(仮想カメラの位置)と
頂点座標に基き、テクスチャコーディネイト値を演算す
る処理が必要となる。
Therefore, when environment mapping is performed as rendering processing, processing for calculating a texture coordinate value based on the viewpoint position (the position of the virtual camera) and the vertex coordinates is required.

【0129】処理1、処理2、処理3のいずれも環境マ
ッピングを行うため、いずれの処理ルーチンも環境マッ
ピングを行うためのテクスチャコーディネイト値の演算
処理が必要となる。
Since all of the processing 1, the processing 2 and the processing 3 perform the environment mapping, all the processing routines require the processing of calculating the texture coordinate value for performing the environment mapping.

【0130】また半透明処理は、例えば魚のひれ等のよ
うに透けて見える部分を半透明に表現するための処理で
ある。具体的には画素単位の描画データを描画する際に
αブレンディング処理を行うこと等により実現される
が、このαブレンディング処理に用いるα値をジオメト
リ処理後の頂点のアトリビュート情報として描画プロセ
ッサに渡してやる処理が必要となる。すなわちモデル情
報として各頂点にセットされたα値をジオメトリ処理後
の頂点のアトリビュート情報にセットする処理が必要と
なる。
The translucent process is a process for translucently expressing a transparent portion such as a fin of a fish. More specifically, this is realized by performing α blending processing when rendering rendering data in pixel units. The α value used for the α blending processing is passed to the rendering processor as attribute information of the vertices after the geometry processing. Processing is required. That is, it is necessary to set the α value set at each vertex as model information in the attribute information of the vertex after the geometry processing.

【0131】処理2、処理3はいずれも半透明処理を行
うため、これらの処理ルーチンはモデル情報として各頂
点にセットされたα値をジオメトリ処理後の頂点のアト
リビュート情報にセットする処理が必要となり、この処
理がない処理1に比べて演算負荷が高くなる。
Since both processes 2 and 3 perform translucent processing, these processing routines need to set the α value set at each vertex as model information in the attribute information of the vertex after the geometry processing. , The computational load is higher than in Process 1 without this process.

【0132】また頂点色(輝度)反映処理は、モデル情
報として各頂点にセットされた頂点色値を反映した画像
を描画する処理で、モデル情報として各頂点にセットさ
れた頂点色値をジオメトリ処理後の頂点のアトリビュー
ト情報にセットする処理が必要となる。
The vertex color (luminance) reflection process is a process of drawing an image reflecting the vertex color value set at each vertex as model information. The vertex color value set at each vertex as model information is subjected to geometry processing. Processing to set the attribute information of the later vertex is required.

【0133】処理2は頂点色(輝度)反映処理を行うた
め、この処理がない処理1に比べて演算負荷が高くな
る。
Since the processing 2 performs the vertex color (luminance) reflection processing, the calculation load is higher than that of the processing 1 without this processing.

【0134】本実施の形態で行う反射処理は仮想カメラ
に対する面の向きに応じた光の反射を表現する処理で、
各面の向きと仮想カメラを向き(視線方向)に基いた反
射演算が必要となる。具体的には各面の向きは頂点の法
線ベクトル値で判断するため、各頂点にモデル情報とし
て与えられた法線ベクトルを読み込んで反射演算を行
い、演算結果をジオメトリ処理後の頂点のアトリビュー
ト情報である頂点色に反映させて出力する必要がある。
The reflection processing performed in the present embodiment is a processing for expressing the reflection of light according to the direction of the surface with respect to the virtual camera.
A reflection calculation based on the direction of each surface and the direction of the virtual camera (viewing direction) is required. Specifically, the orientation of each surface is determined by the normal vector value of the vertex, so the normal vector given as model information is read to each vertex, and the reflection operation is performed. It is necessary to output it by reflecting it on the vertex color which is information.

【0135】この反射処理は演算負荷が高いため、処理
3は処理1及び処理2に比べて演算負荷が高くなる。
Since this reflection processing has a high calculation load, the calculation load of the processing 3 is higher than that of the processing 1 and the processing 2.

【0136】このように本実施の形態ではレンダリング
処理のタイプによって半透明処理や頂点色(輝度)反映
処理や反射処理を省略してすることにより、精密度の異
なるレンダリング処理を実現している。
As described above, in the present embodiment, rendering processing with different precision is realized by omitting translucent processing, vertex color (luminance) reflection processing, and reflection processing depending on the type of rendering processing.

【0137】3.本実施の形態の処理 図8は本実施の形態におけるジオメトリ演算処理の動作
例について説明するためのフローチャート図である。
[0137] 3. FIG. 8 is a flowchart for explaining an operation example of the geometry calculation processing according to the present embodiment.

【0138】本実施の形態では3次元空間に配置された
全オブジェクトについて処理が終了するまでステップS
10〜S70の処理を繰り返している。
In this embodiment, step S is executed until the processing is completed for all the objects arranged in the three-dimensional space.
Steps S10 to S70 are repeated.

【0139】すなわちオブジェクトと仮想カメラの距離
が近い場合には処理3を実行し(ステップS20、S6
0)、オブジェクトと仮想カメラの距離が遠い場合には
処理1を実行し(ステップS30、S40)、オブジェ
クトと仮想カメラの距離が中くらいである場合には処理
2を実行する(ステップS30、S50)。
That is, if the distance between the object and the virtual camera is short, the processing 3 is executed (steps S20 and S6).
0), if the distance between the object and the virtual camera is long, execute processing 1 (steps S30, S40); if the distance between the object and the virtual camera is medium, execute processing 2 (steps S30, S50). ).

【0140】図9は本実施の形態の処理1の動作例につ
いて説明するためのフローチャート図である。
FIG. 9 is a flowchart for explaining an operation example of processing 1 of the present embodiment.

【0141】本実施の形態の処理1では所与のオブジェ
クトの全頂点について処理が終了するまでステップS1
10〜S180の処理を繰り返している。
In process 1 of the present embodiment, step S1 is performed until the process is completed for all vertices of the given object.
Steps S10 to S180 are repeated.

【0142】すなわち、まずモデル情報として各頂点に
与えれたた頂点座標値の読込みを行う(ステップS12
0)。
That is, first, the vertex coordinate value given to each vertex as model information is read (step S12).
0).

【0143】そして前記頂点座標をワールド座標系、視
点座標系、スクリーン座標系に座標変換するためのジオ
メトリ・視野変換・透視投影変換演算処理を行う(ステ
ップS130)。
Then, a geometric / field-of-view transformation / perspective projection transformation operation for transforming the vertex coordinates into a world coordinate system, a viewpoint coordinate system, and a screen coordinate system is performed (step S130).

【0144】次に視点位置(仮想カメラの位置)と頂点
座標に基き反射方向ベクトルを演算し環境マッピングを
行うためのテクスチャコーディネイト値を演算する環境
マッピング演算処理を行う(ステップS140)。
Next, an environment mapping calculation process is performed to calculate a reflection direction vector based on the viewpoint position (the position of the virtual camera) and the vertex coordinates to calculate a texture coordinate value for performing environment mapping (step S140).

【0145】そして演算されたテクスチャコーディネー
ト値をジオメトリ処理後の頂点のアトリビュート情報と
して書きこむ(ステップS150)。
The calculated texture coordinate value is written as vertex attribute information after the geometry processing (step S150).

【0146】次に固定頂点色情報をジオメトリ処理後の
頂点のアトリビュート情報として書きこむ(ステップS
160)。すなわち処理1では頂点色(輝度)反映処理
を行わないため固定値を出力すれば良く、モデル情報と
して与えられた頂点の頂点色を読み込む必要もない。こ
のためアクセス回数及び演算ステップ数が他の処理に比
べて少なくて済む。
Next, the fixed vertex color information is written as the vertex attribute information after the geometry processing (step S).
160). That is, since the vertex color (luminance) reflection process is not performed in process 1, a fixed value may be output, and it is not necessary to read the vertex color of the vertex given as model information. Therefore, the number of accesses and the number of operation steps can be reduced as compared with other processes.

【0147】そしてステップS130の演算結果に従い
演算済頂点座標値をジオメトリ処理後の頂点のアトリビ
ュート情報として書きこむ(ステップS170)。
The calculated vertex coordinate values are written as the vertex attribute information after the geometry processing according to the calculation result of step S130 (step S170).

【0148】図10は本実施の形態の処理2の動作例に
ついて説明するためのフローチャート図である。
FIG. 10 is a flow chart for explaining an operation example of the processing 2 of the present embodiment.

【0149】本実施の形態の処理2では所与のオブジェ
クトの全頂点について処理が終了するまでステップS2
10〜S310の処理を繰り返している。
In process 2 of the present embodiment, step S2 is performed until the process is completed for all vertices of the given object.
Steps S10 to S310 are repeated.

【0150】すなわち、まずモデル情報として各頂点に
与えれたた頂点座標値の読込みを行う(ステップS22
0)。
That is, first, the vertex coordinate value given to each vertex as model information is read (step S22).
0).

【0151】次にモデル情報として各頂点に与えれた頂
点色の読込みを行う(ステップS230)。処理2では
頂点色(輝度)反映処理を行うのでモデル情報として各
頂点に与えれた頂点色の読込みが必要となる。
Next, a vertex color given to each vertex as model information is read (step S230). Since the vertex color (luminance) reflection process is performed in the process 2, it is necessary to read the vertex colors given to each vertex as model information.

【0152】次にモデル情報として各頂点に与えれたア
ルファ・マッピング情報値の読込みを行う(ステップS
240)。処理2では半透明処理を行うのでモデル情報
として各頂点に与えれたアルファ・マッピング情報の読
込みが必要となる。
Next, an alpha mapping information value given to each vertex as model information is read (step S).
240). In process 2, since the translucent process is performed, it is necessary to read alpha mapping information given to each vertex as model information.

【0153】そして前記頂点座標をワールド座標系、視
点座標系、スクリーン座標系に座標変換するためのジオ
メトリ・視野変換・透視投影変換演算処理を行う(ステ
ップS250)。
Then, a geometric / field-of-view transformation / perspective projection transformation operation for transforming the vertex coordinates into a world coordinate system, a viewpoint coordinate system, and a screen coordinate system is performed (step S250).

【0154】次に視点位置(仮想カメラの位置)と頂点
座標に基き反射方向ベクトルを演算し環境マッピングを
行うためのテクスチャコーディネイト値を演算する環境
マッピング演算処理を行う(ステップS260)。
Next, an environment mapping calculation process is performed to calculate a reflection direction vector based on the viewpoint position (the position of the virtual camera) and the vertex coordinates and to calculate a texture coordinate value for environment mapping (step S260).

【0155】次に半透明処理を行うために必要なα値を
演算するアルファマッピング演算処理を行う(ステップ
S270)。
Next, an alpha mapping calculation process for calculating an α value necessary for performing the translucency process is performed (step S270).

【0156】そして演算されたテクスチャコーディネー
ト値をジオメトリ処理後の頂点のアトリビュート情報と
して書きこむ(ステップS280)。
The calculated texture coordinate value is written as vertex attribute information after the geometry processing (step S280).

【0157】次にステップS230で読み込んだ頂点色
をジオメトリ処理後の頂点のアトリビュート情報として
書きこむ(ステップS290)。すなわち処理1では頂
点色(輝度)反映処理を行わないため固定値を出力して
いたが、処理2ではモデル情報として与えられた頂点の
頂点色を出力するため、モデルの頂点色(輝度)を反映
した頂点色情報をジオメトリ処理後の頂点のアトリビュ
ート情報として出力することが出来る。
Next, the vertex color read in step S230 is written as the attribute information of the vertex after the geometry processing (step S290). That is, in process 1, a fixed value is output because the vertex color (luminance) reflection process is not performed, but in process 2, the vertex color (luminance) of the model is output because the vertex color of the vertex given as model information is output. The reflected vertex color information can be output as the vertex attribute information after the geometry processing.

【0158】そしてステップS250の演算結果に従い
演算済頂点座標値をジオメトリ処理後の頂点のアトリビ
ュート情報として書きこむ(ステップS300)。
Then, the calculated vertex coordinate values are written as the vertex attribute information after the geometry processing according to the calculation result of step S250 (step S300).

【0159】図11は本実施の形態の処理3の動作例に
ついて説明するためのフローチャート図である。
FIG. 11 is a flow chart for explaining an operation example of the processing 3 of the present embodiment.

【0160】本実施の形態の処理3では所与のオブジェ
クトの全頂点について処理が終了するまでステップS4
10〜S520の処理を繰り返している。
In the process 3 of the present embodiment, steps S4 and S4 are executed until the process is completed for all vertices of the given object.
Steps S10 to S520 are repeated.

【0161】すなわち、まずモデル情報として各頂点に
与えれたた頂点座標値の読込みを行う(ステップS42
0)。
That is, first, the vertex coordinate value given to each vertex as model information is read (step S42).
0).

【0162】次にモデル情報として各頂点に与えれたア
ルファ・マッピング情報値の読込みを行う(ステップS
430)。処理3では半透明処理を行うのでモデル情報
として各頂点に与えれたアルファ・マッピング情報の読
込みが必要となる。
Next, an alpha mapping information value given to each vertex as model information is read (step S).
430). In the process 3, since the translucent process is performed, it is necessary to read the alpha mapping information given to each vertex as the model information.

【0163】次にモデル情報として各頂点に与えれた法
線ベクトル値の読込みを行う(ステップS440)。処
理3では反射処理を行うのでモデル情報として各頂点に
与えられた法線ベクトル値の読込みが必要となる。
Next, a normal vector value given to each vertex as model information is read (step S440). In the process 3, since the reflection process is performed, it is necessary to read a normal vector value given to each vertex as model information.

【0164】そして前記頂点座標をワールド座標系、視
点座標系、スクリーン座標系に座標変換するためのジオ
メトリ・視野変換・透視投影変換演算処理を行う(ステ
ップS450)。
Then, a geometric / field-of-view transformation / perspective projection transformation operation is performed to transform the vertex coordinates into the world coordinate system, the viewpoint coordinate system, and the screen coordinate system (step S450).

【0165】次に視点位置(仮想カメラの位置)と頂点
座標に基き反射方向ベクトルを演算し環境マッピングを
行うためのテクスチャコーディネイト値を演算する環境
マッピング演算処理を行う(ステップS460)。
Next, an environment mapping calculation process is performed to calculate a reflection direction vector based on the viewpoint position (the position of the virtual camera) and the vertex coordinates and calculate a texture coordinate value for performing environment mapping (step S460).

【0166】次に半透明処理を行うために必要なα値を
演算するアルファマッピング演算処理を行う(ステップ
S470)。
Next, an alpha mapping calculation process for calculating an α value necessary for performing the translucent process is performed (step S470).

【0167】次に仮想カメラに対する面の向きに応じた
光の反射を表現するための反射演算処理を行う(ステッ
プS480)。反射演算処理では読み込んだ頂点の法線
ベクと仮想カメラの向き(視線ベクトル)に基いて光の
反射を演算し演算結果をジオメトリ処理後の頂点のアト
リビュート情報である頂点色に反映させる。この反射処
理は演算負荷が高いため、処理3は処理1及び処理2に
比べて演算負荷が高くなる。
Next, reflection calculation processing for expressing the reflection of light according to the direction of the surface with respect to the virtual camera is performed (step S480). In the reflection calculation processing, light reflection is calculated based on the normal vector of the read vertex and the direction of the virtual camera (line-of-sight vector), and the calculation result is reflected on the vertex color, which is the attribute information of the vertex after the geometry processing. Since the reflection processing has a high calculation load, the calculation load of the processing 3 is higher than that of the processing 1 and the processing 2.

【0168】そして演算されたテクスチャコーディネー
ト値をジオメトリ処理後の頂点のアトリビュート情報と
して書きこむ(ステップS490)。
Then, the calculated texture coordinate value is written as vertex attribute information after the geometry processing (step S490).

【0169】次にステップS480で演算した頂点色を
ジオメトリ処理後の頂点のアトリビュート情報として書
きこむ(ステップS500)。これにより頂点色に仮想
カメラに対する面の向きを反映した輝度値を設定するこ
とが出来る。
Next, the vertex color calculated in step S480 is written as the vertex attribute information after the geometry processing (step S500). As a result, it is possible to set a luminance value reflecting the direction of the surface with respect to the virtual camera in the vertex color.

【0170】そしてステップS450の演算結果に従い
演算済頂点座標値をジオメトリ処理後の頂点のアトリビ
ュート情報として書きこむ(ステップS520)。
The calculated vertex coordinate value is written as the vertex attribute information after the geometry processing according to the calculation result of step S450 (step S520).

【0171】4.ハードウェア構成次に、本実施形態を
実現できるハードウェアの構成の一例について図12を
用いて説明する。
[0171] 4. Hardware Configuration Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.

【0172】メインプロセッサ900は、CD982
(情報記憶媒体)に格納されたプログラム、通信インタ
ーフェース990を介して転送されたプログラム、或い
はROM950(情報記憶媒体の1つ)に格納されたプ
ログラムなどに基づき動作し、ゲーム処理、画像処理、
音処理などの種々の処理を実行する。
The main processor 900 is a CD982
(Information storage medium), a program transferred via the communication interface 990, or a program stored in the ROM 950 (one of the information storage media).
Various processes such as sound processing are executed.

【0173】コプロセッサ902は、メインプロセッサ
900の処理を補助するものであり、高速並列演算が可
能な積和算器や除算器を有し、マトリクス演算(ベクト
ル演算)を高速に実行する。例えば、オブジェクトを移
動させたり動作(モーション)させるための物理シミュ
レーションに、マトリクス演算などの処理が必要な場合
には、メインプロセッサ900上で動作するプログラム
が、その処理をコプロセッサ902に指示(依頼)す
る。
The coprocessor 902 assists the processing of the main processor 900, has a multiply-accumulate unit and a divider capable of high-speed parallel operation, and executes a matrix operation (vector operation) at high speed. For example, when a physical simulation for moving or moving an object requires processing such as matrix operation, a program operating on the main processor 900 instructs the coprocessor 902 to perform the processing (request ).

【0174】ジオメトリプロセッサ904は、座標変
換、透視変換、光源計算、曲面生成などのジオメトリ処
理を行うものであり、高速並列演算が可能な積和算器や
除算器を有し、マトリクス演算(ベクトル演算)を高速
に実行する。例えば、座標変換、透視変換、光源計算な
どの処理を行う場合には、メインプロセッサ900で動
作するプログラムが、その処理をジオメトリプロセッサ
904に指示する。
The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation. The geometry processor 904 includes a multiply-accumulate unit and a divider capable of high-speed parallel computation, and performs matrix computation (vector computation). Calculation) at high speed. For example, when performing processing such as coordinate transformation, perspective transformation, and light source calculation, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.

【0175】データ伸張プロセッサ906は、圧縮され
た画像データや音データを伸張するデコード処理を行っ
たり、メインプロセッサ900のデコード処理をアクセ
レートする処理を行う。これにより、オープニング画
面、インターミッション画面、エンディング画面、或い
はゲーム画面などにおいて、所与の画像圧縮方式で圧縮
された動画像を表示できるようになる。なお、デコード
処理の対象となる画像データや音データは、ROM95
0、CD982に格納されたり、或いは通信インターフ
ェース990を介して外部から転送される。
The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data, and performs a process for accelerating the decoding process of the main processor 900. Thus, a moving image compressed by a given image compression method can be displayed on an opening screen, an intermission screen, an ending screen, a game screen, or the like. The image data and sound data to be decoded are stored in the ROM 95.
0, stored in the CD 982, or transferred from the outside via the communication interface 990.

【0176】描画プロセッサ910は、ポリゴンや曲面
などのプリミティブ面で構成されるオブジェクトの描画
(レンダリング)処理を高速に実行するものである。オ
ブジェクトの描画の際には、メインプロセッサ900
は、DMAコントローラ970の機能を利用して、オブ
ジェクトデータを描画プロセッサ910に渡すと共に、
必要であればテクスチャ記憶部924にテクスチャを転
送する。すると、描画プロセッサ910は、これらのオ
ブジェクトデータやテクスチャに基づいて、Zバッファ
などを利用した陰面消去を行いながら、オブジェクトを
フレームバッファ922に高速に描画する。また、描画
プロセッサ910は、αブレンディング(半透明処
理)、デプスキューイング、ミップマッピング、フォグ
処理、バイリニア・フィルタリング、トライリニア・フ
ィルタリング、アンチエリアシング、シェーディング処
理なども行うことができる。そして、1フレーム分の画
像がフレームバッファ922に書き込まれると、その画
像はディスプレイ912に表示される。
The drawing processor 910 executes a high-speed drawing (rendering) process of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900
Uses the function of the DMA controller 970 to pass object data to the drawing processor 910,
If necessary, the texture is transferred to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and the texture. The drawing processor 910 can also perform α blending (translucent processing), depth queuing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. Then, when an image for one frame is written to the frame buffer 922, the image is displayed on the display 912.

【0177】サウンドプロセッサ930は、多チャンネ
ルのADPCM音源などを内蔵し、BGM、効果音、音
声などの高品位のゲーム音を生成する。生成されたゲー
ム音は、スピーカ932から出力される。
The sound processor 930 includes a multi-channel ADPCM sound source and the like, and generates high-quality game sounds such as BGM, sound effects, and voices. The generated game sound is output from the speaker 932.

【0178】ゲームコントローラ942からの操作デー
タや、メモリカード944からのセーブデータ、個人デ
ータは、シリアルインターフェース940を介してデー
タ転送される。
Operation data from the game controller 942, save data and personal data from the memory card 944 are transferred via the serial interface 940.

【0179】ROM950にはシステムプログラムなど
が格納される。なお、業務用ゲームシステムの場合に
は、ROM950が情報記憶媒体として機能し、ROM
950に各種プログラムが格納されることになる。な
お、ROM950の代わりにハードディスクを利用する
ようにしてもよい。
The ROM 950 stores a system program and the like. In the case of the arcade game system, the ROM 950 functions as an information storage medium,
Various programs are stored in 950. Note that a hard disk may be used instead of the ROM 950.

【0180】RAM960は、各種プロセッサの作業領
域として用いられる。
The RAM 960 is used as a work area for various processors.

【0181】DMAコントローラ970は、プロセッ
サ、メモリ(RAM、VRAM、ROM等)間でのDM
A転送を制御するものである。
The DMA controller 970 is a device for controlling the DM between the processor and the memory (RAM, VRAM, ROM, etc.).
A transfer is controlled.

【0182】CDドライブ980は、プログラム、画像
データ、或いは音データなどが格納されるCD982
(情報記憶媒体)を駆動し、これらのプログラム、デー
タへのアクセスを可能にする。
The CD drive 980 stores a CD 982 in which programs, image data, sound data, and the like are stored.
(Information storage medium) to enable access to these programs and data.

【0183】通信インターフェース990は、ネットワ
ークを介して外部との間でデータ転送を行うためのイン
ターフェースである。この場合に、通信インターフェー
ス990に接続されるネットワークとしては、通信回線
(アナログ電話回線、ISDN)、高速シリアルバスな
どを考えることができる。そして、通信回線を利用する
ことでインターネットを介したデータ転送が可能にな
る。また、高速シリアルバスを利用することで、他のゲ
ームシステム、他のゲームシステムとの間でのデータ転
送が可能になる。
The communication interface 990 is an interface for transferring data to and from the outside via a network. In this case, a network connected to the communication interface 990 may be a communication line (analog telephone line, ISDN), a high-speed serial bus, or the like. Then, data can be transferred via the Internet by using a communication line. Also, by using the high-speed serial bus, data transfer between another game system and another game system becomes possible.

【0184】なお、本発明の各手段は、その全てを、ハ
ードウェアのみにより実行してもよいし、情報記憶媒体
に格納されるプログラムや通信インターフェースを介し
て配信されるプログラムのみにより実行してもよい。或
いは、ハードウェアとプログラムの両方により実行して
もよい。
It is to be noted that each means of the present invention may be entirely executed by hardware only, or executed only by a program stored in an information storage medium or a program distributed via a communication interface. Is also good. Alternatively, it may be executed by both hardware and a program.

【0185】そして、本発明の各手段をハードウェアと
プログラムの両方により実行する場合には、情報記憶媒
体には、本発明の各手段をハードウェアを利用して実行
するためのプログラムが格納されることになる。より具
体的には、上記プログラムが、ハードウェアである各プ
ロセッサ902、904、906、910、930等に
処理を指示すると共に、必要であればデータを渡す。そ
して、各プロセッサ902、904、906、910、
930等は、その指示と渡されたデータとに基づいて、
本発明の各手段を実行することになる。
When each means of the present invention is executed by both hardware and a program, a program for executing each means of the present invention using hardware is stored in the information storage medium. Will be. More specifically, the program instructs the processors 902, 904, 906, 910, 930, etc., which are hardware, to perform processing, and passes data if necessary. Then, each processor 902, 904, 906, 910,
930 etc., based on the instruction and the passed data,
Each means of the present invention will be executed.

【0186】図13(A)に、本実施形態を業務用ゲー
ムシステムに適用した場合の例を示す。プレーヤは、デ
ィスプレイ1100上に映し出されたゲーム画像を見な
がら、レバー1102、ボタン1104等を操作してゲ
ームを楽しむ。内蔵されるシステムボード(サーキット
ボード)1106には、各種プロセッサ、各種メモリな
どが実装される。そして、本発明の各手段を実行するた
めの情報(プログラム又はデータ)は、システムボード
1106上の情報記憶媒体であるメモリ1108に格納
される。以下、この情報を格納情報と呼ぶ。
FIG. 13A shows an example in which the present embodiment is applied to an arcade game system. The player enjoys the game by operating the lever 1102, the button 1104, and the like while watching the game image projected on the display 1100. Various processors, various memories, and the like are mounted on a built-in system board (circuit board) 1106. Information (program or data) for executing each unit of the present invention is stored in a memory 1108 which is an information storage medium on the system board 1106. Hereinafter, this information is referred to as storage information.

【0187】図13(B)に、本実施形態を家庭用のゲ
ームシステムに適用した場合の例を示す。プレーヤはデ
ィスプレイ1200に映し出されたゲーム画像を見なが
ら、ゲームコントローラ1202、1204を操作して
ゲームを楽しむ。この場合、上記格納情報は、本体シス
テムに着脱自在な情報記憶媒体であるCD1206、或
いはメモリカード1208、1209等に格納されてい
る。
FIG. 13B shows an example in which the present embodiment is applied to a home game system. The player enjoys the game by operating the game controllers 1202 and 1204 while watching the game image projected on the display 1200. In this case, the storage information is stored in a CD 1206 or a memory card 1208, 1209, which is an information storage medium detachable from the main system.

【0188】図13(C)に、ホスト装置1300と、
このホスト装置1300とネットワーク1302(LA
Nのような小規模ネットワークや、インターネットのよ
うな広域ネットワーク)を介して接続される端末130
4-1〜1304-nとを含むシステムに本実施形態を適用
した場合の例を示す。この場合、上記格納情報は、例え
ばホスト装置1300が制御可能な磁気ディスク装置、
磁気テープ装置、メモリ等の情報記憶媒体1306に格
納されている。端末1304-1〜1304-nが、スタン
ドアロンでゲーム画像、ゲーム音を生成できるものであ
る場合には、ホスト装置1300からは、ゲーム画像、
ゲーム音を生成するためのゲームプログラム等が端末1
304-1〜1304-nに配送される。一方、スタンドア
ロンで生成できない場合には、ホスト装置1300がゲ
ーム画像、ゲーム音を生成し、これを端末1304-1〜
1304-nに伝送し端末において出力することになる。
FIG. 13C shows a host device 1300,
The host device 1300 and the network 1302 (LA
N or a wide area network such as the Internet).
An example in which the present embodiment is applied to a system including 4-1 to 1304-n will be described. In this case, the storage information is, for example, a magnetic disk device that can be controlled by the host device 1300,
It is stored in an information storage medium 1306 such as a magnetic tape device and a memory. If the terminals 1304-1 to 1304-n are capable of generating a game image and a game sound in a stand-alone manner, the host device 1300 outputs the game image and the game sound.
A game program or the like for generating game sounds is transmitted to the terminal 1.
It is delivered to 304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, and transmits them to the terminals 1304-1 to 1304-1.
1304-n and output at the terminal.

【0189】なお、図13(C)の構成の場合に、本発
明の各手段を、ホスト装置(サーバー)と端末とで分散
して実行するようにしてもよい。また、本発明の各手段
を実行するための上記格納情報を、ホスト装置(サーバ
ー)の情報記憶媒体と端末の情報記憶媒体に分散して格
納するようにしてもよい。
In the case of the configuration shown in FIG. 13C, each means of the present invention may be executed by distributing between a host device (server) and a terminal. Further, the storage information for executing each means of the present invention may be stored separately in an information storage medium of a host device (server) and an information storage medium of a terminal.

【0190】またネットワークに接続する端末は、家庭
用ゲームシステムであってもよいし業務用ゲームシステ
ムであってもよい。そして、業務用ゲームシステムをネ
ットワークに接続する場合には、業務用ゲームシステム
との間で情報のやり取りが可能であると共に家庭用ゲー
ムシステムとの間でも情報のやり取りが可能なセーブ用
情報記憶装置(メモリカード、携帯型ゲーム装置)を用
いることが望ましい。
The terminal connected to the network may be a home game system or an arcade game system. When the arcade game system is connected to a network, a save information storage device capable of exchanging information with the arcade game system and exchanging information with the home game system. (Memory card, portable game device) is desirable.

【0191】なお本発明は、上記実施形態で説明したも
のに限らず、種々の変形実施が可能である。
The present invention is not limited to the embodiment described above, and various modifications can be made.

【0192】例えば、本発明のうち従属請求項に係る発
明においては、従属先の請求項の構成要件の一部を省略
する構成とすることもできる。また、本発明の1の独立
請求項に係る発明の要部を、他の独立請求項に従属させ
ることもできる。
For example, in the invention according to the dependent claims of the present invention, a configuration in which some of the constituent elements of the dependent claims are omitted may be adopted. In addition, a main part of the invention according to one independent claim of the present invention may be made dependent on another independent claim.

【0193】また、上記実施例ではオブジェクトと仮想
カメラの距離に基いてレンダリング処理のタイプを選択
する場合を例にとり説明したがこれに限られない。例え
ば、光源からオブジェクトが受ける影響の度合いに基い
てレンダリング処理のタイプを選択する場合でもよい
し、オブジェクトと光源と仮想カメラの配置に基いてレ
ンダリング処理のタイプを選択する場合でもよいし、同
一モデルに基き倍率の違う複数の大きさのオブジェクト
を生成して画像生成を行う場合には、前記倍率にに基い
てレンダリング処理のタイプを選択する場合でもよい。
In the above embodiment, the case where the type of rendering processing is selected based on the distance between the object and the virtual camera has been described as an example, but the present invention is not limited to this. For example, the type of rendering processing may be selected based on the degree of influence of the light source on the object, or the type of rendering processing may be selected based on the arrangement of the object, the light source, and the virtual camera. When an image is generated by generating objects of a plurality of sizes having different magnifications based on the magnification, a type of the rendering process may be selected based on the magnification.

【0194】また、本発明は種々のゲーム(格闘ゲー
ム、シューティングゲーム、ロボット対戦ゲーム、スポ
ーツゲーム、競争ゲーム、ロールプレイングゲーム、音
楽演奏ゲーム、ダンスゲーム等)に適用できる。
The present invention can be applied to various games (fighting games, shooting games, robot battle games, sports games, competition games, role playing games, music playing games, dance games, etc.).

【0195】また本発明は、業務用ゲームシステム、家
庭用ゲームシステム、多数のプレーヤが参加する大型ア
トラクションシステム、シミュレータ、マルチメディア
端末、ゲーム画像を生成するシステムボード等の種々の
ゲームシステムに適用できる。
The present invention can be applied to various game systems such as arcade game systems, home game systems, large attraction systems in which many players participate, simulators, multimedia terminals, and system boards for generating game images. .

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態のゲームシステムのブロック図の例
である。
FIG. 1 is an example of a block diagram of a game system according to an embodiment.

【図2】水中の魚群の様子を表した画像である。FIG. 2 is an image showing a state of a school of fish in water.

【図3】図3(A)〜(C)は、精密度の異なるレンダ
リング処理と処理負荷の関係について説明するための図
である。
FIGS. 3A to 3C are diagrams for explaining a relationship between rendering processing with different degrees of precision and a processing load; FIG.

【図4】図4(A)(B)はオブジェクトの仮想カメラ
からの距離とレンダリング処理の精密との関係について
説明するための図である。
FIGS. 4A and 4B are diagrams for explaining the relationship between the distance of an object from a virtual camera and the precision of rendering processing.

【図5】図5(A)〜(B)は同じ処理負荷で実現でき
る画像例について説明するための図である。
FIGS. 5A and 5B are diagrams for explaining an image example that can be realized with the same processing load.

【図6】本実施の形態において3次元空間に配置された
所与のモデル情報を有するオブジェクトについてレンダ
リング処理を行う場合について説明するための図であ
る。
FIG. 6 is a diagram for describing a case where rendering processing is performed on an object having given model information arranged in a three-dimensional space in the present embodiment.

【図7】各ジオメトリ処理ルーチンのレンダリング処理
のタイプについて説明するための図である。
FIG. 7 is a diagram for describing a type of rendering processing of each geometry processing routine.

【図8】本実施の形態におけるジオメトリ演算処理の動
作例について説明するためのフローチャート図である。
FIG. 8 is a flowchart illustrating an operation example of a geometry calculation process according to the present embodiment.

【図9】本実施の形態の処理1の動作例について説明す
るためのフローチャート図である。
FIG. 9 is a flowchart for explaining an operation example of processing 1 of the present embodiment.

【図10】本実施の形態の処理2の動作例について説明
するためのフローチャート図である。
FIG. 10 is a flowchart for explaining an operation example of Process 2 of the present embodiment.

【図11】本実施の形態の処理3の動作例について説明
するためのフローチャート図である。
FIG. 11 is a flowchart for explaining an operation example of processing 3 of the present embodiment.

【図12】本実施形態を実現できるハードウェアの構成
の一例を示す図である。
FIG. 12 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.

【図13】図13(A)、(B)、(C)は、本実施形
態が適用される種々の形態のシステムの例を示す図であ
る。
FIGS. 13A, 13B, and 13C are diagrams showing examples of various types of systems to which the present embodiment is applied;

【符号の説明】[Explanation of symbols]

100 処理部 110 ゲーム処理部 112 移動・動作演算部 114 視点距離演算部 130 画像生成部 132 ジオメトリ処理部 134 処理タイプ選択部 140 描画部 150 音生成部 160 操作部 170 記憶部 172 メインメモリ 174 フレームバッファ 180 情報記憶媒体 190 表示部 192 音出力部 194 セーブ用情報記憶装置 196 通信部 Reference Signs List 100 processing unit 110 game processing unit 112 movement / motion calculation unit 114 viewpoint distance calculation unit 130 image generation unit 132 geometry processing unit 134 processing type selection unit 140 drawing unit 150 sound generation unit 160 operation unit 170 storage unit 172 main memory 174 frame buffer 180 information storage medium 190 display unit 192 sound output unit 194 save information storage device 196 communication unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C001 BA00 BA05 BA06 BC00 BC05 BC06 BD05 CA01 CA05 CB01 CB06 CC02 CC03 CC08 5B050 BA07 BA08 BA09 CA07 EA24 EA30 FA02 5B080 AA13 FA03 FA17 GA11 GA22 9A001 HH29 HH32 JJ76  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2C001 BA00 BA05 BA06 BC00 BC05 BC06 BD05 CA01 CA05 CB01 CB06 CC02 CC03 CC08 5B050 BA07 BA08 BA09 CA07 EA24 EA30 FA02 5B080 AA13 FA03 FA17 GA11 GA22 9A001 HH29 HH32 JJ76

Claims (30)

【特許請求の範囲】[Claims] 【請求項1】 画像生成を行うゲームシステムであっ
て、 所与のフレームの画像を生成する際に、所与の条件に基
いて複数の異なるタイプのレンダリング処理から各オブ
ジェクト毎にレンダリング処理のタイプを選択する手段
と、 各オブジェクト毎にに選択したタイプに応じたレンダリ
ング処理を施して前記所与のフレームの画像を生成する
手段と、 を含むことを特徴とするゲームシステム。
1. A game system for generating an image, wherein when generating an image of a given frame, a type of rendering process is performed for each object from a plurality of different types of rendering processes based on given conditions. And a means for performing a rendering process in accordance with the selected type for each object to generate an image of the given frame.
【請求項2】 画像生成を行うゲームシステムであっ
て、 3次元空間に配置された複数のオブジェクトについて、
所与の条件に基いてオブジェクト毎に当該オブジェクト
をレンダリングする際のタイプを決定する手段と、 各オブジェクト毎に決定されたタイプに応じて精密度の
異なるレンダリング処理を施して、前記複数のオブジェ
クトの画像を生成する手段と、 を含むことを特徴とするゲームシステム。
2. A game system for generating an image, comprising: a plurality of objects arranged in a three-dimensional space;
Means for determining the type of rendering the object for each object based on given conditions; and performing rendering processing with different degrees of precision in accordance with the type determined for each object, A game system, comprising: means for generating an image.
【請求項3】 請求項1又は2のいずれかにおいて、 前記レンダリング処理のタイプに応じて、テクスチャマ
ッピング処理、反射処理、シェーディング処理、光源処
理、半透明処理の少なくとも1つの処理を内容を、省略
又は簡略化してレンダリング処理を行うことを特徴とす
るゲームシステム。
3. The method according to claim 1, wherein at least one of a texture mapping process, a reflection process, a shading process, a light source process, and a translucent process is omitted according to the type of the rendering process. Alternatively, a game system characterized by performing rendering processing in a simplified manner.
【請求項4】 請求項1乃至3のいずれかにおいて、 前記オブジェクトの定義点に与えられているアトリビュ
ートデータを用いてジオメトリ演算を行い描画時に必要
な定義点のアトリビュートデータを生成するジオメトリ
演算手段と、 前記描画時に必要な定義点のアトリビュートデータに基
いてオブジェクトの描画を行う描画手段とを含み、 前記ジオメトリ演算手段は、 描画時に必要な定義点のアトリビュートデータのうち、
定義点座標以外のアトリビュートデータを生成する処理
を前記レンダリング処理のタイプに応じて簡略化してジ
オメトリ演算を行うことを特徴とするゲームシステム。
4. A geometry calculation means according to claim 1, wherein a geometry calculation is performed by using attribute data given to the definition point of the object to generate attribute data of the definition point required at the time of drawing. Drawing means for drawing an object based on the attribute data of the definition point required at the time of drawing, wherein the geometry calculation means includes:
A game system, wherein a process of generating attribute data other than a definition point coordinate is simplified according to a type of the rendering process to perform a geometry calculation.
【請求項5】 請求項4において、 前記ジオメトリ演算手段は、 描画時に必要な定義点のアトリビュートデータのうち、
定義点座標以外のアトリビュートデータを生成するため
のアルゴリズムの異なる複数の処理ルーチンを有してお
り、前記レンダリング処理のタイプに応じて所与のルー
チンを選択して演算を実行することを特徴とするゲーム
システム。
5. The method according to claim 4, wherein the geometry calculation means includes:
It has a plurality of processing routines with different algorithms for generating attribute data other than the definition point coordinates, and performs a calculation by selecting a given routine according to the type of the rendering processing. Game system.
【請求項6】 請求項1乃至5のいずれかにおいて、 オブジェクトの定義点に与えられているアトリビュート
データにもとづいてジオメトリ演算を行い描画時に必要
な定義点のアトリビュートデータを生成するジオメトリ
演算手段と、 前記描画時に必要な定義点のアトリビュートデータに基
き描画処理を行う描画プロセッサとを含み、 前記ジオメトリ演算手段は、 3次元空間のオブジェクトの定義点に与えられている
色、輝度、α値、マッピング情報値、法線情報情報の少
なくともひとつのアトリビュートデータを用いて描画時
に必要な定義点のアトリビュートデータを生成する処理
について、実行時ステップ数又は実行時のアクセス回数
の異なる複数の処理ルーチンを有し、前記レンダリング
処理のタイプに応じて、前記処理ルーチンを切り替えて
処理を実行することを特徴とするゲームシステム。
6. A geometry calculation means according to claim 1, wherein a geometry calculation is performed on the basis of the attribute data given to the definition point of the object to generate attribute data of the definition point required at the time of drawing. A rendering processor for performing rendering processing based on attribute data of defined points required at the time of rendering, wherein the geometry calculation means includes: a color, a luminance, an α value, and mapping information given to a defined point of an object in a three-dimensional space. Value, for the process of generating attribute data of the definition point required at the time of drawing using at least one attribute data of normal line information information, a plurality of processing routines having different execution step number or execution access number, Depending on the type of the rendering processing, the processing routine is terminated. A game system characterized by performing processing by switching.
【請求項7】 請求項1乃至6のいずれかにおいて、 前記所与の条件は、 オブジェクトと仮想カメラの距離に関する条件を含むこ
とを特徴とするゲームシステム。
7. The game system according to claim 1, wherein the given condition includes a condition relating to a distance between the object and the virtual camera.
【請求項8】 請求項1乃至7のいずれかにおいて、 前記所与の条件は、 光源からオブジェクトが受ける影響の度合いに関する条
件を含むことを特徴とするゲームシステム。
8. The game system according to claim 1, wherein the given condition includes a condition relating to a degree of influence of the light source on the object.
【請求項9】 請求項1乃至8のいずれかにおいて、 前記所与の条件は、 オブジェクトと光源と仮想カメラの配置に関する条件を
含むことを特徴とするゲームシステム。
9. The game system according to claim 1, wherein the given condition includes a condition relating to an arrangement of an object, a light source, and a virtual camera.
【請求項10】 請求項1乃至9のいずれかにおいて、 前記所与の条件は、 同一モデルに基き倍率の違う複数の大きさのオブジェク
トを生成して画像生成を行う場合には、前記倍率に関す
る条件を含むことを特徴とするゲームシステム。
10. The image processing apparatus according to claim 1, wherein the given condition relates to a case where a plurality of objects having different magnifications are generated based on the same model to generate an image. A game system comprising a condition.
【請求項11】 請求項1乃至10のいずれかにおい
て、 ジオメトリ演算を行う際に、オブジェクトの定義点にア
トリビュート情報として与えられている色情報に基いて
ジオメトリ処理後のオブジェクトの定義点の色情報又は
輝度情報を生成する演算処理を、前記レンダリング処理
のタイプに応じて簡略化して行うことを特徴とするゲー
ムシステム。
11. The color information of a defined point of an object after geometry processing based on color information given as attribute information to a defined point of the object when performing a geometry operation. Alternatively, a game system which performs a calculation process for generating luminance information in a simplified manner according to the type of the rendering process.
【請求項12】 請求項1乃至11のいずれかにおい
て、 ジオメトリ演算を行う際に、オブジェクトの定義点にア
トリビュート情報として与えられている法線ベクトルと
仮想カメラの向き及び光線の向きの少なくとも一方にも
とづいて演算される光の反射具合に応じてジオメトリ処
理後の定義点の色情報又は輝度情報を生成する演算処理
を、前記レンダリング処理のタイプに応じて簡略化して
行うことを特徴とするゲームシステム。
12. The method according to claim 1, wherein at the time of performing a geometry operation, at least one of a normal vector, a virtual camera direction, and a light ray direction provided as attribute information at a definition point of the object. A game system, wherein a calculation process of generating color information or luminance information of a defined point after a geometry process in accordance with a degree of light reflection calculated based on the type of the rendering process is performed in a simplified manner. .
【請求項13】 請求項1乃至12のいずれかにおい
て、 ジオメトリ演算を行う際に、オブジェクトの定義点にア
トリビュート情報として与えられているα値に基いてジ
オメトリ処理後のオブジェクトを半透明描画する際に必
要なアルファ値を生成する演算処理を、前記レンダリン
グ処理のタイプに応じて簡略化して行うことを特徴とす
るゲームシステム。
13. The method according to claim 1, wherein, when performing the geometry calculation, the object after the geometry processing is rendered semi-transparently based on the α value given as attribute information to the defined point of the object. A game system for performing an arithmetic process for generating an alpha value required for a game in accordance with the type of the rendering process.
【請求項14】 請求項1乃至13のいずれかにおい
て、 前記レンダリング処理のタイプに応じて、オブジェクト
の環境マッピングを行う処理を省略してレンダリング処
理を行うことを特徴とするゲームシステム。
14. The game system according to claim 1, wherein a rendering process is performed by omitting a process of mapping an environment of an object according to the type of the rendering process.
【請求項15】 請求項1乃至14のいずれかにおい
て、 前記レンダリング処理のタイプに応じて、オブジェクト
にテクスチャマッピングを行う回数を変更してレンダリ
ング処理を行うことを特徴とするゲームシステム。
15. The game system according to claim 1, wherein the number of times of performing texture mapping on an object is changed according to the type of the rendering process to perform the rendering process.
【請求項16】 コンピュータが使用可能な情報記憶媒
体であって、 所与のフレームの画像を生成する際に、所与の条件に基
いて複数の異なるタイプのレンダリング処理から各オブ
ジェクト毎にレンダリング処理のタイプを選択する手段
と、 各オブジェクト毎にに選択したタイプに応じたレンダリ
ング処理を施して前記所与のフレームの画像を生成する
手段と、 を実行するためのプログラムを含むことを特徴とする情
報記憶媒体。
16. An information storage medium that can be used by a computer, wherein a plurality of different types of rendering processes are performed for each object based on given conditions in generating an image of a given frame. Means for selecting the type of; and means for performing a rendering process according to the selected type for each object to generate an image of the given frame; and a program for executing Information storage medium.
【請求項17】 コンピュータが使用可能な情報記憶媒
体であって、 3次元空間に配置された複数のオブジェクトについて、
所与の条件に基いてオブジェクト毎に当該オブジェクト
をレンダリングする際のタイプを決定する手段と、 各オブジェクト毎に決定されたタイプに応じて精密度の
異なるレンダリング処理を施して、前記複数のオブジェ
クトの画像を生成する手段と、 を実行するためのプログラムを含むことを特徴とする情
報記憶媒体。
17. An information storage medium usable by a computer, comprising: a plurality of objects arranged in a three-dimensional space;
Means for determining the type of rendering the object for each object based on given conditions; and performing rendering processing with different degrees of precision in accordance with the type determined for each object; An information storage medium comprising: means for generating an image; and a program for executing:
【請求項18】 請求項16又は17のいずれかにおい
て、 前記レンダリング処理のタイプに応じて、テクスチャマ
ッピング処理、反射処理、シェーディング処理、光源処
理、半透明処理の少なくとも1つの処理を内容を、省略
又は簡略化してレンダリング処理を行うためのプログラ
ムを含むことを特徴とする情報記憶媒体。
18. The method according to claim 16, wherein at least one of a texture mapping process, a reflection process, a shading process, a light source process, and a translucent process is omitted according to the type of the rendering process. Alternatively, an information storage medium including a program for performing a rendering process in a simplified manner.
【請求項19】 請求項16乃至18のいずれかにおい
て、 前記オブジェクトの定義点に与えられているアトリビュ
ートデータを用いてジオメトリ演算を行い描画時に必要
な定義点のアトリビュートデータを生成するジオメトリ
演算手段と、 前記描画時に必要な定義点のアトリビュートデータに基
いてオブジェクトの描画を行う描画手段とを実行するた
めのプログラムを含み、 前記ジオメトリ演算手段は、 描画時に必要な定義点のアトリビュートデータのうち、
定義点座標以外のアトリビュートデータを生成する処理
を前記レンダリング処理のタイプに応じて簡略化してジ
オメトリ演算を行うためのプログラムを含むことを特徴
とする情報記憶媒体。
19. The geometry calculation means according to claim 16, wherein a geometry calculation is performed using attribute data given to the definition point of the object to generate attribute data of the definition point required at the time of drawing. A program for executing drawing means for drawing an object based on the attribute data of the defined points required at the time of drawing, wherein the geometry calculation means includes:
An information storage medium comprising a program for performing a geometry operation by simplifying a process of generating attribute data other than a definition point coordinate according to a type of the rendering process.
【請求項20】 請求項19において、 前記ジオメトリ演算手段は、 描画時に必要な定義点のアトリビュートデータのうち、
定義点座標以外のアトリビュートデータを生成するため
のアルゴリズムの異なる複数の処理ルーチンを有してお
り、前記レンダリング処理のタイプに応じて所与のルー
チンを選択して演算を実行するためのプログラムを含む
ことを特徴とする情報記憶媒体。
20. The method according to claim 19, wherein the geometry calculation means includes:
It has a plurality of processing routines with different algorithms for generating attribute data other than the definition point coordinates, and includes a program for selecting a given routine and executing an operation according to the type of the rendering processing. An information storage medium characterized by the above-mentioned.
【請求項21】 請求項16乃至20のいずれかにおい
て、 オブジェクトの定義点に与えられているアトリビュート
データにもとづいてジオメトリ演算を行い描画時に必要
な定義点のアトリビュートデータを生成するジオメトリ
演算手段と、 前記描画時に必要な定義点のアトリビュートデータに基
き描画処理を行う描画プロセッサとを実行するためのプ
ログラムを含み、 前記ジオメトリ演算手段は、 3次元空間のオブジェクトの定義点に与えられている
色、輝度、α値、マッピング情報値、法線情報情報の少
なくともひとつのアトリビュートデータを用いて描画時
に必要な定義点のアトリビュートデータを生成する処理
について、実行時ステップ数又は実行時のアクセス回数
の異なる複数の処理ルーチンを有し、前記レンダリング
処理のタイプに応じて、前記処理ルーチンを切り替えて
処理を実行実行するためのプログラムを含むことを特徴
とする情報記憶媒体。
21. A geometry calculation means according to claim 16, wherein a geometry calculation is performed based on the attribute data given to the definition point of the object to generate attribute data of the definition point required at the time of drawing. A program for executing a drawing processor for performing a drawing process based on the attribute data of the definition point required at the time of the drawing, wherein the geometry calculation means includes: a color and a luminance given to the definition point of the object in the three-dimensional space. , Α value, mapping information value, and normal line information information, at least one of attribute data of a defined point required at the time of drawing is generated using a plurality of steps having different numbers of steps or times of access at the time of execution. Processing routine; An information storage medium characterized by including a program for executing the processing by switching the processing routine according to the program.
【請求項22】 請求項16乃至21のいずれかにおい
て、 前記所与の条件は、 オブジェクトと仮想カメラの距離に関する条件を含むこ
とを特徴とする情報記憶媒体。
22. The information storage medium according to claim 16, wherein the given condition includes a condition relating to a distance between the object and the virtual camera.
【請求項23】 請求項16乃至22のいずれかにおい
て、 前記所与の条件は、 光源からオブジェクトが受ける影響の度合いに関する条
件を含むことを特徴とする情報記憶媒体。
23. The information storage medium according to claim 16, wherein the given condition includes a condition relating to a degree of influence of the light source on the object.
【請求項24】 請求項16乃至23のいずれかにおい
て、 前記所与の条件は、 オブジェクトと光源と仮想カメラの配置に関する条件を
含むことを特徴とする情報記憶媒体。
24. The information storage medium according to claim 16, wherein the given condition includes a condition relating to an arrangement of an object, a light source, and a virtual camera.
【請求項25】 請求項16乃至24のいずれかにおい
て、 前記所与の条件は、 同一モデルに基き倍率の違う複数の大きさのオブジェク
トを生成して画像生成を行う場合には、前記倍率に関す
る条件を含むことを特徴とする情報記憶媒体。
25. The image processing apparatus according to claim 16, wherein the given condition is related to the magnification when a plurality of objects having different magnifications are generated based on the same model to generate an image. An information storage medium characterized by including a condition.
【請求項26】 請求項16乃至25のいずれかにおい
て、 ジオメトリ演算を行う際に、オブジェクトの定義点にア
トリビュート情報として与えられている色情報に基いて
ジオメトリ処理後のオブジェクトの定義点の色情報又は
輝度情報を生成する演算処理を、前記レンダリング処理
のタイプに応じて簡略化して実行するためのプログラム
を含むことを特徴とする情報記憶媒体。
26. The color information of the object definition point after the geometry processing based on the color information given as attribute information to the object definition point when performing the geometry operation according to any one of claims 16 to 25. Alternatively, an information storage medium including a program for executing arithmetic processing for generating luminance information in a simplified manner according to the type of the rendering processing.
【請求項27】 請求項16乃至26のいずれかにおい
て、 ジオメトリ演算を行う際に、オブジェクトの定義点にア
トリビュート情報として与えられている法線ベクトルと
仮想カメラの向き及び光線の向きの少なくとも一方にも
とづいて演算される光の反射具合に応じてジオメトリ処
理後の定義点の色情報又は輝度情報を生成する演算処理
を、前記レンダリング処理のタイプに応じて簡略化して
実行するためのプログラムを含むことを特徴とする情報
記憶媒体。
27. The method according to claim 16, wherein at the time of performing a geometry operation, at least one of a normal vector, a virtual camera direction, and a light ray direction given as attribute information to a definition point of the object. Including a program for simplifying, according to the type of the rendering processing, an arithmetic processing for generating color information or luminance information of a defined point after the geometric processing according to the degree of light reflection calculated based on the type of the rendering processing An information storage medium characterized by the following.
【請求項28】 請求項16乃至27のいずれかにおい
て、 ジオメトリ演算を行う際に、オブジェクトの定義点にア
トリビュート情報として与えられているα値に基いてジ
オメトリ処理後のオブジェクトを半透明描画する際に必
要なアルファ値を生成する演算処理を、前記レンダリン
グ処理のタイプに応じて簡略化して実行するためのプロ
グラムを含むことを特徴とする情報記憶媒体。
28. The method according to claim 16, wherein, when performing the geometry operation, the object after the geometry processing is rendered semi-transparently based on the α value given as attribute information to the defined point of the object. An information storage medium including a program for simplifying an arithmetic process for generating an alpha value required for the rendering process according to the type of the rendering process.
【請求項29】 請求項16乃至28のいずれかにおい
て、 前記レンダリング処理のタイプに応じて、オブジェクト
の環境マッピングを行う処理を省略してレンダリング処
理を実行するためのプログラムを含むことを特徴とする
情報記憶媒体。
29. The program according to claim 16, further comprising a program for executing a rendering process by omitting a process of performing an environment mapping of an object according to the type of the rendering process. Information storage medium.
【請求項30】 請求項16乃至29のいずれかにおい
て、 前記レンダリング処理のタイプに応じて、オブジェクト
にテクスチャマッピングを行う回数を変更してレンダリ
ング処理を実行するためのプログラムを含むことを特徴
とする情報記憶媒体。
30. A program according to claim 16, further comprising a program for executing a rendering process by changing the number of times texture mapping is performed on an object according to the type of the rendering process. Information storage medium.
JP2000040062A 2000-02-17 2000-02-17 GAME SYSTEM AND INFORMATION STORAGE MEDIUM Expired - Lifetime JP3656012B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000040062A JP3656012B2 (en) 2000-02-17 2000-02-17 GAME SYSTEM AND INFORMATION STORAGE MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000040062A JP3656012B2 (en) 2000-02-17 2000-02-17 GAME SYSTEM AND INFORMATION STORAGE MEDIUM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2002256661A Division JP2003162734A (en) 2002-09-02 2002-09-02 Game system and information storage medium

Publications (2)

Publication Number Publication Date
JP2001229395A true JP2001229395A (en) 2001-08-24
JP3656012B2 JP3656012B2 (en) 2005-06-02

Family

ID=18563516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000040062A Expired - Lifetime JP3656012B2 (en) 2000-02-17 2000-02-17 GAME SYSTEM AND INFORMATION STORAGE MEDIUM

Country Status (1)

Country Link
JP (1) JP3656012B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003228725A (en) * 2002-02-04 2003-08-15 Japan Science & Technology Corp 3d image processing system
JP2004265413A (en) * 2003-03-01 2004-09-24 Boeing Co:The System and method for giving environmental image to view point of display
CN100367317C (en) * 2003-07-14 2008-02-06 三星电子株式会社 Image-based rendering and editing method and apparatus
JP2008079040A (en) * 2006-09-21 2008-04-03 Matsushita Electric Ind Co Ltd Portable terminal device, game device, radio communication system and program for portable terminal device
JP2008243223A (en) * 2008-05-07 2008-10-09 Namco Bandai Games Inc Image generation system, program, and information storage medium
WO2014069771A1 (en) * 2012-10-30 2014-05-08 에스케이플래닛 주식회사 Method for providing cloud streaming-based game, and system and apparatus for same
KR101430930B1 (en) * 2012-12-12 2014-09-25 에스케이플래닛 주식회사 Method for providing game based on cloud steaming, system, client terminal and service apparatus
US9678991B2 (en) 2014-02-24 2017-06-13 Samsung Electronics Co., Ltd. Apparatus and method for processing image
JP7479542B2 (en) 2023-05-01 2024-05-08 任天堂株式会社 GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING METHOD

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003228725A (en) * 2002-02-04 2003-08-15 Japan Science & Technology Corp 3d image processing system
JP2004265413A (en) * 2003-03-01 2004-09-24 Boeing Co:The System and method for giving environmental image to view point of display
JP4520180B2 (en) * 2003-03-01 2010-08-04 ザ・ボーイング・カンパニー System and method for providing an image of an environment to a display perspective
CN100367317C (en) * 2003-07-14 2008-02-06 三星电子株式会社 Image-based rendering and editing method and apparatus
JP2008079040A (en) * 2006-09-21 2008-04-03 Matsushita Electric Ind Co Ltd Portable terminal device, game device, radio communication system and program for portable terminal device
JP4722803B2 (en) * 2006-09-21 2011-07-13 パナソニック株式会社 Portable terminal device, game device, wireless communication system, and portable terminal device program
JP2008243223A (en) * 2008-05-07 2008-10-09 Namco Bandai Games Inc Image generation system, program, and information storage medium
WO2014069771A1 (en) * 2012-10-30 2014-05-08 에스케이플래닛 주식회사 Method for providing cloud streaming-based game, and system and apparatus for same
KR101430930B1 (en) * 2012-12-12 2014-09-25 에스케이플래닛 주식회사 Method for providing game based on cloud steaming, system, client terminal and service apparatus
US9678991B2 (en) 2014-02-24 2017-06-13 Samsung Electronics Co., Ltd. Apparatus and method for processing image
JP7479542B2 (en) 2023-05-01 2024-05-08 任天堂株式会社 GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING METHOD

Also Published As

Publication number Publication date
JP3656012B2 (en) 2005-06-02

Similar Documents

Publication Publication Date Title
JP3249955B2 (en) Image generation system and information storage medium
JP2001319244A (en) Game system and information storage medium
JP3656012B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4167358B2 (en) Image generation system and information storage medium
JP4229319B2 (en) Image generation system, program, and information storage medium
JP2001325605A (en) Game system and information storage medium
JP3297410B2 (en) Image generation system and information storage medium
JP2001224845A (en) Game system and information storage medium
JP4245356B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2001229403A (en) Game system and information storage medium
JP2005209217A (en) Game system and information storage medium
JP4577968B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2001084402A (en) Picture generation system and information storage medium
JP4574058B2 (en) Image generation system, program, and information storage medium
JP3254195B2 (en) Image generation system and information storage medium
JP2003162734A (en) Game system and information storage medium
JP3292713B2 (en) Image generation system and information storage medium
JP4394211B2 (en) Image generation system and information storage medium
JP3614340B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP3269813B2 (en) Image generation system and information storage medium
JP2004038639A (en) System for generating picture, program and medium for recording information
JP4632530B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP2005275795A (en) Program, information storage medium and image generation system
JP4592039B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2001224847A (en) Game system and information storage medium

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050307

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3656012

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140311

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term