JP2002216155A - Image generation system, program and information storage medium - Google Patents

Image generation system, program and information storage medium

Info

Publication number
JP2002216155A
JP2002216155A JP2001005781A JP2001005781A JP2002216155A JP 2002216155 A JP2002216155 A JP 2002216155A JP 2001005781 A JP2001005781 A JP 2001005781A JP 2001005781 A JP2001005781 A JP 2001005781A JP 2002216155 A JP2002216155 A JP 2002216155A
Authority
JP
Japan
Prior art keywords
particle
particles
image
processing
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001005781A
Other languages
Japanese (ja)
Other versions
JP2002216155A5 (en
JP4656615B2 (en
Inventor
Hidetoshi Aoyanagi
秀俊 青柳
Akiko Wakabayashi
明子 若林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2001005781A priority Critical patent/JP4656615B2/en
Publication of JP2002216155A publication Critical patent/JP2002216155A/en
Publication of JP2002216155A5 publication Critical patent/JP2002216155A5/ja
Application granted granted Critical
Publication of JP4656615B2 publication Critical patent/JP4656615B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image generation system, a program and an information processing medium capable of generating a realistic and sightly image with a small processing load when the image is generated by using particles. SOLUTION: A particle load relief processing part 134 performs a processing to change at least one of the number of particle generating points, the number of particles and life of particles based on information regarding the processing load. In addition, a depth queuing processing is performed to a reference color of particle set objects based on depth information of the particle generating points and a depth queuing effect is applied to the respective particles belonging to a particle set by using a base color. In addition, the number of division of primitives to constitute the particle object is controlled based on at least one of the depth information of the particle object, positional relation to a virtual camera and a rate of plotting area to occupy a picture of the primitive to constitute the particle object.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像生成システム
プログラム及び情報記憶媒体に関する。
[0001] The present invention relates to an image generation system program and an information storage medium.

【0002】[0002]

【背景技術及び発明が解決しようとする課題】従来よ
り、仮想的な3次元空間であるオブジェクト空間内の所
与の視点から見える画像を生成するゲームシステムが知
られており、いわゆる仮想現実を体験できるものとして
人気が高い。
2. Description of the Related Art Conventionally, there has been known a game system for generating an image which can be viewed from a given viewpoint in an object space which is a virtual three-dimensional space. Popular as something you can do.

【0003】さてこのようなゲームシステムでは、プレ
ーヤの仮想現実向上のために、よりリアルな画像を生成
することが重要な技術的課題になっている。ここにおい
て例えばゲーム空間内で発生する水しぶき等がある場合
にはリアルな水しぶきの表現が重要となる。
[0003] In such a game system, generating a more realistic image is an important technical problem in order to improve the virtual reality of the player. Here, for example, when there are splashes or the like occurring in the game space, it is important to express realistic splashes.

【0004】このような水しぶき等を表現する手法とし
てパーティクルシステムとよばれる手法が知られてい
る。すなわち自然物の中には1つひとつの識別が困難で
あるような微粒子の集まりとして表現すると便利なもの
がある。例えば立ち込める湯気や霧、噴煙、土煙、揺ら
めく炎、爆発、噴水や滝、泡や水しぶき、花火、飛び散
る粉末、降りしきる雨や雪、霞、渦巻きや竜巻、風に舞
い散る桜吹雪等がその例としてあげられる。
A technique called a particle system is known as a technique for expressing such splashes and the like. That is, some natural objects are convenient to express as a collection of fine particles that are difficult to identify one by one. For example, steam and fog, plume, earth smoke, flickering flames, explosions, fountains and waterfalls, bubbles and splashes, fireworks, flying powder, falling rain and snow, haze, swirls and tornadoes, cherry blossoms flying in the wind, etc. can give.

【0005】パーティクルシステムでは、このように形
が不安定であるばかりでなく明確な表面が存在しないよ
うな物体や現象のモデルとして多数の粒子の動きとして
表現し、そのような粒子をパーティクルと呼ぶ。
In a particle system, not only the shape is unstable but also a model of an object or a phenomenon in which a clear surface does not exist is expressed as a movement of a large number of particles, and such particles are called particles. .

【0006】ここでパーティクルは、色や寿命などの特
性を有し、所与の規則(エミッターによって与えられ
る)や作用する力(フォース)によって、発生、移動、
消滅する。また各フレームにおけるパーティクルの位置
はエミッターやフォースに基づき流体計算、衝突計算、
運動計算等のパーティクルの3次元空間における位置を
決定する演算を行い決定されることになる。
[0006] Here, particles have characteristics such as color and lifetime, and are generated, moved, and moved by a given rule (given by the emitter) and an acting force (force).
Disappear. In addition, particle positions in each frame are calculated based on fluid and collision calculations based on emitters and forces.
This is determined by performing an operation for determining the position of the particle in the three-dimensional space, such as a motion calculation.

【0007】かかるパーティクルを用いて水しぶき等を
表現すると、リアルな水しぶき等の画像を生成すること
ができる。
[0007] When such particles are used to represent splashes and the like, a realistic image of splashes and the like can be generated.

【0008】ところがこのようなパーティクルを用いて
水しぶき等の画像を生成すると処理負荷が非情に重くな
ってしまうという欠点がある。
However, when an image such as a splash is generated by using such particles, there is a disadvantage that the processing load becomes unduly heavy.

【0009】例えばリアルで見栄えのよい水しぶきの画
像を生成するためには単位時間に放出されるパーティク
ルの数がより多いことが好ましい。しかしパーティクル
数が増える画像生成に必要な各種処理が増大するという
問題点がある。
For example, in order to generate a realistic and good-looking splash image, it is preferable that the number of particles emitted per unit time is larger. However, there is a problem that various processes required for image generation in which the number of particles increases increase.

【0010】特に限られたハード資源でリアルタイム画
像生成を行う必要があるゲームシステムでは、パーティ
クルを用いて画像を生成する場合に、いかにして少ない
処理負荷でリアルで見栄えのよい画像を生成するかが問
題になる。
[0010] Particularly in a game system that requires real-time image generation with limited hardware resources, when generating an image using particles, how to generate a realistic and good-looking image with a small processing load Is a problem.

【0011】本発明は、以上のような課題に鑑みてなさ
れたものであり、その目的とするところは、パーティク
ルを用いて画像を生成する場合に、少ない処理負荷でリ
アルで見栄えのよい画像を生成可能な画像生成システ
ム、プログラム及び情報記憶媒体を提供することであ
る。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and an object of the present invention is to generate a real and good-looking image with a small processing load when generating an image using particles. An object of the present invention is to provide an image generation system, a program, and an information storage medium that can be generated.

【0012】[0012]

【課題を解決するための手段】(1)本発明は画像生成
を行うシステムであって、画像生成時の処理負荷に関す
る情報に基づき、パーティクル発生地点の数、パーティ
クル数及びパーティクルの寿命の少なくともひとつを変
更する手段と、パーティクルを用いてオブジェクト空間
の所与の視点から見える画像を生成する手段と、含むこ
とを特徴とする。
(1) The present invention relates to a system for generating an image, wherein at least one of the number of particle generation points, the number of particles, and the life of the particles is determined based on information on a processing load at the time of image generation. And means for generating an image that can be viewed from a given viewpoint in the object space using the particles.

【0013】また本発明にかかるプログラムは、コンピ
ュータにより使用可能なプログラム(情報記憶媒体又は
搬送波に具現化されるプログラム)であって、上記手段
をコンピュータに実現させることを特徴とする。また本
発明にかかる情報記憶媒体は、コンピュータにより使用
可能な情報記憶媒体、上記手段をコンピュータに実現さ
せるためのプログラムを含むことを特徴とする。
[0013] A program according to the present invention is a program usable by a computer (a program embodied in an information storage medium or a carrier wave), and is characterized by causing the computer to realize the above means. Further, an information storage medium according to the present invention is characterized by including an information storage medium usable by a computer and a program for causing a computer to realize the above means.

【0014】画像生成時の処理負荷に関する情報とは、
例えばリフレッシュレートやグローバルクロックやCP
Uクロック等のように1フレームあたりの描画速度が判
断可能な所与の値で与えられる。ここで画像生成時の処
理負荷とは、CPUで行う演算負荷でもよいし描画チッ
プで発生する演算負荷でもよく、画像生成に必要な各種
処理負荷を含む。
The information on the processing load at the time of image generation is
For example, refresh rate, global clock, CP
The drawing speed per frame is given by a given value that can be determined, such as a U clock. Here, the processing load at the time of image generation may be a calculation load performed by the CPU or a calculation load generated by the drawing chip, and includes various processing loads required for image generation.

【0015】パーティクルの寿命は例えばパーティクル
の特性情報として与えられるものであり、例えば半透明
描画を行う際のα値の形式で与えられる場合でもよい。
The life of a particle is given, for example, as characteristic information of the particle, and may be given, for example, in the form of an α value when performing translucent drawing.

【0016】本発明によれば、処理負荷が高いと判断し
た場合には、パーティクル発生地点の数を減らしたり、
パーティクル数を減らしたり、パーティクルの寿命を短
く設定したりすることにより、処理負荷の低減を図り処
理落ち等を防ぐことができる。
According to the present invention, when it is determined that the processing load is high, the number of particle generation points can be reduced,
By reducing the number of particles or shortening the life of the particles, it is possible to reduce the processing load and prevent the processing from dropping.

【0017】(2)また本発明に係る画像生成システ
ム、プログラム及び情報記憶媒体は、前記パーティクル
数は、一画面に存在するパーティクル数又は所与の発生
地点から発生させるパーティクル数であることを特徴と
する。
(2) The image generation system, program and information storage medium according to the present invention are characterized in that the number of particles is the number of particles existing on one screen or the number of particles generated from a given generation point. And

【0018】(3)また本発明に係る画像生成システ
ム、プログラム及び情報記憶媒体は、パーティクルの奥
行き情報に基づき仮想カメラから離れたパーティクルか
ら優先して寿命を短くすることにより、処理負荷を軽減
することを特徴とする。
(3) The image generation system, the program, and the information storage medium according to the present invention reduce the processing load by shortening the life of a particle farther from the virtual camera based on the depth information of the particle. It is characterized by the following.

【0019】パーティクルの寿命を短く設定することに
より当該パーティクルを速く消滅させることができるた
め、その分処理負荷の低減をはかることができる。
By setting the life of the particles to be short, the particles can be quickly eliminated, and the processing load can be reduced accordingly.

【0020】ここにおいて遠くに位置するパーティクル
ほど見た目の影響が少ないため、パーティクルの奥行き
情報に基づき仮想カメラから遠くに位置するパーティク
ルから優先して寿命を短くすることが好ましい。
Here, the farther the particle is, the less the visual effect is, so it is preferable to shorten the life of the particle preferentially over the particle farthest from the virtual camera based on the depth information of the particle.

【0021】このように本発明によればパーティクルの
奥行き情報に基づき、その寿命を短くしても見た目に影
響の少ないものを選択することができるので、見た目の
効果を最大に保って、処理負荷を軽減することができ
る。
As described above, according to the present invention, it is possible to select, based on the depth information of a particle, one that has a small effect on the appearance even if its life is shortened. Can be reduced.

【0022】(4)また本発明に係る画像生成システ
ム、プログラム及び情報記憶媒体は、パーティクルの発
生地点の奥行き情報に基づき仮想カメラから離れたパー
ティクル発生地点から発生するパーティクル集合から優
先して画像生成の対象外とすることにより、処理負荷を
軽減することを特徴とする。
(4) The image generation system, the program, and the information storage medium according to the present invention generate an image preferentially from a particle set generated from a particle generation point distant from the virtual camera based on depth information of the particle generation point. , The processing load is reduced.

【0023】パーティクル発生地点から発生するパーテ
ィクル集合を画像生成の対象外とすることによりその分
処理負荷の低減をはかることができる。
By excluding a set of particles generated from a particle generation point from the object of image generation, the processing load can be reduced accordingly.

【0024】ここにおいて遠くに位置するパーティクル
発生地点から発生するパーティクル集合の画像生成をカ
ットしたほうが見た目の影響が少ないため、パーティク
ル発生地点の奥行き情報に基づき仮想カメラから遠くに
位置するパーティクル発生地点から発生するパーティク
ル集合から優先して画像生成の対象外とすることが好ま
しい。
In this case, since the image generation of the particle set generated from the particle generation point located far away is less affected by the appearance, the generation of the particle set from the particle generation point located far from the virtual camera is based on the depth information of the particle generation point. It is preferable to preferentially exclude the generated particle set from the object of image generation.

【0025】このように本発明によればパーティクルの
奥行き情報に基づき、画像生成の対象外としても見た目
に影響の少ないものを選択して画像生成の対象外とする
ことができるので、見た目の効果を最大に保って、処理
負荷を軽減することができる。
As described above, according to the present invention, based on the depth information of the particles, it is possible to select an image which has little effect on the appearance even if it is not the object of image generation and exclude it from the object of image generation. Can be kept at a maximum, and the processing load can be reduced.

【0026】(5)また本発明に係る画像生成システ
ム、プログラム及び情報記憶媒体は、パーティクルの発
生地点の奥行き情報に基づき仮想カメラから離れたパー
ティクル発生地点から優先して発生させるパーティクル
の数を削減することにより、処理負荷を軽減することを
特徴とする。
(5) The image generation system, the program and the information storage medium according to the present invention reduce the number of particles to be preferentially generated from a particle generation point distant from the virtual camera based on depth information of the particle generation point. By doing so, the processing load is reduced.

【0027】パーティクル発生地点から発生させるパー
ティクルの数を削減することによりその分処理負荷を軽
減することができる。
The processing load can be reduced by reducing the number of particles generated from the particle generation point.

【0028】ここにおいて遠くに位置するパーティクル
発生地点から発生するパーティクルの数を削減したほう
が見た目の影響が少ないため、パーティクル発生地点の
奥行き情報に基づき仮想カメラから遠くに位置するパー
ティクル発生地点から優先して発生させるパーティクル
の数を削減することが好ましい。
Here, since reducing the number of particles generated from the particle generation point located far away has less of a visual effect, priority is given to the particle generation point located far from the virtual camera based on the depth information of the particle generation point. It is preferable to reduce the number of generated particles.

【0029】このように本発明によればパーティクル発
生地点の奥行き情報に基づき、画像生成の対象外として
も見た目に影響の少ないものを選択して発生させるパー
ティクルの数を削減することができるので、見た目の効
果を最大に保って、処理負荷を軽減することができる。
As described above, according to the present invention, it is possible to reduce the number of particles to be generated by selecting an object which is not visually affected even if it is not targeted for image generation based on the depth information of the particle generation point. The processing effect can be reduced while keeping the appearance effect to the maximum.

【0030】(6)また本発明に係る画像生成システ
ム、プログラム及び情報記憶媒体は、パーティクルの奥
行き情報に基づき仮想カメラから離れたパーティクルに
割り当てるオブジェクトから優先してオブジェクトの精
密度を下げることにより、処理負荷を軽減することを特
徴とする。
(6) The image generation system, the program and the information storage medium according to the present invention reduce the precision of an object by giving priority to an object assigned to a particle distant from the virtual camera based on the depth information of the particle. It is characterized in that the processing load is reduced.

【0031】オブジェクトの精密度を下げるとは、使用
するモデルをより簡易なものにする場合等である。本発
明によればパーティクルに割り当てるオブジェクトにつ
いてパーティクルの奥行き情報に基づきLOD(レベル
オブデテール)を行うことができるため、見た目の効果
を最大に保って、処理負荷を軽減することができる。
Decreasing the precision of an object refers to, for example, a case of using a simpler model. According to the present invention, LOD (level of detail) can be performed on an object to be assigned to a particle based on the depth information of the particle, so that the visual effect can be kept at a maximum and the processing load can be reduced.

【0032】(7)また本発明に係る画像生成システ
ム、プログラム及び情報記憶媒体は、パーティクル発生
地点の奥行き情報に基づき仮想カメラから離れたパーテ
ィクル発生地点から発生したパーティクルに割り当てる
オブジェクトから優先してオブジェクトの精密度を下げ
ることにより、処理負荷を軽減することを特徴とする。
(7) The image generation system, the program, and the information storage medium according to the present invention are arranged such that, based on depth information of a particle generation point, an object is assigned priority over an object assigned to a particle generated from a particle generation point distant from the virtual camera. The processing load is reduced by reducing the precision of the processing.

【0033】オブジェクトの精密度を下げるとは、使用
するモデルをより簡易なものにする場合等である。本発
明によればパーティクルに割り当てるオブジェクトにつ
いてパーティクル発生地点の奥行き情報に基づきLOD
(レベルオブデテール)を行うことができるため、見た
目の効果を最大に保って、処理負荷を軽減することがで
きる。
[0033] Decreasing the precision of an object refers to, for example, a case of using a simpler model. According to the present invention, the LOD of an object assigned to a particle is determined based on the depth information of the particle generation point.
Since (level of detail) can be performed, the effect of appearance can be kept at a maximum, and the processing load can be reduced.

【0034】(8)本発明は画像生成を行うシステムで
あって、パーティクル又はパーティクルに割り当てたオ
ブジェクトに与えられた透明度が所定値より小さくなっ
た場合には、当該パーティクル又はパーティクルに割り
当てたオブジェクトを画像生成の対象から除外する手段
と、パーティクルを用いてオブジェクト空間の所与の視
点から見える画像を生成する手段と、を含むことを特徴
とする。
(8) The present invention relates to a system for generating an image, wherein when the transparency given to a particle or an object assigned to the particle becomes smaller than a predetermined value, the particle or the object assigned to the particle is deleted. It is characterized by including means for excluding from an object of image generation, and means for generating an image viewed from a given viewpoint in an object space using particles.

【0035】また本発明にかかるプログラムは、コンピ
ュータにより使用可能なプログラム(情報記憶媒体又は
搬送波に具現化されるプログラム)であって、上記手段
をコンピュータに実現させることを特徴とする。また本
発明にかかる情報記憶媒体は、コンピュータにより使用
可能な情報記憶媒体、上記手段をコンピュータに実現さ
せるためのプログラムを含むことを特徴とする。
A program according to the present invention is a program usable by a computer (a program embodied in an information storage medium or a carrier wave), and is characterized by causing the computer to realize the above means. Further, an information storage medium according to the present invention is characterized by including an information storage medium usable by a computer and a program for causing a computer to realize the above means.

【0036】パーティクル(又はパーティクルに割り当
てたオブジェクト)に与えられた透明度がパーティクル
発生からの時間経過に応じて変化する場合に有効であ
る。ここにおいて透明度は例えば半透明描画処理を行う
際のα値等で与えられる。
This is effective when the transparency given to a particle (or an object assigned to the particle) changes with the passage of time from the generation of the particle. Here, the transparency is given, for example, as an α value when performing a translucent drawing process.

【0037】パーティクル又はパーティクルに割り当て
たオブジェクトに与えられた透明度が所定値より小さく
なった場合には、当該パーティクル又はパーティクルに
割り当てたオブジェクトを画像生成の対象から除外する
ことにより、例えば画像生成のために行う位置の演算処
理や、座標変換処理や、描画処理等のその後に行われる
処理等の画像生成に関する各種処理を省略することが可
能となり、処理負荷の軽減を図ることができる。
When the transparency given to the particles or the objects assigned to the particles becomes smaller than a predetermined value, the particles or the objects assigned to the particles are excluded from the object of image generation, for example, for image generation. It is possible to omit various processes related to image generation, such as a position calculation process, a coordinate conversion process, a rendering process, and other subsequent processes, which can reduce the processing load.

【0038】(9)本発明は画像生成を行うシステムで
あって、パーティクルの高さが所定の値になったらパー
ティクル又はパーティクルに割り当てたオブジェクトの
消滅処理を行う手段と、パーティクルを用いてオブジェ
クト空間の所与の視点から見える画像を生成する手段
と、を含むことを特徴とする。
(9) The present invention relates to a system for generating an image, wherein means for performing a process of extinguishing a particle or an object assigned to the particle when the height of the particle reaches a predetermined value, and an object space using the particle. Means for generating an image that can be viewed from a given viewpoint.

【0039】また本発明にかかるプログラムは、コンピ
ュータにより使用可能なプログラム(情報記憶媒体又は
搬送波に具現化されるプログラム)であって、上記手段
をコンピュータに実現させることを特徴とする。また本
発明にかかる情報記憶媒体は、コンピュータにより使用
可能な情報記憶媒体、上記手段をコンピュータに実現さ
せるためのプログラムを含むことを特徴とする。
A program according to the present invention is a program usable by a computer (a program embodied in an information storage medium or a carrier wave), and is characterized in that the above means is realized by a computer. Further, an information storage medium according to the present invention is characterized by including an information storage medium usable by a computer and a program for causing a computer to realize the above means.

【0040】本発明によれば例えばパーティクルを用い
て生成した水しぶきの高さが水面の高さになった場合
や、パーティクルを用いて生成した雪等の高さが地面の
高さになった場合等に水しぶきや雪を消滅させることが
できる。
According to the present invention, for example, when the height of the splash generated by using the particles becomes the height of the water surface, or when the height of the snow or the like generated by using the particles becomes the height of the ground. Splashes and snow can be eliminated.

【0041】このようにパーティクルの高さが所定の値
になったらパーティクル又はパーティクルに割り当てた
オブジェクトの消滅処理を行うことにより、以降の当該
パーティクルに関する処理を省略できるため処理負荷を
軽減することができる。
As described above, when the height of a particle reaches a predetermined value, the particle or the object assigned to the particle is annihilated, so that subsequent processing on the particle can be omitted, so that the processing load can be reduced. .

【0042】またパーティクルの高さによって消滅処理
を行うか否かを判断できるため、判断に要する処理負荷
が軽くてすむ。従ってパーティクルの高さによって当該
パーティクルが可視範囲外になる状態が発生する場合に
有効である。
Since it is possible to determine whether or not to perform the annihilation process based on the height of the particles, the processing load required for the determination can be reduced. Therefore, it is effective when the state where the particle goes out of the visible range due to the height of the particle occurs.

【0043】(10)また本発明に係る画像生成システ
ム、プログラム及び情報記憶媒体は、前記消滅処理に
は、所定時間経過後にパーティクル又はパーティクルに
割り当てたオブジェクトが消滅する場合も含むことを特
徴とする。
(10) Further, in the image generation system, the program and the information storage medium according to the present invention, the erasing process includes a case where particles or objects assigned to the particles disappear after a lapse of a predetermined time. .

【0044】(11)本発明は画像生成を行うシステム
であって、パーティクルの奥行き情報に基づきその前に
視界をさえぎるオブジェクトがあるか否か判断し、視界
をさえぎるオブジェクトがある場合には当該パーティク
ル又はパーティクルに割り当てたオブジェクトを画像生
成の対象から除外する手段と、パーティクルを用いてオ
ブジェクト空間の所与の視点から見える画像を生成する
手段と、を含むことを特徴とする。
(11) The present invention relates to a system for generating an image, in which it is determined whether or not there is an object that blocks the field of view based on depth information of the particle. Alternatively, the method includes a means for excluding an object assigned to a particle from a target of image generation, and a means for generating an image viewed from a given viewpoint in an object space using the particle.

【0045】また本発明にかかるプログラムは、コンピ
ュータにより使用可能なプログラム(情報記憶媒体又は
搬送波に具現化されるプログラム)であって、上記手段
をコンピュータに実現させることを特徴とする。また本
発明にかかる情報記憶媒体は、コンピュータにより使用
可能な情報記憶媒体、上記手段をコンピュータに実現さ
せるためのプログラムを含むことを特徴とする。
A program according to the present invention is a program usable by a computer (a program embodied in an information storage medium or a carrier wave), and is characterized by causing the computer to realize the above means. Further, an information storage medium according to the present invention is characterized by including an information storage medium usable by a computer and a program for causing a computer to realize the above means.

【0046】例えば水しぶきが他のオブジェクトに隠れ
る場合等、水しぶきの描画処理を省略できるので、処理
負荷を削減することができる。
For example, when the splash is hidden by other objects, the drawing process of the splash can be omitted, so that the processing load can be reduced.

【0047】(12)本発明は画像生成を行うシステム
であって、同一のパーティクル発生地点から発生したパ
ーティクル集合によって表現するパーティクル集合オブ
ジェクトに対して設定された基準色に対してパーティク
ル発生地点の奥行き情報に基づきデプスキューング処理
を行う手段と、前記デプスキューング処理で得られた色
をパーティクル集合オブジェクトのベースカラーとし、
同一のパーティクル発生地点から発生したパーティクル
集合に属する各パーティクルに対して前記ベースカラー
を用いてデプスキューング効果を適用して画像生成処理
を行う手段と、を含むことを特徴とする。
(12) The present invention relates to a system for generating an image, wherein a depth of a particle generation point with respect to a reference color set for a particle set object represented by a particle set generated from the same particle generation point. Means for performing a depth skew process based on the information, and a color obtained by the depth skew process as a base color of the particle aggregate object,
Means for performing an image generation process by applying a depth skew effect using the base color to each particle belonging to a particle set generated from the same particle generation point.

【0048】また本発明にかかるプログラムは、コンピ
ュータにより使用可能なプログラム(情報記憶媒体又は
搬送波に具現化されるプログラム)であって、上記手段
をコンピュータに実現させることを特徴とする。また本
発明にかかる情報記憶媒体は、コンピュータにより使用
可能な情報記憶媒体、上記手段をコンピュータに実現さ
せるためのプログラムを含むことを特徴とする。
Further, a program according to the present invention is a program usable by a computer (a program embodied in an information storage medium or a carrier wave), and is characterized by causing the computer to realize the above means. Further, an information storage medium according to the present invention is characterized by including an information storage medium usable by a computer and a program for causing a computer to realize the above means.

【0049】一般にポリゴンオブジェクトに対してデプ
スキューイング処理を行う場合には、各頂点ごとにその
頂点の奥行き値に応じてその頂点色と背景色の合成を行
い、奥行き値に応じてその頂点色を変化させる。このた
めパーティクル集合オブジェクトを構成する各パーティ
クルオブジェクトの頂点ごとにデプスキューイング処理
が必要となるため、処理負荷が著しく増大することにな
る。
In general, when depth queuing processing is performed on a polygon object, for each vertex, the vertex color and the background color are synthesized according to the depth value of the vertex, and the vertex color is synthesized according to the depth value. To change. For this reason, the depth queuing process is required for each vertex of each particle object constituting the particle aggregate object, so that the processing load is significantly increased.

【0050】しかし本発明によれば、同一のパーティク
ル発生地点から発生したパーティクル集合によって表現
するパーティクル集合オブジェクトに対して設定された
基準色に対してパーティクル発生地点の奥行き情報に基
づきデプスキューング処理を行い、これにより得られた
色をパーティクル集合オブジェクトのベースカラーと
し、同一のパーティクル発生地点から発生したパーティ
クル集合に属する各パーティクルに対して前記ベースカ
ラーを用いてデプスキューング効果を適用して画像生成
処理を行う。
However, according to the present invention, the depth squeezing process is performed based on the depth information of the particle generation point with respect to the reference color set for the particle set object represented by the particle set generated from the same particle generation point. Then, the obtained color is used as the base color of the particle set object, and an image is generated by applying the depth skew effect to each particle belonging to the particle set generated from the same particle generation point using the base color. Perform processing.

【0051】このため1のパーティクル集合オブジェク
トに対してベースカラーを求めるための演算は1回だけ
でよい。パーティクル集合オブジェクトを構成する各パ
ーティクル又はパーティクルオブジェクトの全ての頂点
に対してデプスキューング処理により変化する頂点色を
演算する場合に比べて大幅に少ない処理負荷でFOG効
果を出すことができる。
For this reason, the calculation for obtaining the base color for one particle set object is required only once. The FOG effect can be achieved with a much smaller processing load than when a vertex color that changes by the depth skewing process is calculated for each particle or all vertices of the particle object constituting the particle aggregate object.

【0052】(13)本発明は画像生成を行うシステム
であって、パーティクルオブジェクトの奥行き情報、仮
想カメラに対する位置関係及びパーティクルオブジェク
トを構成するプリミティブの画面に占める描画面積の割
合の少なくともひとつに基づきパーティクルオブジェク
トを構成するプリミティブの分割数を制御する手段と、
パーティクルを用いてオブジェクト空間の所与の視点か
ら見える画像を生成する手段と、を含むことを特徴とす
る。
(13) The present invention relates to a system for generating an image, wherein a particle is based on at least one of depth information of a particle object, a positional relationship with respect to a virtual camera, and a ratio of a drawing area of a primitive constituting the particle object to a screen. Means for controlling the number of divisions of primitives constituting the object,
Means for generating an image viewed from a given viewpoint in the object space using the particles.

【0053】また本発明にかかるプログラムは、コンピ
ュータにより使用可能なプログラム(情報記憶媒体又は
搬送波に具現化されるプログラム)であって、上記手段
をコンピュータに実現させることを特徴とする。また本
発明にかかる情報記憶媒体は、コンピュータにより使用
可能な情報記憶媒体、上記手段をコンピュータに実現さ
せるためのプログラムを含むことを特徴とする。
A program according to the present invention is a program usable by a computer (a program embodied in an information storage medium or a carrier wave), and is characterized in that the above means is realized by a computer. Further, an information storage medium according to the present invention is characterized by including an information storage medium usable by a computer and a program for causing a computer to realize the above means.

【0054】ここにおいてプリミティブとはポリゴンや
スプライト等である。
Here, the primitive is a polygon, a sprite, or the like.

【0055】パーティクルオブジェクトの奥行き情報又
は仮想カメラからの距離が大きくなった場合にパーティ
クルオブジェクトを構成するプリミティブの分割数が大
きくなるように制御することが好ましい。
When the depth information of the particle object or the distance from the virtual camera increases, control is preferably performed so that the number of divisions of primitives constituting the particle object increases.

【0056】一般にメモリ資源に制約のあるハードウエ
アを用いて画像生成を行う場合には、VRAM(フレー
ムバッファ)の実記憶領域の容量も限られているため大
きなプリミティブをVRAM(フレームバッファ)に描
画しようとするとプリミティブの描画途中でページング
が発生し処理負荷や処理時間が増大することになる。
In general, when an image is generated using hardware having a limited memory resource, a large primitive is drawn in the VRAM (frame buffer) because the actual storage area of the VRAM (frame buffer) is limited. If this is attempted, paging occurs during the rendering of the primitive, and the processing load and processing time increase.

【0057】本発明によればパーティクルオブジェクト
の奥行き情報又は仮想カメラからの距離が大きくなった
場合にはパーティクルオブジェクトを構成するプリミテ
ィブの分割数を大きくすることができるので、プリミテ
ィブの描画途中でページングが発生するのを防止するこ
とができ処理負荷や処理時間を削減することができる。
According to the present invention, when the depth information of the particle object or the distance from the virtual camera increases, the number of divisions of the primitives constituting the particle object can be increased, so that paging can be performed during the drawing of the primitives. This can be prevented from occurring, and the processing load and processing time can be reduced.

【0058】(14)また本発明に係る画像生成システ
ム、プログラム及び情報記憶媒体は、パーティクルオブ
ジェクトの奥行き情報又は仮想カメラからの距離が大き
くなった場合にパーティクルオブジェクトを構成するプ
リミティブの分割数を大きくすることを特徴とする。
(14) The image generation system, the program, and the information storage medium according to the present invention increase the number of divisions of the primitives constituting the particle object when the depth information of the particle object or the distance from the virtual camera increases. It is characterized by doing.

【0059】(15)また本発明に係る画像生成システ
ム、プログラム及び情報記憶媒体は、パーティクルオブ
ジェクトを構成するプリミティブの画面に占める描画面
積の割合が大きくなった場合にはパーティクルを構成す
るプリミティブの分割数を大きくすることを特徴とす
る。
(15) The image generation system, the program and the information storage medium according to the present invention divide the primitives constituting the particles when the ratio of the drawing area of the primitives constituting the particle object to the screen increases. It is characterized in that the number is increased.

【0060】(16)また本発明に係る画像生成システ
ム、プログラム及び情報記憶媒体は、パーティクルに割
り当てたプリミティブを再分割することで分割数を大き
くすることを特徴とする。
(16) The image generation system, the program and the information storage medium according to the present invention are characterized in that the number of divisions is increased by subdividing primitives assigned to particles.

【0061】[0061]

【発明の実施の形態】以下、本発明の好適な実施形態に
ついて図面を用いて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings.

【0062】1.構成 図1に、本実施形態の画像生成システム(ゲームシステ
ム)のブロック図の一例を示す。なお同図において本実
施形態は、少なくとも処理部100を含めばよく(或い
は処理部100と記憶部170、或いは処理部100と
記憶部170と情報記憶媒体180を含めばよく)、そ
れ以外のブロック(例えば操作部160、表示部19
0、音出力部192、携帯型情報記憶装置194、通信
部196)については、任意の構成要素とすることがで
きる。
1. Configuration FIG. 1 shows an example of a block diagram of an image generation system (game system) of the present embodiment. In this figure, this embodiment only needs to include at least the processing unit 100 (or may include the processing unit 100 and the storage unit 170, or the processing unit 100, the storage unit 170, and the information storage medium 180), and other blocks. (For example, the operation unit 160 and the display unit 19
0, the sound output unit 192, the portable information storage device 194, and the communication unit 196) can be optional components.

【0063】ここで処理部100は、システム全体の制
御、システム内の各ブロックへの命令の指示、ゲーム処
理、画像処理、又は音処理などの各種の処理を行うもの
であり、その機能は、各種プロセッサ(CPU、DSP
等)、或いはASIC(ゲートアレイ等)などのハード
ウェアや、所与のプログラム(ゲームプログラム)によ
り実現できる。
Here, the processing section 100 performs various processes such as control of the entire system, instruction of each block in the system, game processing, image processing, and sound processing. Various processors (CPU, DSP
Or an ASIC (gate array or the like) or a given program (game program).

【0064】操作部160は、プレーヤが操作データを
入力するためのものであり、その機能は、レバー、ボタ
ン、筺体などのハードウェアにより実現できる。
The operation section 160 is for the player to input operation data, and its function can be realized by hardware such as a lever, a button, and a housing.

【0065】記憶部170は、処理部100や通信部1
96などのワーク領域となるもので、その機能はRAM
などのハードウェアにより実現できる。
The storage unit 170 stores the processing unit 100 and the communication unit 1
A work area such as 96
It can be realized by hardware such as.

【0066】情報記憶媒体(コンピュータにより使用可
能な記憶媒体)180は、プログラムやデータなどの情
報を格納するものであり、その機能は、光ディスク(C
D、DVD)、光磁気ディスク(MO)、磁気ディス
ク、ハードディスク、磁気テープ、或いはメモリ(RO
M)などのハードウェアにより実現できる。処理部10
0は、この情報記憶媒体180に格納される情報に基づ
いて本発明(本実施形態)の種々の処理を行う。即ち情
報記憶媒体180には、本発明(本実施形態)の手段
(特に処理部100に含まれるブロック)を実行するた
めの情報(プログラム或いはデータ)が格納される。
An information storage medium (storage medium usable by a computer) 180 stores information such as programs and data.
D, DVD), magneto-optical disk (MO), magnetic disk, hard disk, magnetic tape, or memory (RO
M) and the like. Processing unit 10
0 performs various processes of the present invention (the present embodiment) based on the information stored in the information storage medium 180. That is, the information storage medium 180 stores information (program or data) for executing the means of the present invention (the present embodiment) (particularly, the blocks included in the processing unit 100).

【0067】なお、情報記憶媒体180に格納される情
報の一部又は全部は、システムへの電源投入時等に記憶
部170に転送されることになる。また情報記憶媒体1
80に記憶される情報は、本発明の処理を行うためのプ
ログラムコード、画像データ、音データ、表示物の形状
データ、テーブルデータ、リストデータ、本発明の処理
を指示するための情報、その指示に従って処理を行うた
めの情報等の少なくとも1つを含むものである。
A part or all of the information stored in the information storage medium 180 is transferred to the storage unit 170 when the power to the system is turned on. Information storage medium 1
The information stored in 80 is a program code for performing the processing of the present invention, image data, sound data, shape data of a display object, table data, list data, information for instructing the processing of the present invention, and an instruction thereof. At least one of information for performing the processing according to the above.

【0068】表示部190は、本実施形態により生成さ
れた画像を出力するものであり、その機能は、CRT、
LCD、或いはHMD(ヘッドマウントディスプレイ)
などのハードウェアにより実現できる。
The display section 190 outputs an image generated according to the present embodiment.
LCD or HMD (head mounted display)
It can be realized by hardware such as.

【0069】音出力部192は、本実施形態により生成
された音を出力するものであり、その機能は、スピーカ
などのハードウェアにより実現できる。
The sound output section 192 outputs the sound generated according to the present embodiment, and its function can be realized by hardware such as a speaker.

【0070】携帯型情報記憶装置194は、プレーヤの
個人データやセーブデータなどが記憶されるものであ
り、この携帯型情報記憶装置194としては、メモリカ
ードや携帯型ゲーム装置などを考えることができる。
The portable information storage device 194 stores personal data and save data of the player. The portable information storage device 194 may be a memory card, a portable game device, or the like. .

【0071】通信部196は、外部(例えばホスト装置
や他のゲームシステム)との間で通信を行うための各種
の制御を行うものであり、その機能は、各種プロセッ
サ、或いは通信用ASICなどのハードウェアや、プロ
グラムなどにより実現できる。
The communication unit 196 performs various controls for communicating with the outside (for example, a host device or another game system), and has a function of various processors or an ASIC for communication. This can be realized by hardware, a program, or the like.

【0072】なお本発明(本実施形態)の手段を実行す
るためのプログラム或いはデータは、ホスト装置(サー
バー)が有する情報記憶媒体からネットワーク及び通信
部196を介して情報記憶媒体180に配信するように
してもよい。このようなホスト装置(サーバー)の情報
記憶媒体の使用も本発明の範囲内に含まれる。
A program or data for executing the means of the present invention (this embodiment) is distributed from the information storage medium of the host device (server) to the information storage medium 180 via the network and the communication unit 196. It may be. Use of such an information storage medium of the host device (server) is also included in the scope of the present invention.

【0073】処理部100は、ゲーム処理部110、画
像生成部120、音生成部150を含む。
The processing section 100 includes a game processing section 110, an image generation section 120, and a sound generation section 150.

【0074】ここでゲーム処理部110は、コイン(代
価)の受け付け処理、各種モードの設定処理、ゲームの
進行処理、選択画面の設定処理、ヒットチェック処理、
ゲーム結果(成果、成績)を演算する処理、複数のプレ
ーヤが共通のゲーム空間でプレイするための処理、或い
はゲームオーバー処理などの種々のゲーム処理を、操作
部160からの操作データや、携帯型情報記憶装置19
4からの個人データ、保存データや、ゲームプログラム
などに基づいて行う。
Here, the game processing section 110 includes a coin (price) receiving process, various mode setting processes, a game progress process, a selection screen setting process, a hit check process,
Various game processes such as a process of calculating a game result (results and results), a process for a plurality of players to play in a common game space, and a game over process are performed using operation data from the operation unit 160, Information storage device 19
4 based on personal data, saved data, game programs, and the like.

【0075】画像生成部120は、ゲーム処理部110
からの指示等にしたがって各種の画像処理を行い、例え
ばオブジェクト空間内で仮想カメラ(視点)から見える
画像を生成して、表示部190に出力する処理を行う。
The image generation unit 120 includes a game processing unit 110
Various image processing is performed in accordance with an instruction or the like from, for example, a process of generating an image viewed from a virtual camera (viewpoint) in the object space and outputting the generated image to the display unit 190.

【0076】例えば画像生成部120はオブジェクト
(1又は複数のプリミティブ面)の位置や回転角度
(X、Y又はZ軸回り回転角度)を求める処理、オブジ
ェクトを動作させる処理(モーション処理)、視点の位
置(仮想カメラの位置)や視線角度(仮想カメラの回転
角度)を求める処理、マップオブジェクトなどのオブジ
ェクトをオブジェクト空間へ配置する処理を行う。
For example, the image generation unit 120 obtains the position and rotation angle (rotation angle about the X, Y or Z axis) of the object (one or more primitive surfaces), processes the object (motion process), A process for obtaining a position (the position of the virtual camera) and a line-of-sight angle (a rotation angle of the virtual camera) and a process for arranging an object such as a map object in the object space are performed.

【0077】また例えば画像生成部120は、ローカル
座標系からワールド座標系への座標変換、ワールド座標
系から視点座標系への座標変換、スクリーン座標系への
透視変換、クリッピングなどの種々のジオメトリ処理
(3次元演算)を行う。そして、ジオメトリ処理により
得られた描画データ(2次元のプリミティブ面の定義点
の位置座標、テクスチャ座標、色(輝度)データ、或い
はα値等)は、記憶部170のメインメモリ172に格
納されて、保存される。
For example, the image generation unit 120 performs various types of geometric processing such as coordinate conversion from the local coordinate system to the world coordinate system, coordinate conversion from the world coordinate system to the viewpoint coordinate system, perspective conversion to the screen coordinate system, clipping, and the like. (Three-dimensional operation). Then, the drawing data (position coordinates, texture coordinates, color (luminance) data, α value, etc., of the definition points of the two-dimensional primitive surface) obtained by the geometry processing are stored in the main memory 172 of the storage unit 170. , Will be saved.

【0078】また例えば画像生成部120は、ジオメト
リ処理により得られ、メインメモリ172に保存された
描画データに基づいて、テクスチャマッピングや色(輝
度)データの補間処理や陰面消去などを行いながら、オ
ブジェクトのプリミティブ面をフレームバッファ174
に描画する処理を行う。これによりオブジェクトが配置
されるオブジェクト空間内の所与の視点(仮想カメラ)
での画像が生成されるようになる。
Further, for example, the image generating section 120 performs texture mapping, color (luminance) data interpolation processing, hidden surface elimination, and the like based on the drawing data obtained by the geometry processing and stored in the main memory 172. The primitive side of frame buffer 174
Perform processing to draw on This gives a given viewpoint (virtual camera) in the object space where the object is located
Is generated.

【0079】また例えば画像生成部120は、パーティ
クルを時間経過に伴い順次発生させたり、移動させた
り、消滅させたりする処理を行う。より具体的には、パ
ーティクル(仮想光源プリミティブ)の発生量、発生位
置、移動状態(速度、加速度等)又は寿命をランダムに
変化させる処理を行う。これにより、水しぶき等の不定
形の表示物もリアルに表現できるようになる。
Further, for example, the image generating section 120 performs a process of sequentially generating, moving, or extinguishing particles with the passage of time. More specifically, a process of randomly changing the generation amount, generation position, moving state (speed, acceleration, etc.) or life of the particles (virtual light source primitive) is performed. As a result, irregularly-shaped display objects such as splashes can be realistically expressed.

【0080】また画像生成部120は描画順序決定処理
部130、パーティクル水増し処理部132、パーティ
クル負荷軽減処理部134の少なくともひとつを含む。
The image generating unit 120 includes at least one of a drawing order determining processing unit 130, a particle inflating processing unit 132, and a particle load reducing processing unit 134.

【0081】描画順序決定処理部130は、所与の条件
に基づき複数の半透明プリミティブの描画順序を決定す
るためのソーティング処理の必要性を判断する処理と、
ソーティング処理が必要である判断された場合には複数
の半透明プリミティブのソーティング処理を行い当該ソ
ーティング処理の処理結果に基づき複数の半透明プリミ
ティブの描画順序を決定し、ソーティング処理が必要な
いと判断された場合には前回のソーティング処理結果に
基づいて、半透明プリミティブの描画順序を決定する処
理を行うようにしてもよい。
The drawing order determination processing unit 130 determines the necessity of a sorting process for determining the drawing order of a plurality of translucent primitives based on given conditions;
When it is determined that the sorting process is necessary, the sorting process of the plurality of translucent primitives is performed, and the drawing order of the plurality of translucent primitives is determined based on the processing result of the sorting process, and it is determined that the sorting process is not necessary. In this case, a process for determining the drawing order of the translucent primitives may be performed based on the result of the previous sorting process.

【0082】また描画順序決定処理部130は、所与の
条件に基づき複数の半透明プリミティブ集合の描画順序
を決定するためのソーティング処理の必要性を判断する
処理と、ソーティング処理が必要であると判断された場
合には複数の半透明プリミティブ集合の代表位置に基づ
き半透明プリミティブ集合単位でソーティング処理を行
い当該ソーティング処理の処理結果に基づき複数の半透
明プリミティブ集合の描画順序を決定し、ソーティング
処理が必要ないと判断された場合には前回のソーティン
グ処理結果に基づいて半透明プリミティブ集合の描画順
序を決定する処理を行うようにしてもよい。
The drawing order determination processing unit 130 determines the necessity of a sorting process for determining the drawing order of a plurality of translucent primitive sets based on given conditions, and determines that the sorting process is necessary. If it is determined, the sorting process is performed for each semi-transparent primitive set based on the representative position of the plurality of semi-transparent primitive sets, and the drawing order of the plurality of semi-transparent primitive sets is determined based on the processing result of the sorting process. If it is determined that is not necessary, a process of determining the drawing order of the semi-transparent primitive set based on the previous sorting processing result may be performed.

【0083】また描画順序決定処理部130は、所与の
条件に基づき複数のパーティクル発生地点から発生した
パーティクル集合によって表現するパーティクル集合オ
ブジェクトの描画順序を決定するためのソーティング処
理の必要性を判断する処理と、ソーティング処理が必要
であると判断された場合には複数のパーティクル発生地
点の奥行き情報に基づきパーティクル集合オブジェクト
のソーティング処理を行い当該ソーティング処理の処理
結果に基づきパーティクル集合オブジェクトの描画順位
を決定し、ソーティング処理が必要ないと判断された場
合には前回のソーティング処理の処理結果に基づきパー
ティクル集合オブジェクトの描画順位を決定する処理を
行うようにしてもよい。
The drawing order determination processing unit 130 determines the necessity of a sorting process for determining the drawing order of a particle set object represented by a particle set generated from a plurality of particle generation points based on given conditions. Processing, and when it is determined that sorting processing is necessary, the sorting processing of the particle aggregation object is performed based on the depth information of the plurality of particle generation points, and the drawing order of the particle aggregation object is determined based on the processing result of the sorting processing. If it is determined that the sorting process is not necessary, a process of determining the drawing order of the particle aggregate object based on the processing result of the previous sorting process may be performed.

【0084】また描画順序決定処理部130は、仮想カ
メラの位置及び回転の少なくとも一方に基づき前記所定
の条件を満たすか否かを判断することを特徴とする画像
生成システム。
An image generation system characterized in that the drawing order determination processing unit 130 determines whether or not the predetermined condition is satisfied based on at least one of the position and the rotation of the virtual camera.

【0085】また描画順序決定処理部130は、キャラ
クタオブジェクトの位置及び回転の少なくとも一方に基
づき前記所定の条件を満たすか否かを判断するようにし
てもよい。
The drawing order determination processing unit 130 may determine whether the predetermined condition is satisfied based on at least one of the position and the rotation of the character object.

【0086】また描画順序決定処理部130は、あらか
じめソーティング処理が必要なエリアを設定しておき、
仮想カメラ及びキャラクタオブジェクトの少なくとも一
方が前記ソーティングが必要なエリアにいるか否かに基
づきいて前記所定の条件を満たすかいなかを判断するよ
うにしてもよい。
[0086] The drawing order determination processing unit 130 sets in advance an area that requires a sorting process.
Whether or not the predetermined condition is satisfied may be determined based on whether or not at least one of the virtual camera and the character object is in the area requiring sorting.

【0087】なお前記ソーティング処理が必要なエリア
は、当該エリア内を仮想カメラ及びキャラクタオブジェ
クトの少なくとも一方が移動すると前記複数の半透明プ
リミティブ又半透明プリミティブ集合又はパーティクル
の発生地点の仮想カメラに対する前後関係が変化する可
能性があるエリアにすることが好ましい。
The area in which the sorting process is required is performed when at least one of the virtual camera and the character object moves in the area, and the context of the plurality of translucent primitives, the translucent primitive set, or the point at which particles are generated with respect to the virtual camera. It is preferable to set the area to be likely to change.

【0088】また前記ソーティング処理が必要なエリア
は、当該エリア内に仮想カメラ及びキャラクタオブジェ
クトの少なくとも一方がある場合には半透明プリミティ
ブ又半透明プリミティブ集合又はパーティクルの発生地
点から発生するパーティクルによって表現するオブジェ
クトが表示されない状態が発生するエリアにしてもよ
い。
The area requiring the sorting process is expressed by a semi-transparent primitive, a set of semi-transparent primitives, or particles generated from a particle generation point when at least one of the virtual camera and the character object is present in the area. It may be an area where a state where no object is displayed occurs.

【0089】また描画順序決定処理部130は、複数の
半透明プリミティブ集合の代表点の奥行き情報に基づき
ソーティングし、半透明プリミティブ集合単位に描画順
位を決定するようにしてもよい。
The rendering order determination processing unit 130 may sort the plurality of translucent primitive sets based on the depth information of the representative points, and determine the rendering order for each translucent primitive set.

【0090】また描画順序決定処理部130は、所与の
発生地点から発生したパーティクル集合によって表現す
る複数のパーティクル集合オブジェクトを発生地点の奥
行き情報に基づきソーティング処理を行いパーティクル
集合オブジェクトの描画順位を決定する処理を行うよう
にしてもよい。
The drawing order determination processing unit 130 sorts a plurality of particle aggregate objects expressed by a particle aggregate generated from a given generation point based on depth information of the generation point, and determines the rendering order of the particle aggregate objects. May be performed.

【0091】パーティクル水増し処理部132は、3次
元空間に与えられたパーティクルを親パーティクルと
し、親パーティクルの位置座標に基づき発生させる水増
し点の座標を演算する処理と、前記水増し点に子パーテ
ィクルを生成する処理を行うようにしてもよい。
The particle inflating processing section 132 sets a particle given to the three-dimensional space as a parent particle, calculates coordinates of an inflating point to be generated based on the position coordinates of the parent particle, and generates a child particle at the inflating point. May be performed.

【0092】またパーティクル水増し処理部132は、
3次元空間に与えられたパーティクルを親パーティクル
とし、スクリーン平面へ透視変換された親パーティクル
の位置座標に基づきスクリーン平面に発生させる水増し
点の座標を演算する処理と、前記スクリーン平面の水増
し点に子パーティクルを生成する処理を行うようにして
もよい。
Further, the particle inflating processing section 132
A process of calculating the coordinates of a padding point to be generated on the screen plane based on the position coordinates of the parent particle which is perspectively transformed to the screen plane, using the particle given to the three-dimensional space as a parent particle; A process of generating particles may be performed.

【0093】なお水増しして生成される子パーティクル
は、親パーティクルの特性情報を引き継ぐようにしても
よい。
The child particles generated by inflating may inherit the characteristic information of the parent particles.

【0094】またパーティクル水増し処理部132は、
親パーティクルの奥行き情報を加味して生成する水増し
点の位置を決定するようにしてもよい。
The particle inflating processing section 132
The position of the padding point generated in consideration of the depth information of the parent particle may be determined.

【0095】またパーティクル水増し処理部132は、
時間又はフレームの進行を表す情報を加味して生成する
水増し点の位置を決定するようにしてもよい。
The particle inflating processing section 132
The position of the padding point generated in consideration of the information indicating the time or the progress of the frame may be determined.

【0096】またパーティクル水増し処理部132は、
時間又はフレームの進行を表す情報を加味して水増しし
て生成する子パーティクルの数を制御するようにしても
よい。
The particle inflating processing unit 132
The number of child particles generated by padding may be controlled in consideration of information indicating the progress of time or frame.

【0097】またパーティクル水増し処理部132は、
親パーティクルの奥行き情報に基づいて子パーティクル
に割り当てるオブジェクトの大きさを決定するようにし
てもよい。
The particle inflating processing section 132
The size of the object to be assigned to the child particle may be determined based on the depth information of the parent particle.

【0098】またパーティクル水増し処理部132は、
時間又はフレームの経過に従って子パーティクルに割り
当てるオブジェクトのサイズを変化させるようにしても
よい。
The particle inflating processing section 132
The size of the object assigned to the child particle may be changed according to the passage of time or frame.

【0099】またパーティクル水増し処理部132は、
所与の親パーティクルに対してn+1フレーム目に生成
する所与子パーティクルは、同一の親パーティクルに対
してnフレーム目に生成した所与の子パーティクルと連
続性を有する位置に生成する処理を行うようにしてもよ
い。
The particle inflating processing section 132
A process of generating a given child particle generated at the (n + 1) th frame for a given parent particle at a position having continuity with a given child particle generated at the nth frame for the same parent particle is performed. You may do so.

【0100】またパーティクル水増し処理部132は、
nフレーム目の所与の親パーティクルの位置情報
(xn、yn)に対して関数fx1、fy1を適用して得られ
た位置情報(xn’、yn’)に基づきnフレーム目の所
与の子パーティクルの位置を決定した場合、n+1フレ
ーム目の同一の親パーティクルの位置情報(xn+1、y
n+1)に対して関数fx1、fy1を適用して得られた位置
情報(xn+1’、yn+1’)に基づきn+1フレーム目の
所与の子パーティクルの位置を決定するようにしてもよ
い。
The particle inflating processing section 132
n th frame position information of a given parent particle (x n, y n) n frames based on the position information obtained by applying the function f x1, f y1 relative (x n ', y n' ) When the position of a given child particle of the eye is determined, the position information (x n + 1 , y) of the same parent particle in the ( n + 1) th frame
The position of a given child particle in the ( n + 1 ) th frame is determined based on position information ( xn + 1 ', yn + 1 ') obtained by applying functions fx1 and fy1 to ( n + 1 ). You may make it.

【0101】またパーティクル水増し処理部132は、
所与の親パーティクルに対して第1の子パーティクルと
第2の子パーティクルを含む複数の子パーティクルを発
生させる場合には、第1の子パーティクルと第2の子パ
ーティクルの生成位置は異なる関数を適用して得られた
位置情報に基づき決定するようにしてもよい。
Further, the particle inflating processing unit 132
When a plurality of child particles including a first child particle and a second child particle are generated for a given parent particle, the positions at which the first child particle and the second child particle are generated have different functions. You may make it determine based on the positional information obtained by applying.

【0102】またパーティクル水増し処理部132は、
親パーティクルの奥行き情報又はパーティクル発生地点
の奥行き情報に応じて水増しして生成する子パーティク
ルの数を制御するようにしてもよい。
The particle inflating processing section 132
The number of child particles generated by padding may be controlled according to the depth information of the parent particle or the depth information of the particle generation point.

【0103】またパーティクル水増し処理部132は、
画像生成時の処理負荷に関する情報に基づき、水増しし
て生成する子パーティクルの数を制御するようにしても
よい。
Further, the particle inflating processing unit 132
The number of child particles to be inflated and generated may be controlled based on the information on the processing load at the time of generating the image.

【0104】パーティクル負荷軽減処理部134は、画
像生成時の処理負荷に関する情報に基づき、パーティク
ル発生地点の数、パーティクル数及びパーティクルの寿
命の少なくともひとつを変更する処理を行うようにして
もよい。
The particle load reduction processing section 134 may perform processing for changing at least one of the number of particle generation points, the number of particles, and the life of the particles based on information on the processing load at the time of image generation.

【0105】なお前記パーティクル数は、一画面に存在
するパーティクル数でもよいし所与の発生地点から発生
させるパーティクル数でもよい。
The number of particles may be the number of particles existing on one screen or the number of particles generated from a given generation point.

【0106】またパーティクル負荷軽減処理部134
は、パーティクルの奥行き情報に基づき仮想カメラから
離れたパーティクルから優先して寿命を短くすることに
より、処理負荷を軽減するようにしてもよい。
The particle load reduction processing section 134
The processing load may be reduced by preferentially shortening the lifetime of particles far from the virtual camera based on the depth information of the particles.

【0107】またパーティクル負荷軽減処理部134
は、パーティクルの発生地点の奥行き情報に基づき仮想
カメラから離れたパーティクル発生地点から発生するパ
ーティクル集合から優先して画像生成の対象外とするこ
とにより、処理負荷を軽減するようにしてもよい。
The particle load reduction processing section 134
The processing load may be reduced by preferentially excluding a set of particles generated from a particle generation point distant from the virtual camera on the basis of depth information of the particle generation point and excluding them from image generation.

【0108】パーティクル負荷軽減処理部134は、パ
ーティクルの発生地点の奥行き情報に基づき仮想カメラ
から離れたパーティクル発生地点から優先して発生させ
るパーティクルの数を削減することにより、処理負荷を
軽減するようにしてもよい。
The particle load reduction processing section 134 reduces the processing load by reducing the number of particles generated preferentially from the particle generation point distant from the virtual camera based on the depth information of the particle generation point. May be.

【0109】またパーティクル負荷軽減処理部134
は、パーティクルの奥行き情報に基づき仮想カメラから
離れたパーティクルに割り当てるオブジェクトから優先
してオブジェクトの精密度を下げることにより、処理負
荷を軽減するようにしてもよい。
The particle load reduction processing unit 134
Alternatively, the processing load may be reduced by lowering the precision of the object preferentially to the object assigned to the particle far from the virtual camera based on the depth information of the particle.

【0110】またパーティクル負荷軽減処理部134
は、パーティクル発生地点の奥行き情報に基づき仮想カ
メラから離れたパーティクル発生地点から発生したパー
ティクルに割り当てるオブジェクトから優先してオブジ
ェクトの精密度を下げることにより、処理負荷を軽減す
るようにしてもよい。
The particle load reduction processing section 134
Alternatively, the processing load may be reduced by lowering the precision of an object preferentially to an object assigned to a particle generated from a particle generation point distant from the virtual camera based on depth information of the particle generation point.

【0111】パーティクル負荷軽減処理部134は、パ
ーティクル又はパーティクルに割り当てたオブジェクト
に与えられた透明度が所定値より小さくなった場合に
は、当該パーティクル又はパーティクルに割り当てたオ
ブジェクトを画像生成の対象から除外する処理を行うよ
うにしてもよい。
When the transparency given to the particle or the object assigned to the particle becomes smaller than a predetermined value, the particle load reduction processing unit 134 excludes the particle or the object assigned to the particle from the object of image generation. Processing may be performed.

【0112】またパーティクル負荷軽減処理部134
は、パーティクルの高さが所定の値になったらパーティ
クル又はパーティクルに割り当てたオブジェクトの消滅
処理を行うようにしてもよい。
Further, the particle load reduction processing section 134
When the height of the particle reaches a predetermined value, the process of deleting the particle or the object assigned to the particle may be performed.

【0113】なお前記消滅処理には、所定時間経過後に
パーティクル又はパーティクルに割り当てたオブジェク
トが消滅する場合も含むようにすることが好ましい。
It is preferable that the disappearing process includes a case where the particles or the objects assigned to the particles disappear after a predetermined time has elapsed.

【0114】またパーティクル負荷軽減処理部134
は、パーティクルの奥行き情報に基づきその前に視界を
さえぎるオブジェクトがあるか否か判断し、視界をさえ
ぎるオブジェクトがある場合には当該パーティクル又は
パーティクルに割り当てたオブジェクトを画像生成の対
象から除外する処理を行うようにしてもよい。
The particle load reduction processing section 134
Determines whether there is an object that blocks the field of view based on the depth information of the particle, and if there is an object that blocks the field of view, performs a process of excluding the particle or the object assigned to the particle from the image generation target. It may be performed.

【0115】またパーティクル負荷軽減処理部134
は、同一のパーティクル発生地点から発生したパーティ
クル集合によって表現するパーティクル集合オブジェク
トに対して設定された基準色に対してパーティクル発生
地点の奥行き情報に基づきデプスキューング処理を行
い、前記デプスキューング処理で得られた色をパーティ
クル集合オブジェクトのベースカラーとし、同一のパー
ティクル発生地点から発生したパーティクル集合に属す
る各パーティクルに対して前記ベースカラーを用いてデ
プスキューング効果を適用するようにしてもよい。
The particle load reduction processing section 134
Performs a depth skewing process based on depth information of a particle generation point with respect to a reference color set for a particle collection object expressed by a particle set generated from the same particle generation point, and The obtained color may be used as the base color of the particle set object, and the depth skewing effect may be applied to each particle belonging to the particle set generated from the same particle generation point using the base color.

【0116】またパーティクル負荷軽減処理部134
は、パーティクルオブジェクトの奥行き情報、仮想カメ
ラに対する位置関係及びパーティクルオブジェクトを構
成するプリミティブの画面に占める描画面積の割合の少
なくともひとつに基づきパーティクルオブジェクトを構
成するプリミティブの分割数を制御する処理を行うよう
にしてもよい。
The particle load reduction processing section 134
Performs a process of controlling the number of divisions of a primitive constituting a particle object based on at least one of depth information of the particle object, a positional relationship to a virtual camera, and a ratio of a drawing area of a primitive constituting the particle object to a screen. May be.

【0117】またパーティクル負荷軽減処理部134
は、パーティクルオブジェクトの奥行き情報又は仮想カ
メラからの距離が大きくなった場合にパーティクルオブ
ジェクトを構成するプリミティブの分割数を大きくする
ようにしてもよい。
The particle load reduction processing section 134
May be such that when the depth information of the particle object or the distance from the virtual camera increases, the number of divisions of the primitives constituting the particle object may be increased.

【0118】またパーティクル負荷軽減処理部134
は、パーティクルオブジェクトを構成するプリミティブ
の画面に占める描画面積の割合が大きくなった場合には
パーティクルを構成するプリミティブの分割数を大きく
するようにしてもよい。
The particle load reduction processing section 134
When the ratio of the drawing area occupied by the primitives constituting the particle object to the screen increases, the number of divisions of the primitives constituting the particle may be increased.

【0119】またパーティクル負荷軽減処理部134
は、パーティクルに割り当てたプリミティブを再分割す
ることで分割数を大きくするようにしてもよい。
The particle load reduction processing section 134
May increase the number of divisions by subdividing primitives assigned to particles.

【0120】音生成部150は、ゲーム処理部110か
らの指示等にしたがって各種の音処理を行い、BGM、
効果音、又は音声などの音を生成し、音出力部192に
出力する。
The sound generation unit 150 performs various sound processes according to instructions from the game processing unit 110, and performs BGM,
A sound such as a sound effect or a voice is generated and output to the sound output unit 192.

【0121】なお、ゲーム処理部110、画像生成部1
20、音生成部150の機能は、その全てをハードウェ
アにより実現してもよいし、その全てをプログラムによ
り実現してもよい。或いは、ハードウェアとプログラム
の両方により実現してもよい。
The game processing section 110 and the image generation section 1
20, all of the functions of the sound generation unit 150 may be realized by hardware, or all of the functions may be realized by a program. Alternatively, it may be realized by both hardware and a program.

【0122】なお、本実施形態のゲームシステムは、1
人のプレーヤのみがプレイできるシングルプレーヤモー
ド専用のシステムにしてもよいし、このようなシングル
プレーヤモードのみならず、複数のプレーヤがプレイで
きるマルチプレーヤモードも備えるシステムにしてもよ
い。
Note that the game system according to the present embodiment
A system dedicated to the single player mode in which only a single player can play may be provided, or a system provided with not only such a single player mode but also a multi-player mode in which a plurality of players can play.

【0123】また複数のプレーヤがプレイする場合に、
これらの複数のプレーヤに提供するゲーム画像やゲーム
音を、1つの端末を用いて生成してもよいし、ネットワ
ーク(伝送ライン、通信回線)などで接続された複数の
端末を用いて生成してもよい。
When a plurality of players play,
The game images and game sounds to be provided to the plurality of players may be generated using one terminal, or may be generated using a plurality of terminals connected by a network (transmission line, communication line) or the like. Is also good.

【0124】2.本実施形態の特徴 図2は本実施の形態の画像生成装置により生成したゲー
ム画像の一例を表している。本実施の形態ではパーティ
クルシステムを用いて同図に示すような水しぶきの画像
を生成している。
[0124] 2. FIG. 2 illustrates an example of a game image generated by the image generation device according to the present embodiment. In the present embodiment, a splash image as shown in the figure is generated using a particle system.

【0125】以下本実施の形態の画像生成装置でパーテ
ィクルシステムを用いて水しぶきの画像を生成する場合
を例にとり、本発明の各特長について説明する。
Hereinafter, each feature of the present invention will be described by taking as an example a case where an image of a splash is generated by the image generating apparatus of the present embodiment using a particle system.

【0126】(1)処理の流れ 図3、図4は本実施の形態の画像生成装置で水しぶきの
画像を生成する際の全体的な処理の流れについて説明す
るためのフローチャート図である。
(1) Processing Flow FIGS. 3 and 4 are flowcharts for explaining the overall processing flow when generating an image of a splash by the image generating apparatus of the present embodiment.

【0127】図3及び図4の処理は画像生成部(図1の
130)が行う処理である。ここにおいて画像生成部は
例えばCPUと描画ユニット(画像生成用の専用チッ
プ)で構成されているものとする。
The processes shown in FIGS. 3 and 4 are performed by the image generation unit (130 in FIG. 1). Here, it is assumed that the image generation unit includes, for example, a CPU and a drawing unit (a dedicated chip for generating an image).

【0128】図3のステップS10〜S30は主にCP
Uがパーティクルの発生地点単位で行う処理である。
The steps S10 to S30 in FIG.
This is a process performed by U for each particle generation point.

【0129】まず複数の水しぶきの発生地点の奥行き情
報に基づき、発生地点単位で描画順序を決定するための
処理を行う(ステップS10)。本実施の形態では水し
ぶきを構成するパーティクルに半透明オブジェクトを割
り当てるため、正確に描画するためには仮想カメラから
遠くにある発生地点のものから先にフレームバッファに
半透明描画する必要がある。このため本実施の形態では
発生地点単位で描画順序を決定するための処理を行う。
First, based on the depth information of a plurality of splashing points, a process for determining a drawing order for each point is performed (step S10). In the present embodiment, since a translucent object is assigned to the particles that make up the splash, it is necessary to perform translucent drawing on the frame buffer first from the generation point far from the virtual camera in order to perform accurate drawing. For this reason, in the present embodiment, a process for determining the drawing order for each occurrence point is performed.

【0130】ここにおいて本実施の形態では、各フレー
ム毎に無条件に複数の発生地点のソーティング処理を行
うのではなく、各フレームのキャラクタオブジェクト
(仮想カメラ)の位置に基づきソーティング処理の必要
性を判断し、必要ない場合にはソーティング処理を省略
することにより処理の高速化を図っている。(詳細につ
いては(2)描画順序決定処理を参照)。
Here, in the present embodiment, the necessity of the sorting process based on the position of the character object (virtual camera) in each frame is determined instead of performing the sorting process at a plurality of occurrence points unconditionally for each frame. Judgment is made, and sorting processing is omitted when unnecessary, thereby speeding up the processing. (Refer to (2) Drawing order determination processing for details).

【0131】次に各種パラメータの設定処理を行う(ス
テップS20)。
Next, various parameters are set (step S20).

【0132】例えば、発生地点単位で各パーティクル集
合オブジェクトのベースカラーを決定する処理(詳細に
ついては(5)FOG効果の処理削減を参照)や、各発
生地点から発生させるパーティクル数を決定する処理や
各パーティクルの特性(とくに透明度や寿命に関する情
報)を決定する処理(詳細については(4)処理負荷を
軽減するための処理を参照)を行う。
For example, processing to determine the base color of each particle aggregate object for each generation point (for details, refer to (5) Reduction of FOG effect processing), processing to determine the number of particles generated from each generation point, A process for determining characteristics of each particle (particularly, information on transparency and life) is performed (for details, refer to (4) Process for reducing processing load).

【0133】そして決定された描画順序に基づき奥のパ
ーティクル発生地点のデータから描画ユニットに転送す
る(ステップ30)。
Then, based on the determined drawing order, the data is transferred to the drawing unit from the data of the particle generation point at the back (step 30).

【0134】図4のステップS40〜S90は主にベク
トルユニットがパーティクル単位に行う処理である。
Steps S40 to S90 in FIG. 4 are mainly performed by the vector unit for each particle.

【0135】まずフレーム番号に基づきパーティクルの
透明度を減少させる。そして透明度が負になった場合に
は処理を打ち切る。またフレーム番号に基づきパーティ
クルに割り当てるスプライト(一枚ポリゴン)のサイズ
を拡大させる(ステップS40)。
First, the transparency of the particles is reduced based on the frame number. When the transparency becomes negative, the processing is terminated. In addition, the size of the sprite (single polygon) assigned to the particle based on the frame number is increased (step S40).

【0136】次にフレーム番号に基づき3次元空間を所
与の規則に従って移動するパーティクルの移動地点の位
置座標を演算する(ステップS50)。
Next, based on the frame number, the position coordinates of the moving point of the particle moving in the three-dimensional space according to a given rule are calculated (step S50).

【0137】次に移動後のパーティクル(これを親パー
ティクルとする)の位置座標について透視変換を行いス
クリーン平面に配置する(ステップS60)。
Next, perspective transformation is performed on the position coordinates of the moved particle (this is referred to as a parent particle), and the particle is arranged on the screen plane (step S60).

【0138】次に透視変換後の親パーティクルの周囲に
子パーティクルを水増生成する処理をおこなう(ステッ
プS70)。
Next, a process of increasing the size of child particles around the parent particles after the perspective transformation is performed (step S70).

【0139】次に水増しされた子パーティクルにスプラ
イト(一枚ポリゴン)を割り当てる。このとき発生地点
と仮想カメラからの距離に応じてポリゴン分割を行う
(ステップS80)。
Next, sprites (one polygon) are assigned to the inflated child particles. At this time, polygon division is performed according to the distance from the generation point to the virtual camera (step S80).

【0140】次に求まったスプライトポリゴンに、色と
テクスチャコーディネイト座標を付加してパケットを生
成し、描画する(ステップS90)。
Next, a packet is generated by adding a color and texture coordinates to the determined sprite polygon, and the packet is drawn (step S90).

【0141】(2)描画順序決定処理 まず本実施の形態において水しぶきの画像を生成する際
に行う描画順序の決定処理について説明する。
(2) Drawing Order Determining Process First, a description will be given of a drawing order determining process performed when a splash image is generated in the present embodiment.

【0142】一般に半透明描画処理を行う際の描画順序
は例えばポリゴンオブジェクトの場合にはポリゴン単位
というようにプリミティブ単位に決定するが、本実施の
形態では、パーティクルの発生地点ごとに描画順序を決
定している。
In general, the rendering order when performing the translucent rendering process is determined in primitive units such as polygon units in the case of a polygon object. In the present embodiment, however, the rendering order is determined for each particle generation point. are doing.

【0143】図5(A)(B)はパーティクルの発生地
点単位で描画順序を判断する様子を説明するための図で
ある。
FIGS. 5A and 5B are diagrams for explaining how to determine the drawing order for each particle generation point.

【0144】図5(A)は仮想カメラと発生地点H1〜
H4の位置関係を表している。M1〜M4は発生地点H
1〜H4から発生したパーティクルによって表現される
水しぶき(パーティクル集合オブジェクト)を模式的に
示したものである。
FIG. 5A shows the virtual camera and the occurrence points H1 to H1.
It shows the positional relationship of H4. M1 to M4 are generation points H
FIG. 3 schematically shows splashes (particle collection objects) represented by particles generated from 1 to H4.

【0145】本実施の形態ではパーティクルの発生地点
単位で半透明描画に必要なソーティング処理を行う。例
えば図5(A)の場合には仮想カメラ210から見た場
合の発生地点H1〜H4の前後関係は、奥から順にH
4、H3、H2、H1となる(図5(B)参照)。従っ
て各水しぶきM1〜M4をαブレンディング処理を行っ
てフレームバッファ220に半透明描画する際には、M
4、M3、M2、M1の順で発生地点の奥行き情報に基
づき水しぶき単位で奥から先に描画する。
In this embodiment, sorting processing necessary for translucent drawing is performed for each particle generation point. For example, in the case of FIG. 5A, the order of occurrence points H1 to H4 when viewed from the virtual camera 210 is H
4, H3, H2, and H1 (see FIG. 5B). Therefore, when performing the alpha blending process on each of the splashes M1 to M4 to render the frame buffer 220 translucent, M
4, M3, M2, and M1 are drawn in the order from the depth based on the depth information of the point of occurrence in the unit of splash.

【0146】例えば発生地点H3から発生するパーティ
クルに割り当てられたオブジェクトOP3は、発生地点
H4から発生するパーティクルに割り当てられたオブジ
ェクトOP4の後に描画される。
For example, the object OP3 assigned to the particle generated from the generation point H3 is drawn after the object OP4 allocated to the particle generated from the generation point H4.

【0147】このように本実施の形態では複数のパーテ
ィクル発生地点をその奥行き情報に基づきソーティング
し、発生地点単位に描画順位を決定する。そして決定さ
れた描画順位に従い複数のパーティクル発生地点から発
生したパーティクルに割り当てられた半透明プリミティ
ブの半透明描画処理を行う。
As described above, in the present embodiment, a plurality of particle generation points are sorted based on their depth information, and the drawing order is determined for each generation point. Then, semi-transparent rendering processing of translucent primitives assigned to particles generated from a plurality of particle generation points is performed according to the determined rendering order.

【0148】これにより描画順位の高い(より奥に位置
する)発生地点から発生したパーティクルに割り当てら
れた半透明プリミティブは描画順位の低い(より手前に
位置する)発生地点から発生したパーティクルに割り当
てられた半透明プリミティブより先に半透明描画処理を
行うことができる。
As a result, the translucent primitive assigned to the particle generated from the point of occurrence with a higher drawing order (located at the back) is assigned to the particle generated from the point of occurrence with a lower drawing order (located at the front). The translucent drawing processing can be performed before the translucent primitive.

【0149】このようにすると各パーティクル単位にソ
ーティングを行い描画順序を決定する場合に比べ、大幅
に処理負荷を軽減することができる。
In this way, the processing load can be greatly reduced as compared with the case where sorting is performed for each particle and the drawing order is determined.

【0150】図6(A)(B)(C)及び図7(A)
(B)(C)はパーティクルの発生地点に基づく描画順
序の決定処理について説明するための図である。
FIGS. 6A, 6B and 7C and FIG. 7A
FIGS. 4B and 4C are diagrams for explaining a process of determining a drawing order based on a particle generation point.

【0151】図6(A)及び図7(A)は仮想カメラの
移動前後における仮想カメラとパーティクルの発生地点
との位置関係を表している。M1〜M4は発生地点H1
〜H4から発生したパーティクルによって表現される水
しぶき(パーティクル集合オブジェクト)を模式的に示
したものである。210−1は移動前の仮想カメラであ
り、210−2は移動後の仮想カメラである。
FIGS. 6A and 7A show the positional relationship between the virtual camera and the point where particles are generated before and after the movement of the virtual camera. M1 to M4 are generation points H1
7 schematically shows splashes (particle aggregate objects) represented by particles generated from H4. 210-1 is a virtual camera before moving, and 210-2 is a virtual camera after moving.

【0152】例えば図6(A)の場合には仮想カメラ2
10−1から見た場合のパーティクルの発生地点H1〜
H4の前後関係は、奥から順にH4、H3、H2、H1
となる(図6(B)参照)。
For example, in the case of FIG.
Particle generation points H1 to H1 when viewed from 10-1
The order of H4 is H4, H3, H2, H1 in order from the back.
(See FIG. 6B).

【0153】また仮想カメラ210−2から見た場合の
半透明ポリゴンH1〜H4の前後関係は、奥から順にH
3、H1、H2、H4となる(図6(C)参照)。
[0153] When viewed from the virtual camera 210-2, the anteroposterior relation of the translucent polygons H1 to H4 is H
3, H1, H2, and H4 (see FIG. 6C).

【0154】このように発生地点と仮想カメラの位置関
係の変化により仮想カメラに対する発生地点の奥行き関
係が変位する場合にはソーティング処理が必要となる。
As described above, when the depth relationship between the generation point and the virtual camera is displaced due to the change in the positional relation between the generation point and the virtual camera, sorting processing is required.

【0155】ところが例えば図7(A)の場合には仮想
カメラ210’−1から見た場合のパーティクルの発生
地点H1〜H4の前後関係は、奥から順にH4、H3、
H2、H1となり(図7(B)参照)、仮想カメラ21
0’−2から見た場合のパーティクルの発生地点H1〜
H4の前後関係も、奥から順にH4、H3、H2、H1
となる(図7(C)参照)。従って仮想カメラが図7
(A)のように動くような場合には、仮想カメラ21
0’−2から見た画像を描画する場合には、改めてソー
ティング処理を行わなくても仮想カメラ210’−1か
ら見た画像を描画する場合に行ったソーティング結果を
用いることができる。
However, for example, in the case of FIG. 7A, the order of the particle generation points H1 to H4 when viewed from the virtual camera 210'-1 is H4, H3,
H2 and H1 (see FIG. 7B), and the virtual camera 21
Particle generation point H1 when viewed from 0'-2
The order of H4 is also H4, H3, H2, H1 from the back.
(See FIG. 7C). Therefore, the virtual camera shown in FIG.
In the case where the camera moves as shown in FIG.
When drawing an image viewed from 0′-2, the sorting result performed when drawing an image viewed from the virtual camera 210′-1 can be used without performing sorting processing again.

【0156】従って本実施の形態では、所与の条件に基
づき複数のパーティクル発生地点から発生したパーティ
クル集合によって表現するパーティクル集合オブジェク
トの描画順序を決定するためのソーティング処理の必要
性を判断し、ソーティング処理が必要であると判断され
た場合には複数のパーティクル発生地点の奥行き情報に
基づきパーティクル集合オブジェクトのソーティング処
理を行い当該ソーティング処理の処理結果に基づきパー
ティクル集合オブジェクトの描画順位を決定し、ソーテ
ィング処理が必要ないと判断された場合には前回のソー
ティング処理の処理結果に基づきパーティクル集合オブ
ジェクトの描画順位を決定する処理を行う。
Therefore, in the present embodiment, the necessity of a sorting process for determining the drawing order of a particle set object represented by a particle set generated from a plurality of particle generation points based on given conditions is determined, and sorting is performed. If it is determined that the processing is necessary, the sorting processing of the particle aggregation object is performed based on the depth information of the plurality of particle generation points, and the drawing order of the particle aggregation object is determined based on the processing result of the sorting processing, and the sorting processing is performed. If it is determined that is not necessary, processing for determining the rendering order of the particle aggregate object is performed based on the processing result of the previous sorting processing.

【0157】図8(A)(B)は、ソーティング区間を
設定してソーティング処理の必要性を判断する例につい
て説明するための図である。
FIGS. 8A and 8B are diagrams for explaining an example in which a sorting section is set to determine the necessity of the sorting process.

【0158】図8(A)の230はプレーヤキャラクタ
であり、240はプレーヤキャラクタの移動ルートとな
るゲーム空間に設けられた道である。プレーヤキャラク
タ230は、予め決められた移動ルート240(ゲーム
空間に設けられた道)上を進行し、仮想カメラは前記プ
レーヤキャラクタ230に追従するように構成されてい
る。
In FIG. 8A, reference numeral 230 denotes a player character, and reference numeral 240 denotes a road provided in a game space which is a movement route of the player character. The player character 230 travels on a predetermined moving route 240 (a road provided in the game space), and the virtual camera is configured to follow the player character 230.

【0159】H1〜H4は水しぶきの発生地点であり、
M1〜M4は発生地点H1〜H4から発生したパーティ
クルによって表現される水しぶき(パーティクル集合オ
ブジェクト)の範囲を模式的に示したものである。
H1 to H4 are points of occurrence of splashes,
M1 to M4 schematically show the range of splashes (particle collection objects) represented by particles generated from the generation points H1 to H4.

【0160】また250−1は前記移動ルート上に設け
られたソーティング区間である。図8(A)に示すよう
に道が大きくカーブしている区間がソーティング区間2
50−1として設定されている。かかる区間を移動する
仮想カメラから水しぶきM1〜M4を見る場合には、図
6(A)〜(C)で説明したように仮想カメラに対する
水しぶきの奥行き関係が変化する可能性があるからであ
る。
Reference numeral 250-1 denotes a sorting section provided on the moving route. As shown in FIG. 8A, the section where the road is greatly curved is the sorting section 2
50-1. This is because when viewing the splashes M1 to M4 from the virtual camera moving in such a section, the depth relationship of the splashes with respect to the virtual camera may change as described with reference to FIGS.

【0161】このように本実施の形態では、仮想カメラ
が移動すると水しぶき(パーティクル集合オブジェク
ト)の発生地点の仮想カメラに対する前後関係が変化す
る可能性があるエリアをソーティング区間として指定し
ておく。
As described above, in the present embodiment, an area where the position of the splash (particle collection object) where the splash occurs (the particle collection object) may change before and after the virtual camera is designated as a sorting section.

【0162】そして各フレームにおいてプレーヤキャラ
クタ230の位置が前記ソーティング区間内にある場合
にはソーティング処理の必要性ありと判断し、プレーヤ
キャラクタ230の位置が前記ソーティング区間内にな
い場合には水しぶきの発生地点のソーティング処理の必
要性なしと判断する。
In each frame, if the position of the player character 230 is within the sorting section, it is determined that sorting processing is necessary. If the position of the player character 230 is not within the sorting section, splashing occurs. It is determined that there is no need to sort the points.

【0163】例えばソーティング区間250−1はスタ
ート地点からの道のりで指定することができる。また予
め決められた移動ルート240(ゲーム空間に設けられ
た道)上を進行するプレーヤキャラクタもスタート地点
から道のり値を現在位置として有している。従って例え
ばソーティング区間250−1として(2000〜20
50)が設定されている場合には、プレーヤキャラクタ
の現在位置の道のり値xが2000<x<2050であ
る場合にはソーティング処理の必要性ありと判断され
る。
For example, the sorting section 250-1 can be designated by the distance from the start point. Further, the player character traveling on a predetermined movement route 240 (a road provided in the game space) also has a distance value from the start point as a current position. Therefore, for example, as sorting section 250-1 (2000 to 20
If 50) is set, it is determined that sorting processing is necessary if the distance value x of the current position of the player character is 2000 <x <2050.

【0164】このようにすることでプレーヤキャラクタ
がソーティング区間以外に位置する場合にはソーティン
グ処理を省略することができるため処理負荷を軽減する
ことができる。
In this way, when the player character is located outside the sorting section, the sorting processing can be omitted, so that the processing load can be reduced.

【0165】図8(B)のソーティング区間250−2
は、移動ルート240上で岩オブジェクト260により
視界がさえぎられて水しぶきが見えない区間に設定され
ている。すなわちソーティング区間250−2をプレー
ヤキャラクタが移動中は、プレーヤキャラクタに追従す
る仮想カメラが捕らえる映像には岩オブジェクト260
にさえぎられて水しぶきはM1〜M4は移らない。
The sorting section 250-2 shown in FIG.
Is set on the movement route 240 in a section where the view is blocked by the rock object 260 and splashes are not visible. That is, while the player character is moving in the sorting section 250-2, the image captured by the virtual camera that follows the player character is included in the rock object 260.
M1 to M4 do not move.

【0166】このように本実施の形態では、水しぶきが
表示されない状態が発生するエリアをソーティング区間
として設定することにより、ソーティング処理に伴い描
画順番が入れ替わることによるちらつきを防止すること
ができる。
As described above, in the present embodiment, by setting an area in which a state where no splash is displayed as a sorting section, it is possible to prevent flickering due to a change in the drawing order accompanying the sorting processing.

【0167】図9は本実施の形態において半透明描画処
理を行う際の描画順序決定処理の流れの一例について説
明するためのフローチャート図である。
FIG. 9 is a flowchart for explaining an example of the flow of the drawing order determining process when performing the translucent drawing process in the present embodiment.

【0168】まずキャラクタオブジェクト又は仮想カメ
ラがソーティングが必要なエリアにいるか否かに基づき
ソーティング処理の必要性を判断する(ステップS11
0)。
First, the necessity of the sorting process is determined based on whether the character object or the virtual camera is in an area where sorting is required (step S11).
0).

【0169】そしてキャラクタオブジェクト又は仮想カ
メラがソーティングが必要なエリアにいる場合には、複
数のパーティクル発生地点の奥行き情報に基づき、パー
ティクル発生地点単位でソーティング処理を行い、パー
ティクル発生地点単位で描画順序を決定する(ステップ
S120)。
When the character object or the virtual camera is in an area where sorting is required, sorting processing is performed for each particle generation point based on depth information of a plurality of particle generation points, and the drawing order is determined for each particle generation point. It is determined (step S120).

【0170】またキャラクタオブジェクト又は仮想カメ
ラがソーティングが必要なエリアにいない場合には、前
回のソーティング処理の処理結果に基づき、パーティク
ル発生地点単位で描画順序を決定する(ステップS13
0)。
If the character object or the virtual camera is not in an area where sorting is required, the drawing order is determined for each particle generation point based on the processing result of the previous sorting processing (step S13).
0).

【0171】次に決定された描画順序に従い、複数のパ
ーティクル発生地点から発生したパーティクル集合オブ
ジェクトの半透明描画処理を行う(ステップS14
0)。
Next, according to the determined drawing order, a semi-transparent drawing process is performed on the particle aggregate objects generated from the plurality of particle generation points (step S14).
0).

【0172】なお図8(A)(B)及び図9では、ソー
ティング区間を設定してソーティング処理の必要性を判
断する場合を例にとり説明したがこれに限られない。例
えば仮想カメラの配置の変化が所定範囲内か否かに基づ
きソーティング処理の必要性を判断するような場合でも
よい。
Although FIGS. 8A, 8B and 9 illustrate an example in which the sorting section is set to determine the necessity of the sorting process, the present invention is not limited to this. For example, the necessity of sorting processing may be determined based on whether the change in the arrangement of the virtual cameras is within a predetermined range.

【0173】また上記実施の形態では、水しぶきを半透
明描画する際に水しぶきを表現するためのパーティクル
の発生地点単位で描画順序を決定する場合を例にとり説
明したがこれに限られない。
Further, in the above-described embodiment, the case where the drawing order is determined for each generation point of the particles for expressing the splash when the splash is translucently drawn is described as an example, but the present invention is not limited to this.

【0174】例えば半透明描画処理を行う際にプリミテ
ィブ単位で描画順序を決定する場合でもよい。
For example, when performing the translucent drawing processing, the drawing order may be determined for each primitive.

【0175】図10(A)(B)(C)及び図11
(A)(B)(C)はプリミティブ単位で描画順序を判
断する場合について説明するための図である。ここにお
いてプリミティブとは例えばポリゴンやスプライト等で
ある。
FIGS. 10A, 10B and 11C and FIGS.
(A), (B), (C) is a diagram for explaining a case where the drawing order is determined for each primitive. Here, the primitive is, for example, a polygon or a sprite.

【0176】図10(A)及び図11(A)は仮想カメ
ラの移動前後における仮想カメラとプリミティブとの位
置関係を表している。P1〜P4は例えば半透明ポリゴ
ンであるとする。210−1は移動前の仮想カメラであ
り、210−2は移動後の仮想カメラである。
FIGS. 10A and 11A show the positional relationship between the virtual camera and the primitive before and after the movement of the virtual camera. It is assumed that P1 to P4 are, for example, translucent polygons. 210-1 is a virtual camera before moving, and 210-2 is a virtual camera after moving.

【0177】例えば図10(A)の場合には仮想カメラ
210−1から見た場合の半透明ポリゴンP1〜P4の
前後関係は、奥から順にP4、P3、P2、P1となる
(図10(B)参照)。
For example, in the case of FIG. 10A, the order of the translucent polygons P1 to P4 when viewed from the virtual camera 210-1 is P4, P3, P2, and P1 in order from the back (see FIG. B)).

【0178】また仮想カメラ210−2から見た場合の
半透明ポリゴンP1〜P4の前後関係は、おくから順に
P3、P1、P2、P4となる(図10(C)参照)。
The order of the translucent polygons P1 to P4 as viewed from the virtual camera 210-2 is P3, P1, P2, and P4 in that order (see FIG. 10C).

【0179】このように半透明ポリゴンと仮想カメラの
位置関係の変化により仮想カメラに対する半透明ポリゴ
ンの奥行き関係が変位する場合にはソーティング処理が
必要となる。
As described above, when the depth relationship of the translucent polygon with respect to the virtual camera is displaced due to the change in the positional relationship between the translucent polygon and the virtual camera, a sorting process is required.

【0180】ところが例えば図11(A)の場合には仮
想カメラ210’−1から見た場合の半透明ポリゴンの
P1〜P4の前後関係は、奥から順にP4、P3、P
2、P1となり(図11(B)参照)、仮想カメラ21
0’−2から見た場合の半透明ポリゴンのP1〜P4の
前後関係も、奥から順にP4、P3、P2、P1となる
(図11(C)参照)。従って仮想カメラが図11
(A)のように動くような場合には、仮想カメラ21
0’−2から見た画像を描画する場合には、改めてソー
ティング処理を行わなくても仮想カメラ210’−1か
ら見た画像を描画する場合に行ったソーティング結果を
用いることができる。
However, for example, in the case of FIG. 11A, the order of the translucent polygons P1 to P4 as viewed from the virtual camera 210'-1 is P4, P3, P
2, P1 (see FIG. 11B), and the virtual camera 21
The order of P1 to P4 of the translucent polygon when viewed from 0′-2 is also P4, P3, P2, and P1 in order from the back (see FIG. 11C). Therefore, the virtual camera
In the case where the camera moves as shown in FIG.
When drawing an image viewed from 0′-2, the sorting result performed when drawing an image viewed from the virtual camera 210′-1 can be used without performing sorting processing again.

【0181】従って所与の条件に基づき複数の半透明プ
リミティブの描画順序を決定するためのソーティング処
理の必要性を判断し、ソーティング処理が必要である判
断された場合には複数の半透明プリミティブのソーティ
ング処理を行い当該ソーティング処理の処理結果に基づ
き複数の半透明プリミティブの描画順序を決定し、ソー
ティング処理が必要ないと判断された場合には前回のソ
ーティング処理結果に基づいて、半透明プリミティブの
描画順序を決定するようにしてもよい。
Therefore, the necessity of a sorting process for determining the drawing order of a plurality of translucent primitives is determined based on given conditions, and when it is determined that the sorting process is necessary, the plurality of translucent primitives are determined. Performs a sorting process and determines a drawing order of a plurality of translucent primitives based on a processing result of the sorting process. If it is determined that the sorting process is not necessary, a semi-transparent primitive is drawn based on a previous sorting process result. The order may be determined.

【0182】図12(A)(B)はプリミティブの集合
として構成されたオブジェクトの単位で描画順序を判断
する場合について説明するための図である。
FIGS. 12A and 12B are diagrams for explaining a case where the drawing order is determined in units of objects formed as a set of primitives.

【0183】図12(A)は仮想カメラと半透明オブジ
ェクトO1〜O4の位置関係を表している。P31、P
32は半透明オブジェクトO3に属する半透明ポリゴン
であるとする。またP41、P42は半透明オブジェク
トO4に属する半透明ポリゴンであるとする。
FIG. 12A shows the positional relationship between the virtual camera and the translucent objects O1 to O4. P31, P
32 is a translucent polygon belonging to the translucent object O3. P41 and P42 are translucent polygons belonging to the translucent object O4.

【0184】かかる場合に本実施の形態では、オブジェ
クト単位でソーティング処理を行う。例えば図12
(A)の場合には仮想カメラ210−1から見た場合の
半透明オブジェクトO1〜O4の前後関係は、奥から順
にO4、O3、O2、O1となる(図12(B)参
照)。従って各オブジェクトO1〜O4をαブレンディ
ング処理を行ってフレームバッファ220に半透明描画
する際には、O4、O3、O2、O1の順で、オブジェ
クト単位で奥から先に描画する。
In such a case, in the present embodiment, sorting processing is performed for each object. For example, FIG.
In the case of (A), the order of the translucent objects O1 to O4 as viewed from the virtual camera 210-1 is O4, O3, O2, and O1 in order from the back (see FIG. 12B). Therefore, when the objects O1 to O4 are translucently rendered in the frame buffer 220 by performing the α blending process, the objects O1 to O4 are rendered in the order of O4, O3, O2, and O1 in object units from the back to the end.

【0185】すなわちオブジェクトO3に属するポリゴ
ンP31、P32はオブジェクトO4に属するポリゴン
P41、P42の後に描画される。
That is, the polygons P31 and P32 belonging to the object O3 are drawn after the polygons P41 and P42 belonging to the object O4.

【0186】図13(A)(B)(C)及び図14
(A)(B)(C)はオブジェクトの描画順序の決定に
ついて説明するための図である。
FIGS. 13 (A), (B), (C) and FIG.
(A), (B), (C) is a diagram for explaining the determination of the drawing order of the object.

【0187】図13(A)及び図14(A)は仮想カメ
ラの移動前後におけるオブジェクトとの位置関係を表し
ている。O1〜O4は例えば半透明オブジェクトである
とする。210−1は移動前の仮想カメラであり、21
0−2は移動後の仮想カメラである。
FIGS. 13A and 14A show the positional relationship with the object before and after the movement of the virtual camera. O1 to O4 are assumed to be translucent objects, for example. Reference numeral 210-1 denotes a virtual camera before movement;
Reference numeral 0-2 denotes a virtual camera after the movement.

【0188】例えば図13(A)の場合には仮想カメラ
210−1から見た場合の半透明オブジェクトO1〜O
4の前後関係は、奥から順にO4、O3、O2、O1と
なる(図13(B)参照)。
For example, in the case of FIG. 13A, the translucent objects O1 to O when viewed from the virtual camera 210-1
The order of 4 is O4, O3, O2, and O1 in order from the back (see FIG. 13B).

【0189】また仮想カメラ210−2から見た場合の
半透明ポリゴンO1〜O4の前後関係は、奥から順にO
3、O1、O2、O4となる(図13(C)参照)。
Further, when viewed from the virtual camera 210-2, the order of the translucent polygons O1 to O4 is as follows.
3, O1, O2, and O4 (see FIG. 13C).

【0190】このようにオブジェクトと仮想カメラの位
置関係の変化により仮想カメラに対するオブジェクトの
奥行き関係が変位する場合にはソーティング処理が必要
となる。
As described above, when the depth relationship of the object with respect to the virtual camera is displaced due to the change in the positional relationship between the object and the virtual camera, a sorting process is required.

【0191】ところが例えば図14(A)の場合には仮
想カメラ210’−1から見た場合のオブジェクトO1
〜O4の前後関係は、奥から順にO4、O3、O2、O
1となり(図14(B)参照)、仮想カメラ210’−
2から見た場合のオブジェクトのO1〜O4の前後関係
も、奥から順にO4、O3、O2、O1となる(図14
(C)参照)。従って仮想カメラが図14(A)のよう
に動くような場合には、仮想カメラ210’−2から見
た画像を描画する場合には、改めてソーティング処理を
行わなくても仮想カメラ210’−1から見た画像を描
画する場合に行ったソーティング結果を用いることがで
きる。
However, for example, in the case of FIG. 14A, the object O1 viewed from the virtual camera 210'-1 is displayed.
The order of ~ O4 is O4, O3, O2, O
1 (see FIG. 14B), and the virtual camera 210′−
14, the order of O1 to O4 of the objects when viewed from 2 is also O4, O3, O2, and O1 in order from the back (FIG. 14).
(C)). Therefore, when the virtual camera moves as shown in FIG. 14A, when drawing the image viewed from the virtual camera 210'-2, the virtual camera 210'-1 does not need to be sorted again. The result of sorting performed when rendering an image viewed from is used.

【0192】従って本実施の形態では、所与の条件に基
づき複数の半透明プリミティブ集合(オブジェクト)の
描画順序を決定するためのソーティング処理の必要性を
判断して、ソーティング処理が必要であると判断された
場合には複数の半透明プリミティブ集合(オブジェク
ト)の代表位置に基づき半透明プリミティブ集合単位で
ソーティング処理を行い当該ソーティング処理の処理結
果に基づき複数の半透明プリミティブ集合(オブジェク
ト)の描画順序を決定し、ソーティング処理が必要ない
判断された場合には前回のソーティング処理結果に基づ
いて半透明プリミティブ集合(オブジェクト)の描画順
序を決定する処理を行う。
Therefore, in the present embodiment, it is determined that sorting processing is necessary for determining the drawing order of a plurality of translucent primitive sets (objects) based on given conditions, and that sorting processing is required. If it is determined, the sorting process is performed for each semi-transparent primitive set based on the representative position of the plurality of semi-transparent primitive sets (objects), and the drawing order of the plurality of semi-transparent primitive sets (objects) is determined based on the processing result of the sorting process. Is determined, and if it is determined that the sorting process is not necessary, a process of determining the drawing order of the translucent primitive set (object) based on the previous sorting process result is performed.

【0193】図15は本実施の形態の半透明描画処理を
行う際の描画順序決定処理の流れの他の例について説明
するためのフローチャート図である。
FIG. 15 is a flow chart for explaining another example of the flow of the drawing order determining process when performing the translucent drawing process of the present embodiment.

【0194】まず仮想カメラの配置の変化が所定範囲内
か否かに基づきソーティング処理の必要性を判断する
(ステップS210)。ここにおいて仮想カメラの配置
の変化とは例えば仮想カメラの位置や向き(回転)の変
化である。
First, the necessity of sorting processing is determined based on whether or not the change in the arrangement of the virtual cameras is within a predetermined range (step S210). Here, the change in the arrangement of the virtual camera is, for example, a change in the position or direction (rotation) of the virtual camera.

【0195】そして仮想カメラの配置の変化が所定範囲
内である場合には、奥行き情報に基づきオブジェクトの
ソーティング処理を行い、オブジェクト単位で描画順序
を決定する(ステップS220)。
If the change in the arrangement of the virtual cameras is within the predetermined range, the objects are sorted based on the depth information, and the drawing order is determined for each object (step S220).

【0196】また仮想カメラの配置の変化が所定範囲内
でない場合には、前回のソーティング処理の処理結果に
基づき、オブジェクト単位で描画順序を決定する(ステ
ップS230)。
If the change in the arrangement of the virtual cameras is not within the predetermined range, the drawing order is determined for each object based on the processing result of the previous sorting processing (step S230).

【0197】次に決定された描画順序に従い、オブジェ
クトを構成するプリミティブの半透明描画処理を行う
(ステップS240)。
Next, in accordance with the determined drawing order, a semi-transparent drawing process of the primitives constituting the object is performed (step S240).

【0198】(3)パーティクルの水増し処理 次に本実施の形態において水しぶきの画像を生成する際
に行うパーティクルの水増し処理について説明する。
(3) Particle Inflating Process Next, a description will be given of a particle inflating process performed in generating a splash image in the present embodiment.

【0199】図16(A)(B)はパーティクルの水増
しについて説明するための図である。
FIGS. 16 (A) and 16 (B) are diagrams for explaining inflating of particles.

【0200】図16(A)のPP1〜PP4は既存のパ
ーティクルシステムを用いて所与のフレームに発生させ
たパーティクルである。各パーティクルは、色や寿命な
どの特性を有し、所与の規則(エミッターによって与え
られる)や作用する力(フォース)によって、発生、移
動、消滅すもので、各フレームにおけるパーティクルP
P1〜PP4の位置はエミッターやフォースに基づき流
体計算、衝突計算、運動計算等のパーティクルの3次元
空間における位置を決定する演算を行い決定されたもの
である。
[0200] PP1 to PP4 in Fig. 16A are particles generated in a given frame using an existing particle system. Each particle has characteristics such as color and lifetime, and is generated, moved, and annihilated by a given rule (given by the emitter) and an acting force (force).
The positions of P1 to PP4 are determined by performing calculations for determining the positions of the particles in the three-dimensional space, such as fluid calculations, collision calculations, and motion calculations, based on the emitters and forces.

【0201】ここにおいてリアルで見栄えのよい水しぶ
きを作成するためにはより多くのパーティクルを発生さ
せることが好ましい。しかし既存のパーティクルシステ
ムを用いてパーティクルを発生させるためには各パーテ
ィクルについて前記演算が必要となるため、発生させる
パーティクル数が増えるとその分演算量が増大すること
になる。
Here, it is preferable to generate more particles in order to create a realistic and good-looking splash. However, in order to generate particles using an existing particle system, the above calculation is required for each particle. Therefore, as the number of generated particles increases, the amount of calculation increases accordingly.

【0202】そこで本実施の形態では、図16(B)に
示すように、3次元空間に与えられたパーティクルPP
1〜PP4を親パーティクルとし、スクリーン平面へ透
視変換された親パーティクルPP1〜PP4の位置座標
に基づきスクリーン平面に発生させた水増し点に子パー
ティクルCP11〜CP44を生成する。
Therefore, in the present embodiment, as shown in FIG. 16B, particles PP given in a three-dimensional space
The child particles CP11 to CP44 are generated at inflated points generated on the screen plane based on the position coordinates of the parent particles PP1 to PP4, which are perspectively transformed to the screen plane, using 1 to PP4 as parent particles.

【0203】子パーティクルCP11〜CP14は親パ
ーティクルPP1から水増しして生成したものであり、
子パーティクルCP21〜CP24は親パーティクルP
P2から水増しして生成したものであり、子パーティク
ルCP31〜CP34は親パーティクルPP3から水増
しして生成したものであり、子パーティクルCP41〜
CP44は親パーティクルPP4から水増しして生成し
たものである。
The child particles CP11 to CP14 are generated by inflating the parent particles PP1.
The child particles CP21 to CP24 are the parent particles P
The child particles CP31 to CP34 are inflated and generated from P2, and are generated by inflating from the parent particle PP3, and are generated by inflating the child particles CP41 to CP34.
CP44 is generated by inflating parent particle PP4.

【0204】このようにすると、子パーティクルについ
ては既存のパーティクルシステムを用いて3次元空間に
その位置を決定するまでの演算処理を省略できるので少
ない演算付加でボリュームのある水しぶきの画像を生成
することができるようになる。
In this way, it is possible to omit the operation processing for determining the position of the child particles in the three-dimensional space using the existing particle system, so that a splash image with a volume can be generated with a small number of operations. Will be able to

【0205】図17(A)(B)は子パーティクルの位
置及びサイズの決定例について説明するための図であ
る。
FIGS. 17A and 17B are diagrams for explaining an example of determining the position and size of a child particle.

【0206】図17(A)のPP1(X1、Y1)はn
フレーム目にスクリーン平面310に透視変換されたパ
ーティクル(これを親パーティクルとする)の位置座標
である。
The PP1 (X1, Y1) in FIG.
This is the position coordinates of a particle (this is referred to as a parent particle) that has been perspectively transformed into the screen plane 310 at the frame.

【0207】本実施の形態ではスクリーン平面へ透視変
換された親パーティクルPP1の位置座標に基づきスク
リーン平面に発生させる水増し点の座標を演算し、当該
水増し点に子パーティクルを生成する。
In this embodiment, the coordinates of the padding point to be generated on the screen plane are calculated based on the position coordinates of the parent particle PP1 which has been perspective-transformed to the screen plane, and child particles are generated at the padding point.

【0208】ここで第1の水増し点M11の座標を(x
11、y11)、第2の水増し点のM12の座標を(x
12、y12)とすると、x11、y11、x12、y
12は以下のようにして求められる。
Here, the coordinates of the first padding point M11 are represented by (x
11, y11), the coordinates of M12 of the second padding point are (x
12, y12), x11, y11, x12, y
12 is obtained as follows.

【0209】 x11=X1+f(S、t、乱数1) …(1) y11=Y1+f(S、t、乱数1) …(2) x12=X2+f(S、t、乱数2) …(3) y12=Y2+f(S、t、乱数2) …(4) このようにして求められた第1の水増し点M11の座標
(x11、y11)、第2の水増し点M12の座標(x
12、y12)が子パーティクルCP11、CP12の
生成位置となる。すなわち(x11、y11)、(x1
2、y12)が子パーティクルCP11及びCP12の
位置座標となる。
X11 = X1 + f (S, t, random number 1) (1) y11 = Y1 + f (S, t, random number 1) (2) x12 = X2 + f (S, t, random number 2) (3) y12 = Y2 + f (S, t, random number 2) (4) The coordinates (x11, y11) of the first padding point M11 and the coordinates (x
12, y12) is the generation position of the child particles CP11 and CP12. That is, (x11, y11), (x1
(2, y12) are the position coordinates of the child particles CP11 and CP12.

【0210】ここでSは奥行き値zに関連して与えられ
る倍率等を表す値であり、tはフレームナンバーであ
る。親パーティクルPP1から子パーティクルCP1
1、CP12までの距離を例えばl1、l2とすると、
(1)〜(4)を使って求めることにより、奥行き値や
フレーム番号に応じて親パーティクルから離れた距離l
1、l2に子パーティクルCP11、CP12を生成す
ることができる。
Here, S is a value representing a magnification or the like given in relation to the depth value z, and t is a frame number. From parent particle PP1 to child particle CP1
1, if the distance to CP12 is, for example, l1, l2,
The distance l away from the parent particle according to the depth value or the frame number is obtained by using (1) to (4).
The child particles CP11 and CP12 can be generated at 1 and 12.

【0211】また乱数1、乱数2は使用する乱数の乱数
列における位置を表しており、連続する複数のフレーム
において、第1の子パーティクルには常に乱数1、第2
の子パーティクルには常に乱数2を使用することによ
り、連続する複数のフレームにおいて子パーティクルの
軌跡に連続性を持たせることができる。
The random numbers 1 and 2 indicate the positions of the random numbers to be used in the random number sequence. In a plurality of consecutive frames, the random numbers 1 and 2 are always assigned to the first child particle.
By always using the random number 2 for the child particle, the trajectory of the child particle can be made continuous in a plurality of continuous frames.

【0212】また図17(B)は透視変換時に親パーテ
ィクルの奥行き値がz=100である場合の子パーティ
クルの生成例について説明するための図である。
FIG. 17B is a diagram for explaining an example of the generation of a child particle when the depth value of the parent particle is z = 100 during the perspective transformation.

【0213】ここでCP’11(x11’、y1
1’)、CP’12(x’12、y’12)を、親パー
ティクルの奥行き値がz=100である場合の前記親パ
ーティクルの位置座標PP1(X1、Y1)に基づきス
クリーン平面310に生成した子パーティクルCP’1
1、CP’12の位置座標であるとする。このときは図
17(B)に示すように、図17(A)の場合に比べ
て、子パーティクルが位置が親パーティクルに近い位置
に生成される。
Here, CP'11 (x11 ', y1
1 ′), CP′12 (x′12, y′12) is generated on the screen plane 310 based on the position coordinates PP1 (X1, Y1) of the parent particle when the depth value of the parent particle is z = 100. Child particle CP'1
1. It is assumed that the position coordinates are CP'12. At this time, as shown in FIG. 17B, the child particle is generated at a position closer to the parent particle than in the case of FIG. 17A.

【0214】すなわち親パーティクルPP1から子パー
ティクルCP’11、CP’12までの距離を例えば
l’1、l’2とすると、l’1<l1、l’2<l2
となる。
That is, assuming that the distances from the parent particle PP1 to the child particles CP'11 and CP'12 are, for example, l'1 and l'2, l'1 <l1, l'2 <l2
Becomes

【0215】このように本実施の形態では親パーティク
ルの奥行き値(z値)が大きい場合(親パーティクルが
仮想カメラから離れた位置にある場合)には近い位置に
子パーティクルを生成し、親パーティクルの奥行き値
(z値)が小さい場合(親パーティクルが仮想カメラか
ら近い位置にある場合)には離れた位置に子パーティク
ルを生成する。従って親パーティクルの奥行き値(z
値)に応じて自然な遠近関係を有する位置に子パーティ
クルを生成することができる。
As described above, in the present embodiment, when the depth value (z value) of the parent particle is large (when the parent particle is at a position away from the virtual camera), the child particle is generated at a close position, and the parent particle is generated. When the depth value (z-value) of is small (when the parent particle is close to the virtual camera), a child particle is generated at a position distant from the virtual camera. Therefore, the depth value (z
Value), a child particle can be generated at a position having a natural perspective relationship.

【0216】また本実施の形態ではフレームナンバーが
大きくなるにつれ(パーティクルが発生してからの時間
が長くなるにつれ)、親パーティクルから離れた位置に
子パーティクルを生成する。このようにすることで時間
が経過するにつれ水しぶきが広がっていく様子を表現す
ることができる。
In the present embodiment, as the frame number increases (as the time after the generation of particles increases), child particles are generated at positions farther from the parent particles. By doing so, it is possible to express a state in which the spray spreads over time.

【0217】図18(A)(B)は、生成した子パーテ
ィクルにパーティクルオブジェクトを割りあてる例につ
いて説明するための図である。
FIGS. 18A and 18B are diagrams for explaining an example in which a particle object is assigned to a generated child particle.

【0218】図18(A)は子パーティクルCPにパー
ティクルオブジェクトとしてスプライト350を割り当
てる様子を表している。スプライトは2頂点SV1、S
V2を与えることにより生成することができるので、親
パーティクルの奥行き値に応じて決定されるスプライト
350のサイズに基づき、子パーティクルCPの周囲に
2頂点SV1、SV2の位置を決定する。
FIG. 18A shows a state where a sprite 350 is assigned as a particle object to a child particle CP. Sprite has two vertices SV1, S
Since it can be generated by giving V2, the positions of the two vertices SV1 and SV2 around the child particle CP are determined based on the size of the sprite 350 determined according to the depth value of the parent particle.

【0219】ここにおいて子パーティクルCPからスプ
ライトの2頂点SV1、SV2までの移動距離をr1と
すると、以下の式で与えられる。
Here, assuming that the moving distance from the child particle CP to the two vertices SV1 and SV2 of the sprite is r1, it is given by the following equation.

【0220】 r1 = ローカルパーティクルサイズ × S ここにおいてローカルパーティクルサイズとはローカル
座標系においてパーティクルに割り当てるパーティクル
オブジェクトのサイズを表すものである。このようにし
て移動距離をr1を求めることにより、親パーティクル
の奥行き値(z値)が大きくなるにつれ(親パーティク
ルが仮想カメラから離れるにつれ)、子パーティクルに
割り当てるスプライトのサイズを小さくすることができ
る。従って親パーティクルの奥行き値(z値)に応じて
自然な遠近関係を有する大きさのスプライトを子パーテ
ィクルに割り当てることができる。
R1 = local particle size × S Here, the local particle size represents the size of a particle object allocated to particles in the local coordinate system. By calculating the moving distance r1 in this manner, the size of the sprite assigned to the child particle can be reduced as the depth value (z value) of the parent particle increases (as the parent particle moves away from the virtual camera). . Therefore, a sprite having a size having a natural perspective relationship can be assigned to a child particle according to the depth value (z value) of the parent particle.

【0221】なお子パーティクルCPにパーティクルオ
ブジェクトとしてスプライト350を与える場合に、子
パーティクルCPの位置をスプライト350の1の頂点
SV1として、子パーティクルCPの周囲に他の頂点S
V2の位置を決定するようにしてもよい。このようにす
るとスプライト350の1の頂点SV1の位置を決定す
る演算が省略できるので処理負荷を削減することができ
る。
When the sprite 350 is given as a particle object to the child particle CP, the position of the child particle CP is set to one vertex SV1 of the sprite 350, and another vertex S
The position of V2 may be determined. By doing so, the calculation for determining the position of the vertex SV1 of 1 of the sprite 350 can be omitted, so that the processing load can be reduced.

【0222】図18(B)は子パーティクルCPにパー
ティクルオブジェクトとしてポリゴンオブジェクト36
0を割り当てる様子を表している。当該ポリゴンオブジ
ェクト360はPV1〜PV8の8頂点を与えることに
より生成することができるので、親パーティクルの奥行
き値に応じて決定されるポリゴンオブジェクトのサイズ
に基づき子パーティクルCPの周囲に8頂点PV1〜P
V8の位置を決定する。
FIG. 18 (B) shows a polygon object 36 as a particle object for a child particle CP.
It represents a state where 0 is assigned. Since the polygon object 360 can be generated by giving eight vertices of PV1 to PV8, the eight vertices PV1 to PV8 around the child particle CP are determined based on the size of the polygon object determined according to the depth value of the parent particle.
Determine the position of V8.

【0223】ここにおいて子パーティクルからポリゴン
オブジェクトの8頂点PV1〜PV8までの移動距離を
r2とすると、以下の式で与えられる。
Here, assuming that the moving distance from the child particle to the eight vertices PV1 to PV8 of the polygon object is r2, it is given by the following equation.

【0224】 r2 = ローカルパーティクルサイズ × S ここにおいてローカルパーティクルサイズとはローカル
座標系においてパーティクルに割り当てるパーティクル
オブジェクトのサイズを表すものである。このようにし
て移動距離をr2を求めることにより、親パーティクル
の奥行き値(z値)が大きくなるにつれ(親パーティク
ルが仮想カメラから離れるにつれ)、子パーティクルに
割り当てるポリゴンオブジェクトのサイズを小さくする
ことができる。従って親パーティクルの奥行き値(z
値)に応じて自然な遠近関係を有する大きさのポリゴン
オブジェクトを子パーティクルに割り当てることができ
る。
R2 = local particle size × S Here, the local particle size represents the size of a particle object allocated to particles in a local coordinate system. By determining the moving distance r2 in this manner, it is possible to reduce the size of the polygon object allocated to the child particle as the depth value (z value) of the parent particle increases (as the parent particle moves away from the virtual camera). it can. Therefore, the depth value (z
Value), a polygon object having a size having a natural perspective relationship can be assigned to child particles.

【0225】図19(A)(B)はパーティクルの時間
的な連続性について説明するための図である。図19
(A)はt=1〜t=6における親パーティクルと子パ
ーティクルの様子を模式的に表したものである。ここで
tは時間の経過を表すパラメータであり、例えばフレー
ム番号等である。
FIGS. 19A and 19B are diagrams for explaining temporal continuity of particles. FIG.
(A) schematically shows a state of a parent particle and a child particle at t = 1 to t = 6. Here, t is a parameter indicating the passage of time, for example, a frame number or the like.

【0226】ここでt=1,2…におけるスクリーン平
面310−1、310−1…の親パーティクルの位置を
PPt1、PPt2…とし、第1の子パーティクルの位
置をCP1t1、CP1t2…、第2の子パーティクル
の位置をCP2t1、CP2t2…とする。
Here, at t = 1, 2,..., The positions of the parent particles of the screen planes 310-1, 310-1,... Are PPt1, PPt2, and the positions of the first child particles are CP1t1, CP1t2,. The positions of the child particles are denoted by CP2t1, CP2t2,.

【0227】同図に示すように本実施の形態では所与の
親パーティクルに対してn+1フレーム目に生成する子
パーティクルは、同一の親パーティクルに対してnフレ
ーム目に生成した所与の子パーティクルと連続性を有す
る位置に生成される。
As shown in the figure, in the present embodiment, the child particles generated at the (n + 1) th frame for a given parent particle are the given child particles generated at the nth frame for the same parent particle. Is generated at a position having continuity.

【0228】本実施の形態では、例えば第1の子パーテ
ィクルのt=1,2…における位置をh=f1(t)か
らなる第1の軌跡関数370(図19(B)参照)を用
いて生成し、第2の子パーティクルのt=1,2…にお
ける位置をh=f2(t)からなる第2の軌跡関数38
0(図19(B)参照)を用いて生成する。このように
することにより、第1の子パーティクル及び第2の子パ
ーティクルに前後のフレームで連続した軌跡を描かせる
ことができる。
In this embodiment, for example, the position of the first child particle at t = 1, 2,... Is determined by using the first trajectory function 370 (see FIG. 19B) consisting of h = f1 (t). The position of the second child particle at t = 1, 2,... Is represented by a second trajectory function 38 consisting of h = f2 (t).
0 (see FIG. 19B). By doing so, it is possible to cause the first child particle and the second child particle to draw a continuous trajectory in the preceding and succeeding frames.

【0229】図20はパーティクルの水増し処理の流れ
を説明するためのフローチャート図である。
FIG. 20 is a flowchart for explaining the flow of the particle inflating process.

【0230】まず所与のパーティクルシステムを用いて
3次元空間に当該フレームのパーティクルを生成する
(ステップS310)。各パーティクルは、所与のパー
ティクルシステムによって与えられた色や寿命などの特
性を有し、所与の規則(エミッターによって与えられ
る)や作用する力(フォース)に基づき3次元空間にお
ける位置を決定する演算を行い生成されたものである。
First, particles of the frame are generated in a three-dimensional space using a given particle system (step S310). Each particle has properties such as color and lifetime given by a given particle system, and determines its position in three-dimensional space based on given rules (given by the emitter) and acting forces (forces). It is generated by performing an operation.

【0231】次に3次元空間のパーティクルをスクリー
ン平面に透視変換する(ステップS320)。
Next, the particles in the three-dimensional space are perspective-transformed to the screen plane (step S320).

【0232】次にスクリーン平面のパーティクルを親パ
ーティクルとして、親パーティクルの位置に基づき水増
し点の座標を演算する(ステップS330)。例えば図
17(A)(B)で説明した手法で水増し点の位置座標
を演算するようにしてもよい。
Next, the coordinates of the padding point are calculated based on the position of the parent particle, using the particle on the screen plane as the parent particle (step S330). For example, the position coordinates of the padding point may be calculated by the method described with reference to FIGS.

【0233】次に水増し点に子パーティクルを生成する
(ステップS340)。ここで子パーティクルは親パー
ティクルの色や寿命などの特性情報を引き継ぐようす
る。
Next, child particles are generated at the padding point (step S340). Here, the child particles inherit the characteristic information such as the color and the lifetime of the parent particles.

【0234】次に子パーティクルにパーティクルオブジ
ェクトを割り当てる(ステップS350)。図18
(A)(B)で説明したようにパーティクルオブジェク
トとしてスプライトやポリゴンオブジェクトを割り当て
ることができる。例えば半透明テクスチャを張ったスプ
ライトポリゴンを使用することによりリアルな水しぶき
の画像を生成することができる。
Next, a particle object is assigned to the child particle (step S350). FIG.
As described in (A) and (B), sprites and polygon objects can be assigned as particle objects. For example, it is possible to generate a realistic splash image by using a sprite polygon having a translucent texture.

【0235】なお上記実施の形態では子パーティクルに
パーティクルオブジェクトとしてスプライトやポリゴン
オブジェクトを割り当てる場合を例にとり説明したがこ
れに限られない。例えば自由曲面の制御点や他のプリミ
ティブを割り当てる場合でもよい。
In the above embodiment, the case where a sprite or a polygon object is assigned to a child particle as a particle object has been described as an example. However, the present invention is not limited to this. For example, a control point of a free-form surface or another primitive may be assigned.

【0236】(4)処理負荷を軽減するための処理 図21は本実施の形態における処理負荷を軽減するため
の処理の一例を説明するためのフローチャート図であ
る。
(4) Processing for Reducing Processing Load FIG. 21 is a flowchart for explaining an example of processing for reducing the processing load in the present embodiment.

【0237】まず画像生成時の処理負荷を監視し、処理
負荷情報を取得する(ステップ410)。ここで処理負
荷情報とは、例えばリフレッシュレートやグローバルク
ロックやCPUクロック等により与えられる1フレーム
あたりの描画速度等で与えられる。
First, the processing load during image generation is monitored, and processing load information is obtained (step 410). Here, the processing load information is given by, for example, a drawing rate per frame given by a refresh rate, a global clock, a CPU clock, or the like.

【0238】そして処理負荷が高い場合には、パーティ
クル発生地点の数、パーティクル数及びパーティクルの
寿命の少なくともひとつを制御するパラメータを調節す
る(ステップS420、S430)。処理負荷が高いか
否かは、処理負荷情報に基づき判断される。
If the processing load is high, parameters for controlling at least one of the number of particle generation points, the number of particles, and the life of the particles are adjusted (steps S420 and S430). Whether the processing load is high or not is determined based on the processing load information.

【0239】次に奥行き情報を加味してパーティクル発
生地点の数を制御する例について説明する。
Next, an example in which the number of particle generation points is controlled in consideration of depth information will be described.

【0240】図22(A)(B)は処理負荷が低い場合
と処理負荷が高い場合の画像例である。本実施の形態で
は、処理負荷が低い場合には岩等にあたって発生する多
数の水しぶきを生成する(図22(A)参照)。しかし
処理負荷情報により処理負荷が高いと判断した場合には
遠くにある水しぶきを画像生成の対象外とする。すなわ
ち図22(B)において×印のつけられた水しぶきの画
像を生成しないか又はパラメータの値を調整して処理負
荷を軽減する。遠いか否かは水しぶき発生地点の奥行き
情報に基づき判断する。このようにすることにより×印
のついた水しぶきについては、画像生成に必要なパーテ
ィクル発生処理から描画処理に至る一連の画像生成処理
を全て省略できるので、処理負荷の軽減を図ることがで
きる。
FIGS. 22A and 22B are image examples when the processing load is low and when the processing load is high. In this embodiment, when the processing load is low, a large number of splashes generated on a rock or the like are generated (see FIG. 22A). However, if it is determined from the processing load information that the processing load is high, distant splashes are excluded from image generation targets. That is, the processing load is reduced by not generating the image of the splash marked with a cross in FIG. 22B or adjusting the value of the parameter. Whether it is far or not is determined based on the depth information of the splash generation point. In this manner, for the splashes marked with a cross, a series of image generation processes from particle generation processing to drawing processing required for image generation can be omitted altogether, so that the processing load can be reduced.

【0241】図23は奥行き情報を加味してパーティク
ル発生地点の数を制御する例について説明するためのフ
ローチャート図である。
FIG. 23 is a flowchart for explaining an example of controlling the number of particle generation points in consideration of depth information.

【0242】まず画像生成時の処理負荷を監視し、処理
負荷情報を取得する(ステップS510)。ここで処理
負荷情報とは、例えばリフレッシュレートやグローバル
クロックやCPUクロック等により与えられる1フレー
ムあたりの描画速度等で与えられる。
First, the processing load at the time of image generation is monitored, and processing load information is obtained (step S510). Here, the processing load information is given by, for example, a drawing rate per frame given by a refresh rate, a global clock, a CPU clock, or the like.

【0243】そして処理負荷が高い場合には、パーティ
クル発生地点の奥行き情報を取得して、パーティクル発
生地点の奥行き情報に基づき、仮想カメラから離れたパ
ーティクル発生地点から発生するパーティクル集合によ
って表現するパーティクル集合オブジェクトを優先して
画像生成の対象とする。(ステップS520、530、
540)。
When the processing load is high, the depth information of the particle generation point is acquired, and the particle set expressed by the particle set generated from the particle generation point distant from the virtual camera is obtained based on the depth information of the particle generation point. Objects are prioritized for image generation. (Steps S520, 530,
540).

【0244】次に奥行き情報を加味してパーティクル発
生地点から発生させるパーティクル数の調節を行う例に
ついて説明する。
Next, an example in which the number of particles generated from a particle generation point is adjusted in consideration of depth information will be described.

【0245】図24(A)(B)は処理負荷が低い場合
と処理負荷が高い場合のパーティクル数について説明す
るための模式的な図である。図24(A)の410は水
しぶきを表現するパーティクル集合オブジェクトであ
り、412はパーティクル集合オブジェクトを構成する
パーティクルオブジェクトである。
FIGS. 24A and 24B are schematic diagrams for explaining the number of particles when the processing load is low and when the processing load is high. In FIG. 24A, reference numeral 410 denotes a particle aggregate object expressing a splash, and 412 denotes a particle object constituting the particle aggregate object.

【0246】本実施の形態では、処理負荷が低い場合に
はパーティクル発生地点から多数のパーティクルが生成
され、その結果多数のパーティクルオブジェクトの画像
が生成される(図24(A)参照)。
In this embodiment, when the processing load is low, a large number of particles are generated from the particle generation point, and as a result, images of a large number of particle objects are generated (see FIG. 24A).

【0247】しかし処理負荷情報により処理負荷が高い
と判断した場合には遠くにあるパーティクル発生地点か
ら発生させるパーティクル数を削減する。
However, if it is determined from the processing load information that the processing load is high, the number of particles generated from distant particle generation points is reduced.

【0248】図24(B)の410’は処理負荷が高い
場合の遠くにある発生地点から発生させたパーティクル
によって表現された水しぶきを表現するパーティクル集
合オブジェクトである。遠いか否かは水しぶき発生地点
の奥行き情報に基づき判断する。410’は発生させる
パーティクル数が410の場合に比べて削減されている
ので、410に比べて少ないパーティクルオブジェクト
の画像が生成される(図24(B)参照)。
[0248] Reference numeral 410 'in Fig. 24B denotes a particle set object that expresses splashes represented by particles generated from a distant generation point when the processing load is high. Whether it is far or not is determined based on the depth information of the splash generation point. Since the number of particles to be generated is smaller in the case of 410 ′ than in the case of 410, an image of a particle object that is smaller than in the case of 410 is generated (see FIG. 24B).

【0249】図25は奥行き情報を加味してパーティク
ル発生地点から発生するパーティクル数を制御する例に
ついて説明するためのフローチャート図である。
FIG. 25 is a flowchart for explaining an example of controlling the number of particles generated from a particle generation point in consideration of depth information.

【0250】まず画像生成時の処理負荷を監視し、処理
負荷情報を取得する(ステップ610)。ここで処理負
荷情報とは、例えばリフレッシュレートやグローバルク
ロックやCPUクロック等により与えられる1フレーム
あたりの描画速度等で与えられる。
First, the processing load at the time of image generation is monitored, and processing load information is obtained (step 610). Here, the processing load information is given by, for example, a drawing rate per frame given by a refresh rate, a global clock, a CPU clock, or the like.

【0251】そして処理負荷が高い場合には、パーティ
クル発生地点の奥行き情報を取得して、パーティクル発
生地点の奥行き情報に基づき、仮想カメラから離れたパ
ーティクル発生地点から優先して発生するパーティクル
数を削減する処理を行う(ステップS620、630、
640)。パーティクル数を削減する処理とは例えば発
生させるパーティクル数を制御するためのパラメータの
値を変更する処理等である。
If the processing load is high, the depth information of the particle generation point is obtained, and the number of particles generated preferentially from the particle generation point far from the virtual camera is reduced based on the depth information of the particle generation point. (Steps S620, 630,
640). The process of reducing the number of particles is, for example, a process of changing a parameter value for controlling the number of generated particles.

【0252】図26は奥行き情報を加味してパーティク
ル発生地点から発生させるパーティクルの調節を行う場
合の処理の流れについて説明するためのフローチャート
図である。
FIG. 26 is a flowchart for explaining the flow of processing in the case of adjusting particles generated from a particle generation point in consideration of depth information.

【0253】まず画像生成時の処理負荷を監視し、処理
負荷情報を取得する(ステップ710)。ここで処理負
荷情報とは、例えばリフレッシュレートやグローバルク
ロックやCPUクロック等により与えられる1フレーム
あたりの描画速度等で与えられる。
First, the processing load at the time of image generation is monitored, and processing load information is obtained (step 710). Here, the processing load information is given by, for example, a drawing rate per frame given by a refresh rate, a global clock, a CPU clock, or the like.

【0254】そして処理負荷が高い場合には、パーティ
クルの奥行き情報を取得して、パーティクルの奥行き情
報に基づき、仮想カメラから離れたパーティクルから優
先して寿命を短くする処理を行う(ステップS720、
730、740)。例えば奥行き情報に基づきパーティ
クルのソーティング処理を行い遠いほうから所定個数だ
けパーティクルの寿命を短く設定するようにしてもよ
い。
If the processing load is high, the depth information of the particles is obtained, and the process of shortening the life is performed with priority on the particles far from the virtual camera based on the depth information of the particles (step S720).
730, 740). For example, the sorting of the particles may be performed based on the depth information, and the life of the particles may be set to be shorter by a predetermined number from a far side.

【0255】次にパーティクルに与えられた透明度やパ
ーティクルの高さに基づきパーティクルの描画処理を省
略する場合について説明する。
Next, a case where the drawing processing of particles is omitted based on the transparency and the height of the particles given to the particles will be described.

【0256】図27(A)はパーティクルに与えられた
透明度が所定値以下になった場合にパーティクルの描画
処理を省略する様子を模式的に表した図であり、図27
(B)はパーティクルの高さが一定以下になった場合に
パーティクルの描画処理を省略する様子を模式的に表し
た図である。
FIG. 27A is a diagram schematically showing a state in which the drawing processing of the particles is omitted when the transparency given to the particles becomes a predetermined value or less.
FIG. 3B is a diagram schematically illustrating a state in which the particle drawing processing is omitted when the height of the particles becomes equal to or less than a certain value.

【0257】図27(A)のPt1、Pt2、Pt3は
所与のパーティクル発生地点から発生したパーティクル
の時間的な変化を表した図である。ここでパーティクル
は特性情報として透明度情報(α値)を有しており、当
該透明度情報(α値)は時間とともに減少するように制
御される。例えばPt1ではα=128であり、Pt2
ではα=52であり、Pt3ではα=0である。
Pt1, Pt2, and Pt3 in FIG. 27A are diagrams showing a temporal change of particles generated from a given particle generation point. Here, the particles have transparency information (α value) as characteristic information, and the transparency information (α value) is controlled so as to decrease with time. For example, in Pt1, α = 128, and Pt2
Α is 52 in Pt3, and α = 0 in Pt3.

【0258】当該透明度情報(α値)はパーティクル又
はパーティクルに割り当てたパーティクルオブジェクト
をαブレンディング処理等を行い半透明描画する際に用
いられるものである。ここにおいて例えばα値が0であ
る場合にはパーティクル又はパーティクルに割り当てた
パーティクルオブジェクトを半透明描画しても透明で表
示されない。
The transparency information (α value) is used when a particle or a particle object assigned to the particle is subjected to α blending processing or the like to perform translucent drawing. Here, for example, when the α value is 0, even if the particles or the particle objects assigned to the particles are rendered translucent, they are not displayed as transparent.

【0259】そこで本実施の形態では、パーティクルの
特性情報として与えられた透明度情報(α値)が0以下
になった場合には、当該パーティクルを画像生成の対象
から除外し、以降の当該パーティクルに関する画像生成
処理を省略するようにしている。
Therefore, in the present embodiment, when the transparency information (α value) given as the particle characteristic information becomes 0 or less, the particle is excluded from the object of image generation, and the subsequent particle The image generation processing is omitted.

【0260】なお上記実施の形態では、パーティクルの
特性情報として与えられた透明度情報(α値)が0以下
になった場合に当該パーティクルを画像生成の対象から
除外し、以降の当該パーティクルに関する画像生成処理
を省略する場合を例にとり説明したがこれに限られな
い。例えばパーティクルの特性情報として与えられた透
明度情報(α値)が所定値になった場合に当該パーティ
クルを画像生成の対象から除外し、以降の当該パーティ
クルに関する画像生成処理を省略するような場合でもよ
い。
In the above embodiment, when the transparency information (α value) given as the characteristic information of a particle becomes 0 or less, the particle is excluded from the object of image generation, and the subsequent image generation for the particle is performed. The case where the processing is omitted has been described as an example, but the present invention is not limited to this. For example, when the transparency information (α value) given as the characteristic information of the particle has reached a predetermined value, the particle may be excluded from the target of image generation, and the subsequent image generation processing on the particle may be omitted. .

【0261】図27(B)のP’t1、P’t2、P’
t3は所与のパーティクル発生地点から発生したパーテ
ィクルの時間的な高さの変化を表した図である。510
は基準面の高さである。ここで基準面とは例えば水面や
地面等である。本実施の形態では海面の高さを基準面の
高さとして、発生したパーティクルの高さが基準面の高
さ以下になった場合には、当該パーティクルを画像生成
の対象から除外し、以降の当該パーティクルに関する画
像生成処理を省略するようにしている。
P't1, P't2, and P 'in FIG.
t3 is a diagram showing a temporal change in height of particles generated from a given particle generation point. 510
Is the height of the reference plane. Here, the reference plane is, for example, a water surface or the ground. In the present embodiment, when the height of the generated particle is equal to or less than the height of the reference surface, the height of the sea surface is set as the height of the reference surface, the particle is excluded from the image generation target, and The image generation process for the particle is omitted.

【0262】図28はパーティクルに与えられた透明度
やパーティクルの高さに基づきパーティクルの描画処理
を省略する場合の処理の流れについて説明するためのフ
ローチャート図である。
FIG. 28 is a flow chart for explaining a processing flow when the particle drawing processing is omitted based on the transparency given to the particles and the height of the particles.

【0263】ステップS810〜S860は、所与のパ
ーティクルが発生してから消滅するまでに各フレーム毎
に行う処理であり、S870のパーティクルの終了処理
はパーティクルの消滅に際して行う処理である。
Steps S810 to S860 are processes performed for each frame from the occurrence of a given particle until the given particle disappears. The process of ending the particles in S870 is a process performed when the particle disappears.

【0264】まず当該フレームのパーティクルの透明度
を演算する(ステップ810)。
First, the transparency of the particles in the frame is calculated (step 810).

【0265】次にパーティクルの透明度が0以下である
場合には、当該パーティクルを消滅させるためのパーテ
ィクルの終了処理を行う(ステップS820、S87
0)。
Next, when the transparency of the particle is 0 or less, a particle ending process for eliminating the particle is performed (steps S820 and S87).
0).

【0266】またパーティクルの透明度が0以下でない
場合には、パーティクルの移動計算を行い当該フレーム
におけるパーティクル位置を求める(ステップS82
0、S830)。パーティクルの移動演算は、例えば各
フレームにおけるパーティクルの位置はエミッターやフ
ォースに基づき流体計算、衝突計算、運動計算等のパー
ティクルの3次元空間における位置を決定する演算を行
い決定されることになる。
If the transparency of the particles is not less than 0, the movement of the particles is calculated to obtain the particle position in the frame (step S82).
0, S830). In the particle movement calculation, for example, the position of the particle in each frame is determined by performing a calculation for determining the position of the particle in the three-dimensional space, such as fluid calculation, collision calculation, and motion calculation, based on the emitter and the force.

【0267】次に求めた位置の高さに関する値が所定の
値になった場合には、当該パーティクルを消滅させるた
めのパーティクルの終了処理を行う(ステップS84
0、S870)。
When the value regarding the height of the obtained position has reached a predetermined value, a particle ending process for extinguishing the particle is performed (step S84).
0, S870).

【0268】また求めた位置の高さに関する値が所定の
値になっていない場合には、パーティクルを用いた描画
処理を行う(ステップS840、S850)。
If the value regarding the height of the obtained position is not the predetermined value, a drawing process using particles is performed (steps S840 and S850).

【0269】そして次フレームの処理を行う場合には再
びステップS810〜S860の処理を繰り返す(ステ
ップS860)。
If the processing of the next frame is to be performed, the processing of steps S810 to S860 is repeated again (step S860).

【0270】(5)FOG効果の処理削減 例えば水しぶき等のオブジェクトが仮想カメラからの距
離に応じて背景に溶け込んでいく様子をリアルに表現す
る場合等のようにFOG効果を出す場合には、デプスキ
ューイング処理を行う。例えばポリゴンオブジェクトに
対してデプスキューイング処理を行う場合には、各頂点
ごとにその頂点の奥行き値に応じてその頂点色と背景色
の合成を行い、奥行き値に応じてその頂点色を変化させ
る。
(5) Processing Reduction of FOG Effect When an FOG effect is to be produced, for example, in a case where an object such as a splash is realistically expressed in a manner in which the object merges into the background in accordance with the distance from the virtual camera, the depth is reduced. Perform queuing processing. For example, when depth queuing is performed on a polygon object, for each vertex, the vertex color and the background color are synthesized according to the depth value of the vertex, and the vertex color is changed according to the depth value. .

【0271】本実施の形態では水しぶき等を1のパーテ
ィクル発生地点から発生する多数のパーティクルにパー
ティクルオブジェクトを割り当て、これらパーティクル
オブジェクトの集合(パーティクル集合オブジェクト)
として生成する。
In the present embodiment, a particle object is assigned to a large number of particles that generate splashes from one particle generation point, and a set of these particle objects (particle set object)
Generate as

【0272】従って水しぶきに対してFOG効果を出す
ためには、パーティクル集合オブジェクトを構成する各
パーティクルオブジェクトの頂点ごとにデプスキューイ
ング処理が必要となるため、処理負荷が著しく増大する
ことになる。
Therefore, in order to produce the FOG effect against the splash, the depth queuing process is required for each vertex of each particle object constituting the particle set object, so that the processing load is significantly increased.

【0273】そこで本実施の形態では、少ない処理負荷
でFOG効果を出すために以下のような処理を行ってい
る。
Therefore, in the present embodiment, the following processing is performed in order to produce the FOG effect with a small processing load.

【0274】図29はFOG効果の処理削減について説
明するための図である。
FIG. 29 is a diagram for explaining the reduction in the processing of the FOG effect.

【0275】610は水しぶきを表現するための第1の
パーティクル集合オブジェクトであり、第1のパーティ
クル発生地点から発生したパーティクルにパーティクル
オブジェクトを割り当てこれらパーティクルオブジェク
トの集合として構成されている。ここで612及び61
4は第1のパーティクル集合オブジェクトに属する第1
及び第2のパーティクルである。
[0275] Reference numeral 610 denotes a first particle set object for expressing splashes, and a particle object is assigned to particles generated from the first particle generation point, and is configured as a set of these particle objects. Where 612 and 61
4 is the first belonging to the first particle set object
And second particles.

【0276】また620は水しぶきを表現するための第
2のパーティクル集合オブジェクトであり、第2のパー
ティクル発生地点から発生したパーティクルにパーティ
クルオブジェクトを割り当てこれらパーティクルオブジ
ェクトの集合として構成されている。ここで622及び
624は第2のパーティクル集合オブジェクトに属する
第3及び第4のパーティクルである。
[0276] Reference numeral 620 denotes a second particle set object for expressing splashes. The particle object is assigned to particles generated from the second particle generation point, and is configured as a set of these particle objects. Here, 622 and 624 are third and fourth particles belonging to the second particle aggregate object.

【0277】ここで本実施の形態では第1のパーティク
ル集合オブジェクト及び第2のパーティクル集合オブジ
ェクトに水しぶきを表現するための基準色を設定する。
この基準色は第1のパーティクル集合オブジェクトと第
2のパーティクル集合オブジェクトで同じ色にしてもよ
いし、異なる色にしてもよい。
Here, in the present embodiment, a reference color for expressing a splash is set for the first particle set object and the second particle set object.
This reference color may be the same color for the first particle aggregate object and the second particle aggregate object, or may be different colors.

【0278】そして当該基準色と各パーティクル集合オ
ブジェクトのパーティクル発生地点の奥行き値に基づき
デプスキューング処理を行い、前記デプスキューング処
理で得られた色をパーティクル集合オブジェクトのベー
スカラーとし、同一のパーティクル発生地点から発生し
たパーティクル集合に属する各パーティクルに対して前
記ベースカラーを用いてデプスキューング効果を適用し
て画像生成処理を行う。
A depth skew process is performed based on the reference color and the depth value of the particle generation point of each particle aggregate object, and the color obtained by the depth skew process is used as the base color of the particle aggregate object, and the same particle An image generation process is performed on each particle belonging to a particle set generated from the generation point by applying a depth skew effect using the base color.

【0279】すなわち第1のパーティクル集合オブジェ
クト610に属する第1のパーティクル612及び第2
のパーティクル614に対しては、第1のパーティクル
集合オブジェクト610のベースカラーを用いてデプス
キューング効果を適用して画像生成処理を行う。
That is, the first particle 612 and the second particle 612 belonging to the first particle
For the particles 614, image generation processing is performed by applying a depth skew effect using the base color of the first particle aggregate object 610.

【0280】また第2のパーティクル集合オブジェクト
610に属する第3のパーティクル622及び第4のパ
ーティクル624に対しては、第2のパーティクル集合
オブジェクト620のベースカラーを用いてデプスキュ
ーング効果を適用して画像生成処理を行う。
The depth skewing effect is applied to the third particles 622 and the fourth particles 624 belonging to the second particle aggregate object 610 by using the base color of the second particle aggregate object 620. Perform image generation processing.

【0281】従って第1のパーティクル集合オブジェク
ト及び第2のパーティクル集合オブジェクトを構成する
各パーティクルに対してそれぞれにデプスキューング処
理を行う場合に比べ大幅に処理を削減することができ
る。
Therefore, it is possible to greatly reduce the processing as compared with the case where the depth skewing processing is individually performed on each of the particles constituting the first particle collection object and the second particle collection object.

【0282】なおここでは説明を簡単にするために61
2、614、622、624をパーティクルとして話を
進めたが、パーティクルに割り当てられたパーティクル
オブジェクトの頂点であってもよい。
It should be noted that here, 61
2, 614, 622, and 624 have been described as particles, but may be vertices of the particle object assigned to the particles.

【0283】図30(A)(B)(C)は、本実施の形
態で行うデプスキューング処理について説明するための
図である。
FIGS. 30A, 30B, and 30C are diagrams for explaining the depth squeezing process performed in this embodiment.

【0284】図30(A)はR(赤)についてのデプス
キューング処理を説明するための図である。縦軸はR
(赤)の値であり横軸はパーティクル発生地点の奥行き
値(Z)である。また630はパーティクル集合オブジ
ェクトに設定された基準色のRの値であり、640は背
景色のRの値である。そして635は奥行き値に基づき
ベースカラーのRの値を求めるための関数曲線である。
FIG. 30A is a diagram for explaining the depth skewing process for R (red). The vertical axis is R
(Red), and the horizontal axis represents the depth value (Z) of the particle generation point. Reference numeral 630 denotes the R value of the reference color set for the particle aggregate object, and 640 denotes the R value of the background color. Reference numeral 635 is a function curve for obtaining the value of R of the base color based on the depth value.

【0285】例えばパーティクル発生地点の奥行き値が
Z1である場合にはベースカラーのRの値のR1とな
り、パーティクル発生地点の奥行き値がZ2である場合
にはベースカラーのRの値のR2となる。
For example, when the depth value of the particle generation point is Z1, the value of the base color R is R1. When the depth value of the particle generation point is Z2, the value of the base color R is R2. .

【0286】図30(B)はG(緑)についてのデプス
キューング処理を説明するための図である。縦軸はG
(緑)の値であり横軸はパーティクル発生地点の奥行き
値(Z)である。また650はパーティクル集合オブジ
ェクトに設定された基準色のRの値であり、660は背
景色のGの値である。そして655は奥行き値に基づき
ベースカラーのGの値を求めるための関数曲線である。
FIG. 30B is a diagram for explaining the depth skewing process for G (green). The vertical axis is G
(Green), and the horizontal axis is the depth value (Z) of the particle generation point. Also, 650 is the value of R of the reference color set for the particle aggregate object, and 660 is the value of G of the background color. Reference numeral 655 denotes a function curve for calculating the value of the base color G based on the depth value.

【0287】例えばパーティクル発生地点の奥行き値が
Z1である場合にはベースカラーのGの値のG1とな
り、パーティクル発生地点の奥行き値がZ2である場合
にはベースカラーのGの値のG2となる。
For example, when the depth value of the particle generation point is Z1, the base color G value is G1. When the particle generation point is Z2, the base color G value is G2. .

【0288】図30(C)はB(青)についてのデプス
キューング処理を説明するための図である。縦軸は B
(青)の値であり横軸はパーティクル発生地点の奥行き
値(Z)である。また670はパーティクル集合オブジ
ェクトに設定された基準色のBの値であり、680は背
景色のBの値である。そして675は奥行き値に基づき
ベースカラーのBの値を求めるための関数曲線である。
FIG. 30C is a diagram for explaining the depth skewing process for B (blue). The vertical axis is B
(Blue) and the horizontal axis is the depth value (Z) of the particle generation point. 670 is the B value of the reference color set for the particle aggregate object, and 680 is the B value of the background color. Reference numeral 675 denotes a function curve for obtaining the value of B of the base color based on the depth value.

【0289】例えばパーティクル発生地点の奥行き値が
Z1である場合にはベースカラーのBの値のB1とな
り、パーティクル発生地点の奥行き値がZ2である場合
にはベースカラーのBの値のB2となる。
For example, when the depth value of the particle generation point is Z1, the value is B1 of the base color B, and when the depth value of the particle generation point is Z2, the value is B2 of the base color B value. .

【0290】(6)ポリゴン分割によるページング発生
防止 例えばメモリ資源に制約のあるハードウエアを用いて画
像生成を行う場合、VRAM(フレームバッファ)の実
記憶領域の容量も限られている。このため大きなポリゴ
ンをVRAM(フレームバッファ)に描画しようとする
とページングが発生し処理時間が増大することになる。
(6) Prevention of Paging Occurrence by Polygon Division For example, when an image is generated using hardware having a limited memory resource, the capacity of a real storage area of a VRAM (frame buffer) is also limited. Therefore, when trying to draw a large polygon in a VRAM (frame buffer), paging occurs and the processing time increases.

【0291】そこで本実施の形態では、パーティクルオ
ブジェクトの奥行き情報又は仮想カメラからの距離が大
きくなった場合にパーティクルに割り当てるオブジェク
トを構成するポリゴンの分割数を大きくすることでかか
るページングの発生を防止している。
Therefore, in the present embodiment, when the depth information of the particle object or the distance from the virtual camera increases, the number of polygons constituting the object allocated to the particle is increased to prevent the occurrence of such paging. ing.

【0292】図31は本実施の形態のポリゴン分割の一
例について説明するためのフローチャート図である。
FIG. 31 is a flowchart for explaining an example of polygon division according to the present embodiment.

【0293】まず処理対象パーティクルの奥行き情報を
取得する(ステップS910)。
First, depth information of a particle to be processed is obtained (step S910).

【0294】次に奥行き値に基づき分割数を変更するか
否か判断し、変更する場合にはパーティクルオブジェク
トを構成するポリゴンやスプライトを分割する処理を行
う(ステップS920、S930)。
Next, it is determined whether or not to change the number of divisions based on the depth value, and if so, processing for dividing the polygons and sprites constituting the particle object is performed (steps S920 and S930).

【0295】図32はパーティクルオブジェクトを構成
するスプライト(板ポリゴン)を分割する様子を表した
図である。710は分割前のスプライト(板ポリゴン)
であり、720は分割後のスプライト(板ポリゴン)で
ある。
FIG. 32 is a diagram showing a state in which sprites (plate polygons) constituting a particle object are divided. 710 is a sprite (plate polygon) before division
And 720 is a sprite (plate polygon) after division.

【0296】分割数を変更するかいなかは、例えば奥行
き情報が所定の値になったかいなかによって決めてもよ
いし、例えば奥行き情報に基づきパーティクルのソーテ
ィング処理を行い、手前から所定個数に属するパーティ
クルに割り当てられたオブジェクトに当該ポリゴンやス
プライトが属するか否かによって決めてもよい。
Whether or not to change the number of divisions may be determined, for example, depending on whether or not the depth information has reached a predetermined value. For example, a sorting process of particles is performed based on the depth information, and the number of particles belonging to the predetermined number from the near side is determined. The determination may be made depending on whether the polygon or sprite belongs to the assigned object.

【0297】3.ハードウェア構成 次に、本実施形態を実現できるハードウェアの構成の一
例について図33を用いて説明する。
[0297] 3. Hardware Configuration Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG.

【0298】メインプロセッサ900は、CD982
(情報記憶媒体)に格納されたプログラム、通信インタ
ーフェース990を介して転送されたプログラム、或い
はROM950(情報記憶媒体の1つ)に格納されたプ
ログラムなどに基づき動作し、ゲーム処理、画像処理、
音処理などの種々の処理を実行する。
The main processor 900 is a CD982
(Information storage medium), a program transferred via the communication interface 990, or a program stored in the ROM 950 (one of the information storage media).
Various processes such as sound processing are executed.

【0299】コプロセッサ902は、メインプロセッサ
900の処理を補助するものであり、高速並列演算が可
能な積和算器や除算器を有し、マトリクス演算(ベクト
ル演算)を高速に実行する。例えば、オブジェクトを移
動させたり動作(モーション)させるための物理シミュ
レーションに、マトリクス演算などの処理が必要な場合
には、メインプロセッサ900上で動作するプログラム
が、その処理をコプロセッサ902に指示(依頼)す
る。
The coprocessor 902 assists the processing of the main processor 900, has a multiply-accumulate unit and a divider capable of high-speed parallel operation, and executes a matrix operation (vector operation) at high speed. For example, when a process such as a matrix operation is required for a physical simulation for moving or moving an object (motion), a program operating on the main processor 900 instructs the coprocessor 902 to perform the process (request ).

【0300】ジオメトリプロセッサ904は、座標変
換、透視変換、光源計算、曲面生成などのジオメトリ処
理を行うものであり、高速並列演算が可能な積和算器や
除算器を有し、マトリクス演算(ベクトル演算)を高速
に実行する。例えば、座標変換、透視変換、光源計算な
どの処理を行う場合には、メインプロセッサ900で動
作するプログラムが、その処理をジオメトリプロセッサ
904に指示する。
The geometry processor 904 performs geometry processing such as coordinate transformation, perspective transformation, light source calculation, and curved surface generation. The geometry processor 904 includes a multiply-accumulate unit and a divider capable of performing high-speed parallel operations, and performs a matrix operation (vector operation). Calculation) at high speed. For example, when performing processing such as coordinate transformation, perspective transformation, and light source calculation, a program operating on the main processor 900 instructs the geometry processor 904 to perform the processing.

【0301】データ伸張プロセッサ906は、圧縮され
た画像データや音データを伸張するデコード処理を行っ
たり、メインプロセッサ900のデコード処理をアクセ
レートする処理を行う。これにより、オープニング画
面、インターミッション画面、エンディング画面、或い
はゲーム画面などにおいて、所与の画像圧縮方式で圧縮
された動画像を表示できるようになる。なお、デコード
処理の対象となる画像データや音データは、ROM95
0、CD982に格納されたり、或いは通信インターフ
ェース990を介して外部から転送される。
The data decompression processor 906 performs a decoding process for decompressing the compressed image data and sound data, and performs a process for accelerating the decoding process of the main processor 900. Thus, a moving image compressed by a given image compression method can be displayed on an opening screen, an intermission screen, an ending screen, a game screen, or the like. The image data and sound data to be decoded are stored in the ROM 95.
0, stored in the CD 982, or transferred from the outside via the communication interface 990.

【0302】描画プロセッサ910は、ポリゴンや曲面
などのプリミティブ面で構成されるオブジェクトの描画
(レンダリング)処理を高速に実行するものである。オ
ブジェクトの描画の際には、メインプロセッサ900
は、DMAコントローラ970の機能を利用して、オブ
ジェクトデータを描画プロセッサ910に渡すと共に、
必要であればテクスチャ記憶部924にテクスチャを転
送する。すると、描画プロセッサ910は、これらのオ
ブジェクトデータやテクスチャに基づいて、Zバッファ
などを利用した陰面消去を行いながら、オブジェクトを
フレームバッファ922に高速に描画する。また、描画
プロセッサ910は、αブレンディング(半透明処
理)、デプスキューイング、ミップマッピング、フォグ
処理、トライリニア・フィルタリング、アンチエリアシ
ング、シェーディング処理なども行うことができる。そ
して、1フレーム分の画像がフレームバッファ922に
書き込まれると、その画像はディスプレイ912に表示
される。
The drawing processor 910 executes a high-speed drawing (rendering) process of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900
Uses the function of the DMA controller 970 to pass object data to the drawing processor 910,
If necessary, the texture is transferred to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 at high speed while performing hidden surface removal using a Z buffer or the like based on the object data and the texture. The drawing processor 910 can also perform α blending (translucent processing), depth queuing, mip mapping, fog processing, trilinear filtering, anti-aliasing, shading processing, and the like. Then, when an image for one frame is written to the frame buffer 922, the image is displayed on the display 912.

【0303】サウンドプロセッサ930は、多チャンネ
ルのADPCM音源などを内蔵し、BGM、効果音、音
声などの高品位のゲーム音を生成する。生成されたゲー
ム音は、スピーカ932から出力される。
[0303] The sound processor 930 incorporates a multi-channel ADPCM sound source and the like, and generates high-quality game sounds such as BGM, sound effects, and sounds. The generated game sound is output from the speaker 932.

【0304】ゲームコントローラ942からの操作デー
タや、メモリカード944からのセーブデータ、個人デ
ータは、シリアルインターフェース940を介してデー
タ転送される。
[0304] Operation data from the game controller 942, save data and personal data from the memory card 944 are transferred via the serial interface 940.

【0305】ROM950にはシステムプログラムなど
が格納される。なお、業務用ゲームシステムの場合に
は、ROM950が情報記憶媒体として機能し、ROM
950に各種プログラムが格納されることになる。な
お、ROM950の代わりにハードディスクを利用する
ようにしてもよい。
The ROM 950 stores a system program and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium,
Various programs are stored in 950. Note that a hard disk may be used instead of the ROM 950.

【0306】RAM960は、各種プロセッサの作業領
域として用いられる。
The RAM 960 is used as a work area for various processors.

【0307】DMAコントローラ970は、プロセッ
サ、メモリ(RAM、VRAM、ROM等)間でのDM
A転送を制御するものである。
[0307] The DMA controller 970 provides a DM between the processor and the memory (RAM, VRAM, ROM, etc.).
A transfer is controlled.

【0308】CDドライブ980は、プログラム、画像
データ、或いは音データなどが格納されるCD982
(情報記憶媒体)を駆動し、これらのプログラム、デー
タへのアクセスを可能にする。
[0308] The CD drive 980 stores CD982 in which programs, image data, sound data, and the like are stored.
(Information storage medium) to enable access to these programs and data.

【0309】通信インターフェース990は、ネットワ
ークを介して外部との間でデータ転送を行うためのイン
ターフェースである。この場合に、通信インターフェー
ス990に接続されるネットワークとしては、通信回線
(アナログ電話回線、ISDN)、高速シリアルバスな
どを考えることができる。そして、通信回線を利用する
ことでインターネットを介したデータ転送が可能にな
る。また、高速シリアルバスを利用することで、他のゲ
ームシステムとの間でのデータ転送が可能になる。
[0309] The communication interface 990 is an interface for transferring data to and from the outside via a network. In this case, a network connected to the communication interface 990 may be a communication line (analog telephone line, ISDN), a high-speed serial bus, or the like. Then, data can be transferred via the Internet by using a communication line. Further, by using the high-speed serial bus, data transfer with another game system becomes possible.

【0310】なお、本発明の各手段は、その全てを、ハ
ードウェアのみにより実行してもよいし、情報記憶媒体
に格納されるプログラムや通信インターフェースを介し
て配信されるプログラムのみにより実行してもよい。或
いは、ハードウェアとプログラムの両方により実行して
もよい。
[0310] Each means of the present invention may be entirely executed by hardware alone, or executed only by a program stored in an information storage medium or a program distributed via a communication interface. Is also good. Alternatively, it may be executed by both hardware and a program.

【0311】そして、本発明の各手段をハードウェアと
プログラムの両方により実行する場合には、情報記憶媒
体には、本発明の各手段をハードウェアを利用して実行
するためのプログラムが格納されることになる。より具
体的には、上記プログラムが、ハードウェアである各プ
ロセッサ902、904、906、910、930等に
処理を指示すると共に、必要であればデータを渡す。そ
して、各プロセッサ902、904、906、910、
930等は、その指示と渡されたデータとに基づいて、
本発明の各手段を実行することになる。
When each means of the present invention is executed by both hardware and a program, a program for executing each means of the present invention using hardware is stored in the information storage medium. Will be. More specifically, the program instructs the processors 902, 904, 906, 910, 930, etc., which are hardware, to perform processing, and passes data if necessary. Then, each processor 902, 904, 906, 910,
930 etc., based on the instruction and the passed data,
Each means of the present invention will be executed.

【0312】図34(A)に、本実施形態を業務用ゲー
ムシステムに適用した場合の例を示す。プレーヤは、デ
ィスプレイ1100上に映し出されたゲーム画像を見な
がら、レバー1102、ボタン1104等を操作してゲ
ームを楽しむ。内蔵されるシステムボード(サーキット
ボード)1106には、各種プロセッサ、各種メモリな
どが実装される。そして、本発明の各手段を実行するた
めの情報(プログラム或いはデータ)は、システムボー
ド1106上の情報記憶媒体であるメモリ1108に格
納される。以下、この情報を格納情報と呼ぶ。
FIG. 34A shows an example in which the present embodiment is applied to an arcade game system. The player enjoys the game by operating the lever 1102, the button 1104, and the like while watching the game image projected on the display 1100. Various processors, various memories, and the like are mounted on a built-in system board (circuit board) 1106. Information (program or data) for executing each unit of the present invention is stored in a memory 1108 which is an information storage medium on the system board 1106. Hereinafter, this information is referred to as storage information.

【0313】図34(B)に、本実施形態を家庭用のゲ
ームシステムに適用した場合の例を示す。プレーヤはデ
ィスプレイ1200に映し出されたゲーム画像を見なが
ら、ゲームコントローラ1202、1204を操作して
ゲームを楽しむ。この場合、上記格納情報は、本体シス
テムに着脱自在な情報記憶媒体であるCD1206、或
いはメモリカード1208、1209等に格納されてい
る。
FIG. 34B shows an example in which the present embodiment is applied to a home game system. The player enjoys the game by operating the game controllers 1202 and 1204 while watching the game image projected on the display 1200. In this case, the stored information is stored in a CD 1206 or a memory card 1208, 1209, which is an information storage medium detachable from the main system.

【0314】図34(C)に、ホスト装置1300と、
このホスト装置1300とネットワーク1302(LA
Nのような小規模ネットワークや、インターネットのよ
うな広域ネットワーク)を介して接続される端末130
4-1〜1304-nとを含むシステムに本実施形態を適用
した場合の例を示す。この場合、上記格納情報は、例え
ばホスト装置1300が制御可能な磁気ディスク装置、
磁気テープ装置、メモリ等の情報記憶媒体1306に格
納されている。端末1304-1〜1304-nが、スタン
ドアロンでゲーム画像、ゲーム音を生成できるものであ
る場合には、ホスト装置1300からは、ゲーム画像、
ゲーム音を生成するためのゲームプログラム等が端末1
304-1〜1304-nに配送される。一方、スタンドア
ロンで生成できない場合には、ホスト装置1300がゲ
ーム画像、ゲーム音を生成し、これを端末1304-1〜
1304-nに伝送し端末において出力することになる。
FIG. 34C shows a host device 1300,
The host device 1300 and the network 1302 (LA
N or a wide area network such as the Internet).
An example in which the present embodiment is applied to a system including 4-1 to 1304-n will be described. In this case, the storage information is, for example, a magnetic disk device that can be controlled by the host device 1300,
The information is stored in an information storage medium 1306 such as a magnetic tape device and a memory. When the terminals 1304-1 to 1304-n are capable of generating a game image and a game sound in a stand-alone manner, the game image,
A game program or the like for generating a game sound is transmitted to the terminal 1.
It is delivered to 304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, and transmits them to the terminal
1304-n and output at the terminal.

【0315】なお、図34(C)の構成の場合に、本発
明の各手段を、ホスト装置(サーバー)と端末とで分散
して実行するようにしてもよい。また、本発明の各手段
を実行するための上記格納情報を、ホスト装置(サーバ
ー)の情報記憶媒体と端末の情報記憶媒体に分散して格
納するようにしてもよい。
In the case of the configuration shown in FIG. 34 (C), each means of the present invention may be executed in a distributed manner between a host device (server) and a terminal. Further, the storage information for executing each means of the present invention may be stored separately in an information storage medium of a host device (server) and an information storage medium of a terminal.

【0316】またネットワークに接続する端末は、家庭
用ゲームシステムであってもよいし業務用ゲームシステ
ムであってもよい。そして、業務用ゲームシステムをネ
ットワークに接続する場合には、業務用ゲームシステム
との間で情報のやり取りが可能であると共に家庭用ゲー
ムシステムとの間でも情報のやり取りが可能な携帯型情
報記憶装置(メモリカード、携帯型ゲーム装置)を用い
ることが望ましい。
The terminal connected to the network may be a home game system or an arcade game system. When the arcade game system is connected to a network, the portable information storage device is capable of exchanging information with the arcade game system and exchanging information with the home game system. (Memory card, portable game device) is desirable.

【0317】なお本発明は、上記実施形態で説明したも
のに限らず、種々の変形実施が可能である。
The present invention is not limited to the embodiment described above, and various modifications can be made.

【0318】例えば、本発明のうち従属請求項に係る発
明においては、従属先の請求項の構成要件の一部を省略
する構成とすることもできる。また、本発明の1の独立
請求項に係る発明の要部を、他の独立請求項に従属させ
ることもできる。
For example, in the invention according to the dependent claims of the present invention, a configuration in which some of the constituent elements of the dependent claims are omitted may be adopted. In addition, a main part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.

【0319】また、本発明の手法により表現できる表示
物は水しぶきには限定されず、例えば、花火、爆発、稲
光、光るアメーバ等、形が不定形に変形しながら光を照
射する種々の表示物を表現できる。
The display objects that can be expressed by the method of the present invention are not limited to splashes. For example, fireworks, explosions, lightning, shining amoebae, and various other display objects that emit light while deforming into an irregular shape. Can be expressed.

【0320】また、パーティクルの制御手法も本実施の
形態で説明した手法に限定されるものではない。
[0320] The method of controlling particles is not limited to the method described in the present embodiment.

【0321】また、本実施形態では、オブジェクトがポ
リゴンで構成される場合について主に説明したが、自由
曲面などの他の形態のプリミティブ面でオブジェクトが
構成される場合も本発明の範囲に含まれる。
In the present embodiment, the case where the object is composed of polygons has been mainly described. However, the case where the object is composed of other types of primitive surfaces such as a free-form surface is also included in the scope of the present invention. .

【0322】また本発明は種々のゲーム(格闘ゲーム、
シューティングゲーム、ロボット対戦ゲーム、スポーツ
ゲーム、競争ゲーム、ロールプレイングゲーム、音楽演
奏ゲーム、ダンスゲーム等)に適用できる。
The present invention also relates to various games (fighting games,
Shooting games, robot fighting games, sports games, competition games, role playing games, music playing games, dance games, etc.).

【0323】また本発明は、業務用ゲームシステム、家
庭用ゲームシステム、多数のプレーヤが参加する大型ア
トラクションシステム、シミュレータ、マルチメディア
端末、ゲーム画像を生成するシステムボード等の種々の
ゲームシステム(画像生成システム)に適用できる。
The present invention also provides various game systems (image generation systems) such as a business game system, a home game system, a large attraction system in which many players participate, a simulator, a multimedia terminal, and a system board for generating game images. System).

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態の画像生成システム(ゲームシステ
ム)のブロック図の一例を示す。
FIG. 1 shows an example of a block diagram of an image generation system (game system) of the present embodiment.

【図2】本実施の形態の画像生成装置により生成したゲ
ーム画像の一例を表している。
FIG. 2 shows an example of a game image generated by the image generation device of the present embodiment.

【図3】本実施の形態の画像生成装置で水しぶきの画像
を生成する際の全体的な処理の流れについて説明するた
めのフローチャート図である。
FIG. 3 is a flowchart for explaining an overall processing flow when an image of a splash is generated by the image generation device of the present embodiment;

【図4】本実施の形態の画像生成装置で水しぶきの画像
を生成する際の全体的な処理の流れについて説明するた
めのフローチャート図である。
FIG. 4 is a flowchart illustrating an overall processing flow when an image of a splash is generated by the image generating apparatus according to the present embodiment;

【図5】図5(A)(B)はパーティクルの発生地点単
位で描画順序を判断する様子を説明するための図であ
る。
FIGS. 5A and 5B are diagrams for explaining how to determine a drawing order for each particle generation point; FIG.

【図6】図6(A)(B)(C)はパーティクルの発生
地点に基づく描画順序の決定処理について説明するため
の図である。
FIGS. 6A, 6B, and 6C are diagrams for explaining a drawing order determination process based on a particle generation point;

【図7】図7(A)(B)(C)はパーティクルの発生
地点に基づく描画順序の決定処理について説明するため
の図である。
FIGS. 7A, 7B, and 7C are diagrams for describing a drawing order determination process based on a particle generation point;

【図8】図8(A)(B)は、ソーティング区間を設定
してソーティング処理の必要性を判断する例について説
明するための図である。
FIGS. 8A and 8B are diagrams for explaining an example in which a sorting section is set to determine the necessity of a sorting process.

【図9】本実施の形態において半透明描画処理を行う際
の描画順序決定処理の流れの一例について説明するため
のフローチャート図である。
FIG. 9 is a flowchart for explaining an example of a flow of a drawing order determination process when performing a translucent drawing process in the present embodiment.

【図10】図10(A)(B)(C)はプリミティブ単
位で描画順序を判断する場合について説明するための図
である。
FIGS. 10A, 10B, and 10C are diagrams for explaining a case in which a rendering order is determined for each primitive;

【図11】図11(A)(B)(C)はプリミティブ単
位で描画順序を判断する場合について説明するための図
である。
FIGS. 11A, 11B, and 11C are diagrams for explaining a case in which a rendering order is determined for each primitive;

【図12】図12(A)(B)はプリミティブの集合と
して構成されたオブジェクトの単位で描画順序を判断す
る場合について説明するための図である。
FIGS. 12A and 12B are diagrams for explaining a case where a drawing order is determined in units of objects configured as a set of primitives.

【図13】図13(A)(B)(C)はオブジェクトの
描画順序の決定について説明するための図である。
FIGS. 13A, 13B, and 13C are diagrams for explaining determination of an object drawing order;

【図14】図14(A)(B)(C)はオブジェクトの
描画順序の決定について説明するための図である。
FIGS. 14A, 14B, and 14C are diagrams for explaining determination of an object drawing order;

【図15】本実施の形態の半透明描画処理を行う際の描
画順序決定処理の流れの他の例について説明するための
フローチャート図である。
FIG. 15 is a flowchart for explaining another example of the flow of the rendering order determination process when performing the translucent rendering process of the present embodiment.

【図16】図16(A)(B)はパーティクルの水増し
について説明するための図である。
FIGS. 16A and 16B are diagrams for explaining padding of particles; FIGS.

【図17】図17(A)(B)は子パーティクルの位置
及びサイズの決定例について説明するための図である。
FIGS. 17A and 17B are diagrams for explaining an example of determining the position and size of a child particle.

【図18】図18(A)(B)は、生成した子パーティ
クルにパーティクルオブジェクトを割りあてる例につい
て説明するための図である。
FIGS. 18A and 18B are diagrams illustrating an example in which a particle object is assigned to a generated child particle.

【図19】図19(A)(B)はパーティクルの時間的
な連続性について説明するための図である。
FIGS. 19A and 19B are diagrams for explaining temporal continuity of particles; FIGS.

【図20】図20はパーティクルの水増し処理の流れを
説明するためのフローチャート図である。
FIG. 20 is a flowchart illustrating the flow of a particle inflating process;

【図21】図21は本実施の形態における処理負荷を軽
減するための処理の一例を説明するためのフローチャー
ト図である。
FIG. 21 is a flowchart illustrating an example of a process for reducing a processing load according to the present embodiment;

【図22】図22(A)(B)は処理負荷が低い場合と
処理負荷が高い場合の画像例である。
FIGS. 22A and 22B are image examples when the processing load is low and when the processing load is high.

【図23】奥行き情報を加味してパーティクル発生地点
の数を制御する例について説明するためのフローチャー
ト図である。
FIG. 23 is a flowchart for explaining an example of controlling the number of particle generation points in consideration of depth information.

【図24】図24(A)(B)は処理負荷が低い場合と
処理負荷が高い場合のパーティクル数について説明する
ための模式的な図である。
FIGS. 24A and 24B are schematic diagrams illustrating the number of particles when the processing load is low and when the processing load is high.

【図25】奥行き情報を加味してパーティクル発生地点
から発生するパーティクル数を制御する例について説明
するためのフローチャート図である。
FIG. 25 is a flowchart for explaining an example of controlling the number of particles generated from a particle generation point in consideration of depth information.

【図26】奥行き情報を加味してパーティクル発生地点
から発生させるパーティクルの調節を行う場合の処理の
流れについて説明するためのフローチャート図である。
FIG. 26 is a flowchart for explaining the flow of processing when adjusting particles generated from a particle generation point in consideration of depth information.

【図27】図27(A)はパーティクルに与えられた透
明度が所定値以下になった場合にパーティクルの描画処
理を省略する様子を模式的に表した図であり、図27
(B)はパーティクルの高さが一定以下になった場合に
パーティクルの描画処理を省略する様子を模式的に表し
た図である。
FIG. 27A is a diagram schematically illustrating a state in which the drawing processing of the particle is omitted when the transparency given to the particle becomes equal to or less than a predetermined value.
FIG. 3B is a diagram schematically illustrating a state in which the particle drawing processing is omitted when the height of the particles becomes equal to or less than a certain value.

【図28】パーティクルに与えられた透明度やパーティ
クルの高さに基づきパーティクルの描画処理を省略する
場合の処理の流れについて説明するためのフローチャー
ト図である。
FIG. 28 is a flowchart for explaining a processing flow in a case where particle rendering processing is omitted based on the transparency or particle height given to the particles.

【図29】FOG効果の処理削減について説明するため
の図である。
FIG. 29 is a diagram for describing processing reduction of the FOG effect.

【図30】図30(A)(B)(C)は、本実施の形態
で行うデプスキューング処理について説明するための図
である。
FIGS. 30A, 30B, and 30C are diagrams for describing depth skewing processing performed in the present embodiment.

【図31】本実施の形態のポリゴン分割の一例について
説明するためのフローチャート図である。
FIG. 31 is a flowchart illustrating an example of polygon division according to the present embodiment.

【図32】パーティクルオブジェクトを構成するスプラ
イト(板ポリゴン)を分割する様子を表した図である。
FIG. 32 is a diagram illustrating a state in which sprites (plate polygons) constituting a particle object are divided.

【図33】本実施形態を実現できるハードウェアの構成
の一例を示す図である。
FIG. 33 is a diagram illustrating an example of a hardware configuration capable of realizing the present embodiment.

【図34】図34(A)、(B)、(C)は、本実施形
態が適用される種々の形態のシステムの例を示す図であ
る。
FIGS. 34A, 34B, and 34C are diagrams illustrating examples of various types of systems to which the present embodiment is applied.

【符号の説明】[Explanation of symbols]

100 処理部 110 ゲーム処理部 120 画像生成部 130 描画順序決定処理部 132 パーティクル水増し処理部 134 パーティクル負荷軽減処理部 140 描画部 150 音生成部 160 操作部 170 記憶部 172 メインメモリ 174 フレームバッファ 180 情報記憶媒体 190 表示部 192 音出力部 194 携帯型情報記憶装置 196 通信部 REFERENCE SIGNS LIST 100 processing unit 110 game processing unit 120 image generation unit 130 drawing order determination processing unit 132 particle padding processing unit 134 particle load reduction processing unit 140 drawing unit 150 sound generation unit 160 operation unit 170 storage unit 172 main memory 174 frame buffer 180 information storage Medium 190 Display unit 192 Sound output unit 194 Portable information storage device 196 Communication unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C001 BC00 BC05 BC06 BC10 CB01 CC02 CC03 CC08 5B050 BA08 BA09 BA11 EA12 EA13 EA23 EA27 EA28 EA29 5B080 BA01 DA06 FA06 FA09 GA01 GA18  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2C001 BC00 BC05 BC06 BC10 CB01 CC02 CC03 CC08 5B050 BA08 BA09 BA11 EA12 EA13 EA23 EA27 EA28 EA29 5B080 BA01 DA06 FA06 FA09 GA01 GA18

Claims (33)

【特許請求の範囲】[Claims] 【請求項1】 画像生成を行うシステムであって、 画像生成時の処理負荷に関する情報に基づき、パーティ
クル発生地点の数、パーティクル数及びパーティクルの
寿命の少なくともひとつを変更する手段と、 パーティクルを用いてオブジェクト空間の所与の視点か
ら見える画像を生成する手段と、 含むことを特徴とする画像生成システム。
1. A system for generating an image, comprising: means for changing at least one of the number of particle generation points, the number of particles, and the life of the particles based on information on a processing load at the time of image generation; Means for generating an image viewable from a given viewpoint in object space;
【請求項2】 請求項1において、 前記パーティクル数は、一画面に存在するパーティクル
数又は所与の発生地点から発生させるパーティクル数で
あることを特徴とする画像生成システム。
2. The image generation system according to claim 1, wherein the number of particles is the number of particles existing on one screen or the number of particles generated from a given generation point.
【請求項3】 請求項1乃至2のいずれかにおいて、 パーティクルの奥行き情報に基づき仮想カメラから離れ
たパーティクルから優先して寿命を短くすることによ
り、処理負荷を軽減することを特徴とする画像生成シス
テム。
3. The image generation method according to claim 1, wherein the processing load is reduced by shortening the life of the particles farther from the virtual camera based on the depth information of the particles. system.
【請求項4】 請求項1乃至3のいずれかにおいて、 パーティクルの発生地点の奥行き情報に基づき仮想カメ
ラから離れたパーティクル発生地点から発生するパーテ
ィクル集合から優先して画像生成の対象外とすることに
より、処理負荷を軽減することを特徴とする画像生成シ
ステム。
4. The method according to claim 1, wherein a particle set generated from a particle generation point remote from the virtual camera is preferentially excluded from image generation based on depth information of the particle generation point. And an image generation system for reducing a processing load.
【請求項5】 請求項1乃至4のいずれかにおいて、 パーティクルの発生地点の奥行き情報に基づき仮想カメ
ラから離れたパーティクル発生地点から優先して発生さ
せるパーティクルの数を削減することにより、処理負荷
を軽減することを特徴とする画像生成システム。
5. The processing load according to claim 1, wherein the number of particles to be preferentially generated from a particle generation point far from the virtual camera is reduced based on depth information of the particle generation point. An image generation system characterized in that the image is reduced.
【請求項6】 請求項1乃至5のいずれかにおいて、 パーティクルの奥行き情報に基づき仮想カメラから離れ
たパーティクルに割り当てるオブジェクトから優先して
オブジェクトの精密度を下げることにより、処理負荷を
軽減することを特徴とする画像生成システム。
6. The method according to claim 1, wherein the processing load is reduced by lowering the precision of the object preferentially to an object assigned to a particle distant from the virtual camera based on the depth information of the particle. Characteristic image generation system.
【請求項7】 請求項1乃至6のいずれかにおいて、 パーティクル発生地点の奥行き情報に基づき仮想カメラ
から離れたパーティクル発生地点から発生したパーティ
クルに割り当てるオブジェクトから優先してオブジェク
トの精密度を下げることにより、処理負荷を軽減するこ
とを特徴とする画像生成システム。
7. The object according to claim 1, wherein the precision of the object is reduced by giving priority to an object assigned to a particle generated from a particle generation point distant from the virtual camera based on depth information of the particle generation point. And an image generation system for reducing a processing load.
【請求項8】 画像生成を行うシステムであって、 パーティクル又はパーティクルに割り当てたオブジェク
トに与えられた透明度が所定値より小さくなった場合に
は、当該パーティクル又はパーティクルに割り当てたオ
ブジェクトを画像生成の対象から除外する手段と、 パーティクルを用いてオブジェクト空間の所与の視点か
ら見える画像を生成する手段と、を含むことを特徴とす
る画像生成システム。
8. A system for generating an image, wherein when the degree of transparency given to a particle or an object assigned to a particle becomes smaller than a predetermined value, the object of the image generation is set to the particle or the object assigned to the particle. An image generation system, comprising: means for excluding from an object; and means for generating an image viewed from a given viewpoint in an object space using particles.
【請求項9】 画像生成を行うシステムであって、 パーティクルの高さが所定の値になったらパーティクル
又はパーティクルに割り当てたオブジェクトの消滅処理
を行う手段と、 パーティクルを用いてオブジェクト空間の所与の視点か
ら見える画像を生成する手段と、を含むことを特徴とす
る画像生成システム。
9. A system for generating an image, comprising: means for performing a process of extinguishing a particle or an object assigned to the particle when the height of the particle reaches a predetermined value; Means for generating an image visible from a viewpoint.
【請求項10】 請求項9において、 前記消滅処理には、所定時間経過後にパーティクル又は
パーティクルに割り当てたオブジェクトが消滅する場合
も含むことを特徴とする画像生成システム。
10. The image generation system according to claim 9, wherein the extinction processing includes a case where the particles or the objects assigned to the particles disappear after a predetermined time has elapsed.
【請求項11】 画像生成を行うシステムであって、 パーティクルの奥行き情報に基づきその前に視界をさえ
ぎるオブジェクトがあるか否か判断し、視界をさえぎる
オブジェクトがある場合には当該パーティクル又はパー
ティクルに割り当てたオブジェクトを画像生成の対象か
ら除外する手段と、 パーティクルを用いてオブジェクト空間の所与の視点か
ら見える画像を生成する手段と、を含むことを特徴とす
る画像生成システム。
11. A system for generating an image, wherein it is determined whether or not there is an object that blocks the field of view based on depth information of the particle, and if there is an object that blocks the field of view, the object is assigned to the particle or the particle. An image generation system, comprising: a unit for excluding an object from a target of image generation; and a unit for generating an image viewed from a given viewpoint in an object space using particles.
【請求項12】 画像生成を行うシステムであって、 同一のパーティクル発生地点から発生したパーティクル
集合によって表現するパーティクル集合オブジェクトに
対して設定された基準色に対してパーティクル発生地点
の奥行き情報に基づきデプスキューング処理を行う手段
と、 前記デプスキューング処理で得られた色をパーティクル
集合オブジェクトのベースカラーとし、同一のパーティ
クル発生地点から発生したパーティクル集合に属する各
パーティクルに対して前記ベースカラーを用いてデプス
キューング効果を適用して画像生成処理を行う手段と、 を含むことを特徴とする画像生成システム。
12. A system for generating an image, comprising: a depth based on depth information of a particle generation point with respect to a reference color set for a particle collection object expressed by a particle set generated from the same particle generation point. Means for performing cueing processing, using the color obtained by the depth cueing processing as a base color of a particle set object, and using the base color for each particle belonging to a particle set generated from the same particle generation point. Means for performing an image generation process by applying a depth cueing effect.
【請求項13】 画像生成を行うシステムであって、 パーティクルオブジェクトの奥行き情報、仮想カメラに
対する位置関係及びパーティクルオブジェクトを構成す
るプリミティブの画面に占める描画面積の割合の少なく
ともひとつに基づきパーティクルオブジェクトを構成す
るプリミティブの分割数を制御する手段と、 パーティクルを用いてオブジェクト空間の所与の視点か
ら見える画像を生成する手段と、 を含むことを特徴とする画像生成システム。
13. A system for generating an image, wherein a particle object is formed based on at least one of depth information of the particle object, a positional relationship with respect to a virtual camera, and a ratio of a drawing area of a primitive constituting the particle object to a screen. An image generation system, comprising: means for controlling the number of divisions of a primitive; and means for generating an image viewed from a given viewpoint in an object space using particles.
【請求項14】 請求項13において、 パーティクルオブジェクトの奥行き情報又は仮想カメラ
からの距離が大きくなった場合にパーティクルオブジェ
クトを構成するプリミティブの分割数を大きくすること
を特徴とする画像生成システム。
14. The image generation system according to claim 13, wherein when the depth information of the particle object or the distance from the virtual camera increases, the number of divisions of primitives constituting the particle object is increased.
【請求項15】 請求項13において、 パーティクルオブジェクトを構成するプリミティブの画
面に占める描画面積の割合が大きくなった場合にはパー
ティクルを構成するプリミティブの分割数を大きくする
ことを特徴とする画像生成システム。
15. The image generation system according to claim 13, wherein the number of divisions of the primitives constituting the particles is increased when the ratio of the drawing area of the primitives constituting the particle object to the screen increases. .
【請求項16】 請求項13乃至15のいずれかにおい
て、 パーティクルに割り当てたプリミティブを再分割するこ
とで分割数を大きくすることを特徴とする画像生成シス
テム。
16. The image generation system according to claim 13, wherein the number of divisions is increased by subdividing a primitive assigned to a particle.
【請求項17】 コンピュータが使用可能なプログラム
であって、 画像生成時の処理負荷に関する情報に基づき、パーティ
クル発生地点の数、パーティクル数及びパーティクルの
寿命の少なくともひとつを変更する手段と、 パーティクルを用いてオブジェクト空間の所与の視点か
ら見える画像を生成する手段と、 をコンピュータに実現させることを特徴とするプログラ
ム。
17. A computer-usable program, comprising: means for changing at least one of the number of particle generation points, the number of particles, and the life of particles based on information on a processing load at the time of image generation; Means for generating an image which can be viewed from a given viewpoint in an object space by using a computer.
【請求項18】 請求項17において、 前記パーティクル数は、一画面に存在するパーティクル
数又は所与の発生地点から発生させるパーティクル数で
あることを特徴とするプログラム。
18. The program according to claim 17, wherein the number of particles is the number of particles existing on one screen or the number of particles generated from a given generation point.
【請求項19】 請求項17乃至18のいずれかにおい
て、 パーティクルの奥行き情報に基づき仮想カメラから離れ
たパーティクルから優先して寿命を短くすることによ
り、処理負荷を軽減することを特徴とするプログラム。
19. The program according to claim 17, wherein the processing load is reduced by shortening the life of the particles preferentially from the particles far from the virtual camera based on the depth information of the particles.
【請求項20】 請求項17乃至19のいずれかにおい
て、 パーティクルの発生地点の奥行き情報に基づき仮想カメ
ラから離れたパーティクル発生地点から発生するパーテ
ィクル集合から優先して画像生成の対象外とすることに
より、処理負荷を軽減することを特徴とするプログラ
ム。
20. The method according to claim 17, wherein a particle set generated from a particle generation point distant from the virtual camera is preferentially excluded from image generation based on depth information of the particle generation point. And a program for reducing the processing load.
【請求項21】 請求項17乃至20のいずれかにおい
て、 パーティクルの発生地点の奥行き情報に基づき仮想カメ
ラから離れたパーティクル発生地点から優先して発生さ
せるパーティクルの数を削減することにより、処理負荷
を軽減することを特徴とするプログラム。
21. The processing load according to claim 17, wherein the number of particles generated preferentially from a particle generation point far from the virtual camera is reduced based on depth information of the particle generation point. A program characterized by reduction.
【請求項22】 請求項17乃至21のいずれかにおい
て、 パーティクルの奥行き情報に基づき仮想カメラから離れ
たパーティクルに割り当てるオブジェクトから優先して
オブジェクトの精密度を下げることにより、処理負荷を
軽減することを特徴とするプログラム。
22. The method according to claim 17, wherein the processing load is reduced by lowering the precision of the object by giving priority to an object assigned to a particle distant from the virtual camera based on the depth information of the particle. Features program.
【請求項23】 請求項17乃至22のいずれかにおい
て、 パーティクル発生地点の奥行き情報に基づき仮想カメラ
から離れたパーティクル発生地点から発生したパーティ
クルに割り当てるオブジェクトから優先してオブジェク
トの精密度を下げることにより、処理負荷を軽減するこ
とを特徴とするプログラム。
23. The method according to claim 17, wherein the precision of the object is reduced by giving priority to an object assigned to a particle generated from a particle generation point distant from the virtual camera based on depth information of the particle generation point. And a program for reducing the processing load.
【請求項24】 コンピュータが使用可能なプログラム
であって、 パーティクル又はパーティクルに割り当てたオブジェク
トに与えられた透明度が所定値より小さくなった場合に
は、当該パーティクル又はパーティクルに割り当てたオ
ブジェクトを画像生成の対象から除外する手段と、 パーティクルを用いてオブジェクト空間の所与の視点か
ら見える画像を生成する手段と、 をコンピュータに実現させることを特徴とするプログラ
ム。
24. A computer-usable program, wherein when the transparency given to a particle or an object assigned to a particle becomes smaller than a predetermined value, the particle or the object assigned to the particle is used for image generation. A program for causing a computer to execute: means for excluding from an object; and means for generating an image viewed from a given viewpoint in an object space using particles.
【請求項25】 コンピュータが使用可能なプログラム
であって、 パーティクルの高さが所定の値になったらパーティクル
又はパーティクルに割り当てたオブジェクトの消滅処理
を行う手段と、 パーティクルを用いてオブジェクト空間の所与の視点か
ら見える画像を生成する手段と、 をコンピュータに実現させることを特徴とするプログラ
ム。
25. A computer-usable program, comprising: means for erasing a particle or an object assigned to the particle when the height of the particle reaches a predetermined value; and providing a given object space using the particle. Means for generating an image that can be viewed from the viewpoint of a computer, and a program that causes a computer to realize the following.
【請求項26】 請求項25において、 前記消滅処理には、所定時間経過後にパーティクル又は
パーティクルに割り当てたオブジェクトが消滅する場合
も含むことを特徴とするプログラム。
26. The program according to claim 25, wherein the extinction processing includes a case where the particles or objects assigned to the particles disappear after a lapse of a predetermined time.
【請求項27】 コンピュータが使用可能なプログラム
であって、 パーティクルの奥行き情報に基づきその前に視界をさえ
ぎるオブジェクトがあるか否か判断し、視界をさえぎる
オブジェクトがある場合には当該パーティクル又はパー
ティクルに割り当てたオブジェクトを画像生成の対象か
ら除外する手段と、 パーティクルを用いてオブジェクト空間の所与の視点か
ら見える画像を生成する手段と、 をコンピュータに実現させることを特徴とするプログラ
ム。
27. A computer-usable program that determines whether there is an object that blocks a view before the object based on depth information of the particle. A program for causing a computer to realize: means for excluding an assigned object from a target of image generation; and means for generating an image viewed from a given viewpoint in an object space using particles.
【請求項28】 コンピュータが使用可能なプログラム
であって、 同一のパーティクル発生地点から発生したパーティクル
集合によって表現するパーティクル集合オブジェクトに
対して設定された基準色に対してパーティクル発生地点
の奥行き情報に基づきデプスキューング処理を行う手段
と、 前記デプスキューング処理で得られた色をパーティクル
集合オブジェクトのベースカラーとし、同一のパーティ
クル発生地点から発生したパーティクル集合に属する各
パーティクルに対して前記ベースカラーを用いてデプス
キューング効果を適用して画像生成処理を行う手段と、 をコンピュータに実現させることを特徴とするプログラ
ム。
28. A computer-usable program, based on depth information of a particle generation point with respect to a reference color set for a particle collection object expressed by a particle collection generated from the same particle generation point. Means for performing a depth skewing process, using the color obtained by the depth skewing process as a base color of a particle set object, and using the base color for each particle belonging to a particle set generated from the same particle generation point. And a means for performing an image generation process by applying a depth skew effect to a computer.
【請求項29】 コンピュータが使用可能なプログラム
であって、 パーティクルオブジェクトの奥行き情報、仮想カメラに
対する位置関係及びパーティクルオブジェクトを構成す
るプリミティブの画面に占める描画面積の割合の少なく
ともひとつに基づきパーティクルオブジェクトを構成す
るプリミティブの分割数を制御する手段と、 パーティクルを用いてオブジェクト空間の所与の視点か
ら見える画像を生成する手段と、 をコンピュータに実現させることを特徴とするプログラ
ム。
29. A program usable by a computer, wherein a particle object is formed based on at least one of depth information of a particle object, a positional relationship with respect to a virtual camera, and a ratio of a drawing area of a primitive constituting the particle object to a screen. A program for causing a computer to realize: means for controlling the number of divided primitives to be executed; and means for generating an image viewed from a given viewpoint in an object space using particles.
【請求項30】 請求項29において、 パーティクルオブジェクトの奥行き情報又は仮想カメラ
からの距離が大きくなった場合にパーティクルオブジェ
クトを構成するプリミティブの分割数を大きくすること
を特徴とするプログラム。
30. The program according to claim 29, wherein when the depth information of the particle object or the distance from the virtual camera increases, the number of divisions of primitives constituting the particle object is increased.
【請求項31】 請求項29において、 パーティクルオブジェクトを構成するプリミティブの画
面に占める描画面積の割合が大きくなった場合にはパー
ティクルを構成するプリミティブの分割数を大きくする
ことを特徴とするプログラム。
31. The program according to claim 29, wherein when the ratio of a drawing area occupied by a primitive constituting a particle object to a screen increases, the number of divisions of the primitive constituting the particle is increased.
【請求項32】 請求項29乃至31のいずれかにおい
て、 パーティクルに割り当てたプリミティブを再分割するこ
とで分割数を大きくすることを特徴とするプログラム。
32. The program according to claim 29, wherein the number of divisions is increased by subdividing a primitive assigned to a particle.
【請求項33】 コンピュータにより使用可能な情報記
憶媒体であって、請求項17乃至32のいずれかのプロ
グラムを含むことを特徴とする情報記憶媒体。
33. An information storage medium usable by a computer, wherein the information storage medium includes the program according to any one of claims 17 to 32.
JP2001005781A 2001-01-12 2001-01-12 Image generation system, program, and information storage medium Expired - Fee Related JP4656615B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001005781A JP4656615B2 (en) 2001-01-12 2001-01-12 Image generation system, program, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001005781A JP4656615B2 (en) 2001-01-12 2001-01-12 Image generation system, program, and information storage medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010258979A Division JP2011076620A (en) 2010-11-19 2010-11-19 Image generation system, program, and information storage medium

Publications (3)

Publication Number Publication Date
JP2002216155A true JP2002216155A (en) 2002-08-02
JP2002216155A5 JP2002216155A5 (en) 2008-02-28
JP4656615B2 JP4656615B2 (en) 2011-03-23

Family

ID=18873777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001005781A Expired - Fee Related JP4656615B2 (en) 2001-01-12 2001-01-12 Image generation system, program, and information storage medium

Country Status (1)

Country Link
JP (1) JP4656615B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006118043A1 (en) * 2005-04-26 2006-11-09 Sega Corporation Data structure for expressing video object, program for generating data structure for expressing video object, method for generating data structure for expressing video object, video software development device, image processing program, video processing method, video processing device, and recording medium
JP2006344199A (en) * 2005-05-13 2006-12-21 Sony Computer Entertainment Inc Image display device, method of controlling image display device and program
JP2007133687A (en) * 2005-11-10 2007-05-31 Samii Kk Image generator, game machine, image generation method, and program
JP2007188502A (en) * 2006-01-11 2007-07-26 Samsung Electronics Co Ltd Method and system of rendering particle
JP2008243120A (en) * 2007-03-29 2008-10-09 Nec Corp Special effect moving picture generating method and special effect moving picture generating device
JP2013504127A (en) * 2009-09-03 2013-02-04 アドバンスト・マイクロ・ディバイシズ・インコーポレイテッド Hardware based scheduling of GPU work
CN110033516A (en) * 2019-04-16 2019-07-19 重庆交通大学 Flat-elongated particles detection method of content based on the identification of binocular camera Image Acquisition
KR20200114921A (en) * 2019-03-25 2020-10-07 트라이픽스주식회사 Method for load reduction using automatic control of observation image and head-mounted display using the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09231400A (en) * 1996-02-20 1997-09-05 Namco Ltd Method and device for synthesizing picture
WO2000002165A1 (en) * 1998-07-03 2000-01-13 Sega Enterprises, Ltd. Method for generating polygon data and image display using the same
JP2000039130A (en) * 1998-05-19 2000-02-08 Nkk Corp Refuse incinerator with operation supporting device
JP2000215323A (en) * 1995-07-07 2000-08-04 Namco Ltd Game system and image compositing method
JP2000242807A (en) * 1999-02-23 2000-09-08 Fujitsu Ltd Three-dimensional polygon display device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215323A (en) * 1995-07-07 2000-08-04 Namco Ltd Game system and image compositing method
JPH09231400A (en) * 1996-02-20 1997-09-05 Namco Ltd Method and device for synthesizing picture
JP2000039130A (en) * 1998-05-19 2000-02-08 Nkk Corp Refuse incinerator with operation supporting device
WO2000002165A1 (en) * 1998-07-03 2000-01-13 Sega Enterprises, Ltd. Method for generating polygon data and image display using the same
JP2000242807A (en) * 1999-02-23 2000-09-08 Fujitsu Ltd Three-dimensional polygon display device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006118043A1 (en) * 2005-04-26 2006-11-09 Sega Corporation Data structure for expressing video object, program for generating data structure for expressing video object, method for generating data structure for expressing video object, video software development device, image processing program, video processing method, video processing device, and recording medium
JP2006309336A (en) * 2005-04-26 2006-11-09 Sega Corp Data structure, data structure generation program, data structure generation method for image object expression, image software development device, image processing program, image processing method, image processing device, and recording medium
JP2006344199A (en) * 2005-05-13 2006-12-21 Sony Computer Entertainment Inc Image display device, method of controlling image display device and program
JP2007133687A (en) * 2005-11-10 2007-05-31 Samii Kk Image generator, game machine, image generation method, and program
JP4730897B2 (en) * 2005-11-10 2011-07-20 サミー株式会社 Image processing device
JP2007188502A (en) * 2006-01-11 2007-07-26 Samsung Electronics Co Ltd Method and system of rendering particle
JP2008243120A (en) * 2007-03-29 2008-10-09 Nec Corp Special effect moving picture generating method and special effect moving picture generating device
JP2013504127A (en) * 2009-09-03 2013-02-04 アドバンスト・マイクロ・ディバイシズ・インコーポレイテッド Hardware based scheduling of GPU work
KR20200114921A (en) * 2019-03-25 2020-10-07 트라이픽스주식회사 Method for load reduction using automatic control of observation image and head-mounted display using the same
KR102224057B1 (en) 2019-03-25 2021-03-09 트라이픽스 주식회사 Method for load reduction using automatic control of observation image and head-mounted display using the same
CN110033516A (en) * 2019-04-16 2019-07-19 重庆交通大学 Flat-elongated particles detection method of content based on the identification of binocular camera Image Acquisition
CN110033516B (en) * 2019-04-16 2022-06-24 重庆交通大学 Needle flake particle content detection method based on binocular camera image acquisition and recognition

Also Published As

Publication number Publication date
JP4656615B2 (en) 2011-03-23

Similar Documents

Publication Publication Date Title
EP2158948A2 (en) Image generation system, image generation method, and information storage medium
JP4610748B2 (en) Image generation system, program, and information storage medium
JP4656615B2 (en) Image generation system, program, and information storage medium
JP4502678B2 (en) Program, information storage medium, and image generation system
JP2002063596A (en) Game system, program and information storage medium
JP2007164582A (en) Program, information storage medium and image generation system
JP2009129167A (en) Program, information storage medium, and image generation system
JP2007272356A (en) Program, information storage medium and image generation system
JP4743770B2 (en) Image generation system, program, and information storage medium
US7164421B2 (en) Image generation system, program, and information storage medium
JP2003044876A (en) Image generation system, program, and information storage medium
JP4743733B2 (en) Image generation system, program, and information storage medium
JP4721382B2 (en) Image generation system, program, and information storage medium
JP2006285510A (en) Program, information storage medium, and image generation system
JP4698032B2 (en) Image generation system, program, and information storage medium
JP3254195B2 (en) Image generation system and information storage medium
JP2003175274A (en) Game system and information memory medium
JP4574058B2 (en) Image generation system, program, and information storage medium
JP2011076620A (en) Image generation system, program, and information storage medium
JP4592087B2 (en) Image generation system, program, and information storage medium
JP2005128687A (en) Program, information storage medium, and image generation system
JP2006318196A (en) Program, information storage medium and image generation system
JP4803909B2 (en) Image generation system, program, and information storage medium
JP2003162734A (en) Game system and information storage medium
JP3538392B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100922

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4656615

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees