JP2009140135A - Game program, recording medium with the game program recorded thereon, and computer - Google Patents

Game program, recording medium with the game program recorded thereon, and computer Download PDF

Info

Publication number
JP2009140135A
JP2009140135A JP2007314418A JP2007314418A JP2009140135A JP 2009140135 A JP2009140135 A JP 2009140135A JP 2007314418 A JP2007314418 A JP 2007314418A JP 2007314418 A JP2007314418 A JP 2007314418A JP 2009140135 A JP2009140135 A JP 2009140135A
Authority
JP
Japan
Prior art keywords
shadow
dynamic
data
pixel
static
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007314418A
Other languages
Japanese (ja)
Other versions
JP2009140135A5 (en
JP4995054B2 (en
Inventor
Mikio Ueda
幹夫 上田
Yoshiaki Hirabayashi
良章 平林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2007314418A priority Critical patent/JP4995054B2/en
Publication of JP2009140135A publication Critical patent/JP2009140135A/en
Publication of JP2009140135A5 publication Critical patent/JP2009140135A5/ja
Application granted granted Critical
Publication of JP4995054B2 publication Critical patent/JP4995054B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To display overlapped shadows of an object without causing any incompatibility. <P>SOLUTION: A two-dimensional image is created on a frame buffer by using luminance data of a static object B, the shadow BS and a dynamic object C, and whether to plot a shadow CS of the dynamic object C is determined based on the position relation of light L and the dynamic object C for every pixel of the created two-dimensional image, and whether or not the shadow of the static object B exists is determined based on the luminance data of the shadow of the static object B for the pixel where it is determined that the shadow CS of the dynamic object C should be plotted, and the luminance data of the shadow CS of the dynamic object C are set based on the decision result. Then, the shadow CS of the dynamic object C is plotted based on the set luminance data of the shadow CS of the dynamic object C for the pixel where it is determined that the shadow CS of the dynamic object C of the frame buffer should be plotted. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、三次元の仮想空間内に配置されるオブジェクトをスクリーン画像に投影することにより二次元画像に変換してモニタに表示させるゲーム装置に適用されるゲームプログラムに関し、またそのゲームプログラムを記録した記録媒体、及びコンピュータに関するものである。   The present invention relates to a game program applied to a game device for converting an object arranged in a three-dimensional virtual space onto a screen image to convert it into a two-dimensional image and displaying it on a monitor, and recording the game program The present invention relates to a recording medium and a computer.

従来、三次元のコンピュータグラフィックス(Computer Graphics、以下、「三次元のコンピュータグラフィックス」を「三次元CG」という。)を用いた映像によってゲーム展開を表示するゲーム装置が知られている。この種のゲーム装置に用いられる三次元CGの映像を作成する際には、数値化データとして与えられたオブジェクト(例えば物体や図形等)に関する情報を演算によって二次元画像にして生成する、いわゆるレンダリング処理が用いられている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, there is known a game apparatus that displays a game development using video using three-dimensional computer graphics (hereinafter referred to as “three-dimensional computer graphics”). When creating a three-dimensional CG image used in this type of game device, so-called rendering is performed in which information about an object (for example, an object or a figure) given as digitized data is generated as a two-dimensional image by calculation. Processing is used (for example, see Patent Document 1).

特開平9−153142号公報JP-A-9-153142

レンダリング処理では、二次元画像を作成する際、ゲーム画面の背景となる動くことのない、例えば建物等の不透明なオブジェクトの画像データやそのオブジェクトの影(以下、「静的シャドウ」という。)の画像データ等がフレームバッファに書き込まれる。フレームバッファとは、二次元画像としてのディジタル画像を画素の集まりとして記録するメモリのことである。また、レンダリング処理では、例えばゲームに登場するキャラクタの画像データも、フレームバッファに書き込まれる。   In the rendering process, when creating a two-dimensional image, image data of an opaque object that does not move and becomes a background of the game screen, such as a building, and the shadow of the object (hereinafter referred to as “static shadow”). Image data and the like are written into the frame buffer. The frame buffer is a memory that records a digital image as a two-dimensional image as a collection of pixels. In the rendering process, for example, image data of characters appearing in the game is also written in the frame buffer.

一方、例えばキャラクタの影等の、移動したり形が変化したりする影(以下、「動的シャドウ」という。)は、オーバーラップ画像として上記オブジェクトの画像データにブレンディング(合成)されることによりフレームバッファに書き込まれる。   On the other hand, a shadow that moves or changes its shape (hereinafter referred to as “dynamic shadow”) such as a shadow of a character is blended (synthesized) with the image data of the object as an overlap image. Written to the frame buffer.

ゲーム上の各種の場面においては、上記静的シャドウと動的シャドウとが重なることがある。すなわち、例えば図11に示すように、ライトLからの光が照射されている建物Bがあり、ライトLによって生じる、建物Bの影(静的シャドウ)BSの部分にキャラクタCが移動した場合を想定すると、建物Bの影BSにキャラクタCの影(動的シャドウ)CSが重なる状態となる。   In various scenes on the game, the static shadow and the dynamic shadow may overlap. That is, for example, as shown in FIG. 11, there is a building B irradiated with light from the light L, and the character C moves to a shadow (static shadow) BS portion of the building B caused by the light L. Assuming that the shadow BS of the building B overlaps with the shadow (dynamic shadow) CS of the character C.

この場合、フレームバッファ上で静的シャドウBSの画像データに対して動的シャドウCSの画像データが合成されると、静的シャドウBSと動的シャドウCSとの重なり部分が視覚的に濃くなり、すなわちその部分の輝度が低くなり、不自然に表示されてしまうことがある。特に例えばほぼ同じ色相、同じ明度の静的シャドウBSと動的シャドウCSとが重なった場合、重なり部分は視覚的に濃くなる。   In this case, when the image data of the dynamic shadow CS is synthesized with the image data of the static shadow BS on the frame buffer, the overlapping portion of the static shadow BS and the dynamic shadow CS becomes visually dark, That is, the luminance of the portion may be lowered and displayed unnaturally. In particular, for example, when the static shadow BS and the dynamic shadow CS having substantially the same hue and the same brightness overlap, the overlapping portion becomes visually dark.

ここで、仮に輝度値の最低値「0」を白色、輝度値の最高値「1」を黒色とし、例えば、静的シャドウBS及び動的シャドウCSの輝度値をそれぞれ仮に「0.5」とした場合、静的シャドウBS及び動的シャドウCSの輝度値の合計は、「0.5+0.5」で「1」になる。つまり、静的シャドウBSと動的シャドウCSとの重なり部分は、ほぼ黒色になってしまい、プレーヤに不自然な印象を与えてしまうことがあった。   Here, it is assumed that the lowest luminance value “0” is white and the highest luminance value “1” is black. For example, the luminance values of the static shadow BS and the dynamic shadow CS are assumed to be “0.5”. In this case, the sum of the luminance values of the static shadow BS and the dynamic shadow CS is “0.5 + 0.5” and becomes “1”. In other words, the overlapping portion between the static shadow BS and the dynamic shadow CS becomes almost black, which may give an unnatural impression to the player.

特に、近年のゲーム装置では、描画処理が向上し、よりリアルな映像を表現することが可能となってきているため、このような不自然な印象を与える映像部分は、他の映像部分に比べより目立ってしまい、プレーヤに違和感を与えてしまうことになる。   In particular, in recent game devices, drawing processing has been improved and it has become possible to express more realistic images. Therefore, video parts that give such an unnatural impression are compared to other video parts. This will make it more noticeable and give the player a sense of incongruity.

本願発明は、上記した事情のもとで考え出されたものであって、オブジェクトの影同士が重なる部分を違和感なく表示することのできるゲームプログラム及びそのゲームプログラムを記録した記録媒体、及びコンピュータを提供することを、その課題とする。   The invention of the present application has been conceived under the circumstances described above, and includes a game program capable of displaying a portion where shadows of objects overlap each other without a sense of incongruity, a recording medium storing the game program, and a computer. The issue is to provide.

上記の課題を解決するため、本願発明では、次の技術的手段を講じている。   In order to solve the above problems, the present invention takes the following technical means.

本願発明の第1の側面によって提供されるゲームプログラムは、コンピュータを、三次元の仮想空間内に固定的に配置される1以上の静的なオブジェクトとその仮想空間内に動作可能に配置される1以上の動的なオブジェクトとを所定の視点から投影した二次元画像を作成し、表示画面に表示するためのゲーム装置として機能させるためのゲームプログラムであって、前記コンピュータを、フレームバッファの画素ごとに、前記静的なオブジェクトの輝度データとその影の輝度データと前記動的なオブジェクトの輝度データとを用い前記二次元画像を前記フレームバッファ上に作成する画像作成手段と、前記画像作成手段により作成された前記フレームバッファ上の二次元画像について、画素ごとに、所定の光源と動的なオブジェクトとの位置関係に基づいて前記動的なオブジェクトの影を描画するか否かを判別する第1判別手段と、前記第1判別手段によって前記動的なオブジェクトの影が描画されると判別された画素において、前記静的なオブジェクトの影の輝度データに基づいて前記静的なオブジェクトの影が存在するか否かを判別する第2判別手段と、前記第2判別手段による判別結果に基づいて、前記動的なオブジェクトの影の輝度データを設定する影データ設定手段と、前記フレームバッファの前記動的なオブジェクトの影を描くべき画素に対して、前記影データ設定手段によって設定された前記動的なオブジェクトの影の輝度データに基づいて、前記動的なオブジェクトの影を描画する描画手段と、して機能させることを特徴としている(請求項1)。   In the game program provided by the first aspect of the present invention, a computer is operably disposed in one or more static objects that are fixedly disposed in a three-dimensional virtual space and the virtual space. A game program for creating a two-dimensional image in which one or more dynamic objects are projected from a predetermined viewpoint, and causing the computer to function as a game device for displaying on a display screen. Image creating means for creating the two-dimensional image on the frame buffer using brightness data of the static object, brightness data of the shadow thereof, and brightness data of the dynamic object for each frame; and For the two-dimensional image on the frame buffer created by the above, the position of a predetermined light source and a dynamic object for each pixel. A first determination unit that determines whether or not to draw a shadow of the dynamic object based on a relationship; and a pixel that is determined by the first determination unit to draw a shadow of the dynamic object, A second discriminating unit that discriminates whether or not a shadow of the static object exists based on luminance data of the shadow of the static object; and the dynamic unit based on a discrimination result by the second discriminating unit. A shadow data setting means for setting brightness data of a shadow of a simple object, and the dynamic object of the dynamic object set by the shadow data setting means with respect to a pixel in which the shadow of the dynamic object in the frame buffer is to be drawn. It is characterized by functioning as a drawing means for drawing a shadow of the dynamic object based on shadow luminance data.

このゲームプログラムによれば、フレームバッファの画素ごとに、静的なオブジェクトの輝度データとその影の輝度データと動的なオブジェクトの輝度データとを用いて二次元画像がフレームバッファ上に作成される。この場合、フレームバッファ上の画素ごとに、所定の光源と動的なオブジェクトとの位置関係に基づいて動的なオブジェクトの影を描画するか否かが判別され、動的なオブジェクトの影が描画されると判別された画素において、静的なオブジェクトの影の輝度データに基づいて静的なオブジェクトの影が存在するか否かが判別され、換言すれば、動的なオブジェクトの影と静的なオブジェクトの影とが重なっているか否かが判別される。例えば動的なオブジェクトの影と静的なオブジェクトの影とが重なっている場合、動的なオブジェクトの影の輝度データが適切な値に設定される。そして、フレームバッファの動的なオブジェクトの影を描くべき画素に対して、設定された動的なオブジェクトの影の輝度データに基づいて、動的なオブジェクトの影が適切に描画される。   According to this game program, for each pixel of the frame buffer, a two-dimensional image is created on the frame buffer using the luminance data of the static object, the luminance data of the shadow thereof, and the luminance data of the dynamic object. . In this case, for each pixel on the frame buffer, whether or not to draw a dynamic object shadow is determined based on the positional relationship between a predetermined light source and the dynamic object, and the dynamic object shadow is drawn. It is determined whether or not there is a static object shadow based on the luminance data of the static object shadow, in other words, the dynamic object shadow and the static It is determined whether or not the shadow of the correct object overlaps. For example, when the shadow of a dynamic object and the shadow of a static object overlap, the luminance data of the shadow of the dynamic object is set to an appropriate value. Then, the shadow of the dynamic object is appropriately drawn based on the set luminance data of the shadow of the dynamic object with respect to the pixel in which the shadow of the dynamic object of the frame buffer is to be drawn.

好ましい実施の形態によれば、前記コンピュータを、前記第1判別手段によって前記動的なオブジェクトの影が描画されると判別された画素において、前記静的なオブジェクトの影の輝度データと、その画素における予め定められた前記動的なオブジェクトの影の輝度データとを加算する加算手段として機能させ、前記第2判別手段は、前記静的なオブジェクトの影の輝度データに代えて、前記加算手段による加算データと所定の閾値とを比較した比較結果に基づいて前記静的なオブジェクトの影が存在するか否かを判別するとよい(請求項2)。   According to a preferred embodiment, in the pixel determined by the first determination means that the shadow of the dynamic object is drawn, the luminance data of the static object shadow and the pixel Functioning as addition means for adding the predetermined shadow luminance data of the dynamic object in the second object, and the second determination means uses the addition means instead of the static luminance data of the shadow of the object. It is preferable to determine whether or not there is a shadow of the static object based on a comparison result obtained by comparing the added data with a predetermined threshold (claim 2).

他の好ましい実施の形態によれば、前記第2判別手段は、前記加算データが前記所定の閾値より大である場合、前記静的なオブジェクトの影が存在すると判別し、前記加算データが前記所定の閾値以下である場合、前記静的なオブジェクトの影が存在しないと判別し、前記影データ設定手段は、前記第2判別手段によって前記静的なオブジェクトの影が存在すると判別された場合、前記静的なオブジェクトの影の輝度データと前記動的なオブジェクトの影の輝度データとの減算値を、前記動的なオブジェクトの影の輝度データとして設定し、前記第2判別手段によって前記静的なオブジェクトの影が存在しないと判別された場合、前記動的なオブジェクトの影の輝度データを設定するとよい(請求項3)。   According to another preferred embodiment, the second determination means determines that a shadow of the static object exists when the addition data is greater than the predetermined threshold, and the addition data is the predetermined data. The shadow object setting means determines that the shadow of the static object does not exist, and the shadow data setting means determines that the shadow of the static object exists by the second determination means, A subtraction value between the shadow brightness data of the static object and the shadow brightness data of the dynamic object is set as the brightness data of the shadow of the dynamic object, and the static data is set by the second determination unit. When it is determined that the shadow of the object does not exist, the dynamic brightness data of the shadow of the object may be set.

他の好ましい実施の形態によれば、前記静的なオブジェクトの影の輝度データは、予め記憶手段に記憶されているライトマップに含まれており、前記加算手段は、前記静的なオブジェクトの影の輝度データとして、前記第1判別手段によって前記動的なオブジェクトの影が描画されると判別された画素に対応する輝度データを、前記ライトマップから読み出して用いるとよい(請求項4)。   According to another preferred embodiment, the luminance data of the shadow of the static object is included in a light map stored in advance in the storage means, and the addition means As the brightness data, brightness data corresponding to a pixel determined to have a shadow of the dynamic object drawn by the first determining means may be read from the light map and used.

他の好ましい実施の形態によれば、前記加算手段は、前記静的なオブジェクトの影の輝度データ及び前記動的なオブジェクトの影の輝度データに対して補正値を付与する補正値付与手段を含むとよい(請求項5)。   According to another preferred embodiment, the adding means includes correction value giving means for giving a correction value to the shadow brightness data of the static object and the shadow brightness data of the dynamic object. (Claim 5).

本願発明の第2の側面によって提供される記憶媒体は、本願発明の第1の側面によって提供されるゲームプログラムを記録したコンピュータ読み取り可能なものであることを特徴としている(請求項6)。   The storage medium provided by the second aspect of the present invention is readable by a computer recording the game program provided by the first aspect of the present invention (claim 6).

本願発明の第3の側面によって提供されるコンピュータは、本願発明の第1の側面によって提供されるゲームプログラムを実行することを特徴としている(請求項7)。   The computer provided by the third aspect of the present invention is characterized by executing the game program provided by the first aspect of the present invention (Claim 7).

本願発明のその他の特徴および利点は、添付図面を参照して以下に行う詳細な説明によって、より明らかとなろう。   Other features and advantages of the present invention will become more apparent from the detailed description given below with reference to the accompanying drawings.

本願発明によれば、フレームバッファの動的なオブジェクトの影を描くべき画素に対して、設定された動的なオブジェクトの影の輝度データに基づいて、動的なオブジェクトの影が適切に描画されるので、静的なオブジェクトの影と動的なオブジェクトの影同士が重なる部分を自然な描写で違和感なく表示することができる。   According to the present invention, the dynamic object shadow is appropriately drawn based on the set luminance data of the dynamic object shadow for the pixel in the frame buffer where the dynamic object shadow should be drawn. Therefore, it is possible to display the portion where the shadow of the static object and the shadow of the dynamic object overlap with each other with a natural description.

以下、本願発明の好ましい実施の形態を、添付図面を参照して具体的に説明する。   Hereinafter, preferred embodiments of the present invention will be specifically described with reference to the accompanying drawings.

図1は、本願発明に係るゲームプログラムが適用されるゲーム装置の一例を示すブロック構成図である。ゲーム装置1は、家庭用として用いられるテレビゲーム機であり、ゲームプログラム及びゲームデータが記録されたDVD−ROM(Digital Versatile Disc−ROM)から当該ゲームプログラム及びゲームデータを装置内のメモリ(RAM)に読み込み、CPUによってゲームプログラムを実行させることにより、プレーヤがゲーム内容を楽しむことができるものである。   FIG. 1 is a block diagram showing an example of a game apparatus to which a game program according to the present invention is applied. The game apparatus 1 is a television game machine used for home use, and the game program and game data are stored in a memory (RAM) in the apparatus from a DVD-ROM (Digital Versatile Disc-ROM) in which the game program and game data are recorded. And the game program is executed by the CPU so that the player can enjoy the game contents.

上記ゲーム装置1は、一例として家庭用のテレビゲーム機とされているが、このゲーム装置1は、家庭用のテレビゲーム機に限らず、携帯型ゲーム機、アーケードゲーム機等の他の種類のゲーム機、又はゲーム機以外の三次元映像を表示する装置、例えばゲームプログラムがローディングされたパーソナルコンピュータ等であってもよい。   Although the game apparatus 1 is a home video game machine as an example, the game apparatus 1 is not limited to a home video game machine, but may be other types such as a portable game machine and an arcade game machine. It may be a game machine or a device that displays 3D video other than the game machine, such as a personal computer loaded with a game program.

ゲーム装置1は、CPU2、描画データ生成プロセッサ3、RAM4、ROM5、描画処理プロセッサ6、VRAM(Video-RAM)7、D/A(Digital-Analog)コンバータ8、音声処理プロセッサ9、アンプ10、インターフェース(I/F)11、DVD−ROMドライブ12及びバス13によって構成されている。   The game apparatus 1 includes a CPU 2, a drawing data generation processor 3, a RAM 4, a ROM 5, a drawing processor 6, a VRAM (Video-RAM) 7, a D / A (Digital-Analog) converter 8, a sound processor 9, an amplifier 10, and an interface. (I / F) 11, a DVD-ROM drive 12, and a bus 13.

ゲーム装置1には、通常、ゲーム内容を表示するためのテレビジョン装置(図略)が接続される。このテレビジョン装置のブラウン管や液晶ディスプレイ等の表示装置は、D/Aコンバータ8に外部接続されるモニタ14として利用される。上記テレビジョン装置には、内蔵のスピーカが設けられ、この内蔵スピーカは、アンプ10に外部接続されるスピーカ15として利用される。   The game apparatus 1 is usually connected to a television apparatus (not shown) for displaying game contents. A display device such as a cathode ray tube or a liquid crystal display of the television device is used as a monitor 14 externally connected to the D / A converter 8. The television apparatus is provided with a built-in speaker, and this built-in speaker is used as a speaker 15 externally connected to the amplifier 10.

ゲーム装置1では、ゲームプログラム及びゲームデータが記録されたDVD−ROM17をDVD−ROMドライブ12に装着し、DVD−ROMドライブ12によってDVD−ROM17内のゲームプログラム及びゲームデータをRAM4に読み込み、CPU2によってゲームプログラムを実行することにより、プレーヤがゲーム内容を楽しむことができるようになっている。   In the game apparatus 1, a DVD-ROM 17 in which a game program and game data are recorded is mounted on the DVD-ROM drive 12, the game program and game data in the DVD-ROM 17 are read into the RAM 4 by the DVD-ROM drive 12, and the CPU 2. By executing the game program, the player can enjoy the game contents.

ゲームプログラムには、CPU2に実行させるための処理手順や各種命令等が記述されており、その中には、操作コントローラ16からの操作信号に応じてゲーム画面や音声等を制御するための内容が含まれている。本実施形態では、ゲームプログラムには、二次元映像において複数のオブジェクト(例えばゲーム画面に描画される建物やゲーム上に登場するキャラクタ)の影同士が重なった場合に、本願特有のレンダリング処理によって違和感のないより自然な影を表示させるようにするプログラムが含まれる。   The game program describes processing procedures and various instructions to be executed by the CPU 2, and includes contents for controlling the game screen, sound, and the like according to operation signals from the operation controller 16. include. In this embodiment, in the game program, when shadows of a plurality of objects (for example, a building drawn on the game screen or a character appearing on the game) overlap each other in the two-dimensional video image, the rendering process unique to the present application causes a sense of incongruity. Includes a program that allows more natural shadows to be displayed.

また、ゲームデータには、キャラクタや建物の画像データ、ステータス等の情報表示用の画像データ、効果音やBGM等の音声データ、及び文字や記号によるメッセージデータ等が含まれる。   The game data includes image data of characters and buildings, image data for displaying information such as status, sound data such as sound effects and BGM, message data using characters and symbols, and the like.

ゲーム装置1には、インターフェース(I/F)11を介して操作コントローラ16が接続され、プレーヤは、この操作コントローラ16の操作部材を操作することによりゲームを進行させることができる。   An operation controller 16 is connected to the game apparatus 1 via an interface (I / F) 11, and the player can advance the game by operating an operation member of the operation controller 16.

CPU2、描画データ生成プロセッサ3、RAM4、ROM5、描画処理プロセッサ6、音声処理プロセッサ9、インターフェース(I/F)11及びDVD−ROMドライブ12は、バス13によって相互にデータ伝送可能に接続されている。   The CPU 2, the drawing data generation processor 3, the RAM 4, the ROM 5, the drawing processing processor 6, the sound processing processor 9, the interface (I / F) 11, and the DVD-ROM drive 12 are connected to each other via a bus 13 so that data transmission is possible. .

CPU2は、上記のように、DVD−ROMドライブ12によってDVD−ROM17からRAM4に読み込まれるゲームプログラムを実行することにより、ゲーム進行を統括的に制御する。より具体的には、CPU2は、操作コントローラ16からプレーヤによる操作信号が入力されると、ゲームプログラムにしたがってその操作信号に対する所定のゲーム進行処理を行う。   As described above, the CPU 2 executes the game program read from the DVD-ROM 17 to the RAM 4 by the DVD-ROM drive 12, thereby controlling the game progress in an integrated manner. More specifically, when an operation signal from the player is input from the operation controller 16, the CPU 2 performs a predetermined game progress process for the operation signal in accordance with the game program.

CPU2は、例えばモニタ14に表示すべき三次元映像の内容を決定し、その内容に対して必要な描画データを描画データ生成プロセッサ3に生成させ、その描画データを描画処理プロセッサ6に転送して描画処理を行わせ、描画処理結果をモニタ14に三次元映像として表示する。また、CPU2は、スピーカ15から出力すべき効果音又はBGM等の音響内容を決定し、音声処理プロセッサ9にその音響内容に対応した音声データを生成させ、その音声データをスピーカ15から出力させる。   For example, the CPU 2 determines the content of the 3D video to be displayed on the monitor 14, causes the drawing data generation processor 3 to generate drawing data necessary for the content, and transfers the drawing data to the drawing processor 6. Drawing processing is performed, and the drawing processing result is displayed on the monitor 14 as a three-dimensional image. Further, the CPU 2 determines sound contents such as sound effects or BGM to be output from the speaker 15, causes the sound processor 9 to generate sound data corresponding to the sound contents, and outputs the sound data from the speaker 15.

描画データ生成プロセッサ3は、描画処理に必要な各種の演算処理を行うものである。CPU2がモニタ14に表示すべき画像を決定し、その画像の描画に必要な画像データ(キャラクタ、背景及び他の物体等(以下、これらのことを「オブジェクト」という。)のポリゴンデータ、テクスチャデータ、及び光源データ等)をRAM4から読み出して描画データ生成プロセッサ3に供給すると、描画データ生成プロセッサ3は、CPU2から供給される画像データと操作情報に基づいて、描画に必要なデータ(透視投影における仮想カメラ、各オブジェクトの位置関係、スクリーン画面上における各オブジェクトを構成するポリゴンの座標、各ポリゴンに対応するテクスチャ、及び各ポリゴンの反射特性等のデータ)を演算し、その演算結果を描画処理プロセッサ6に供給する。描画処理プロセッサ6では、描画データ生成プロセッサ3から供給された演算データに基づいて、モニタ14に表示するための三次元映像の描画処理が行われる。   The drawing data generation processor 3 performs various arithmetic processes necessary for the drawing process. The CPU 2 determines an image to be displayed on the monitor 14, and polygon data and texture data of image data (character, background, and other objects (hereinafter referred to as “object”) necessary for drawing the image. , And light source data) are read from the RAM 4 and supplied to the drawing data generation processor 3, the drawing data generation processor 3 performs data necessary for drawing (in perspective projection) based on the image data and operation information supplied from the CPU 2. The virtual camera, the positional relationship of each object, the coordinates of the polygons that make up each object on the screen, the texture corresponding to each polygon, and the reflection characteristics of each polygon, etc.) 6 is supplied. In the drawing processor 6, a 3D video drawing process for display on the monitor 14 is performed based on the calculation data supplied from the drawing data generation processor 3.

RAM4は、DVD−ROMドライブ12によってDVD−ROM17から読み込まれたゲームプログラム及びゲームデータを格納するエリア(図示せず)と、CPU2がゲームプログラムを処理するためのワークエリア(図示せず)を提供するものである。RAM4には、ゲームの進行に応じて必要なゲームプログラムとゲームデータとが、DVD−ROM17から読み込まれて記憶される。   The RAM 4 provides an area (not shown) for storing a game program and game data read from the DVD-ROM 17 by the DVD-ROM drive 12 and a work area (not shown) for the CPU 2 to process the game program. To do. In the RAM 4, game programs and game data necessary for the progress of the game are read from the DVD-ROM 17 and stored.

ROM5には、ディスクローディング機能等のゲーム装置1の基本的機能や、DVD−ROM17に記憶されたゲームプログラム及びゲームデータを読み出す手順等を示す基本プログラムが記憶されている。CPU2は、DVD−ROMドライブ12にDVD−ROM17が装着されると、ROM5の基本プログラムにしたがってDVD−ROMドライブ12を動作させ、DVD−ROM17からゲームプログラム及びゲームデータをRAM4に読み込み、ゲーム開始状態に設定する。   The ROM 5 stores basic functions of the game apparatus 1 such as a disk loading function, and a basic program indicating a procedure for reading a game program and game data stored in the DVD-ROM 17. When the DVD-ROM 17 is loaded in the DVD-ROM drive 12, the CPU 2 operates the DVD-ROM drive 12 according to the basic program in the ROM 5, reads the game program and game data from the DVD-ROM 17 into the RAM 4, and starts the game. Set to.

描画処理プロセッサ6は、三次元映像の各コマの画像(例えば透視投影法による二次元画像)を生成し、モニタ14に表示させるものである。描画処理プロセッサ6は、CPU2からの描画指令に基づき、描画データ生成プロセッサ3から供給されるデータを用いて、所定のレンダリング処理によってモニタ14に表示させる各コマの二次元画像を作成する。   The drawing processor 6 generates an image of each frame of the 3D video (for example, a 2D image by a perspective projection method) and displays it on the monitor 14. The drawing processor 6 uses the data supplied from the drawing data generation processor 3 based on the drawing command from the CPU 2 to create a two-dimensional image of each frame to be displayed on the monitor 14 by a predetermined rendering process.

描画処理プロセッサ6には、各コマの二次元画像の作成作業をするためのVRAM7が接続されている。描画処理プロセッサ6は、VRAM7を用いて例えば1/30秒毎に各コマの二次元画像のデータを生成する。   Connected to the drawing processor 6 is a VRAM 7 for creating a two-dimensional image of each frame. The drawing processor 6 uses the VRAM 7 to generate 2D image data of each frame, for example, every 1/30 seconds.

VRAM7には、モニタ14に表示される各コマの二次元画像のデータを格納するバッファメモリ72(以下、「フレームバッファ」という。)と、フレームバッファ72に格納すべき画像データを作成するための前処理を行うバッファメモリ71(以下、「テクスチャバッファ」という。)が設けられている。フレームバッファ72は同一のメモリ構造及びメモリ容量を有する2つのフレームバッファ72A,72Bで構成されている。   In the VRAM 7, a buffer memory 72 (hereinafter referred to as “frame buffer”) for storing two-dimensional image data of each frame displayed on the monitor 14 and image data to be stored in the frame buffer 72 are created. A buffer memory 71 (hereinafter referred to as “texture buffer”) for performing preprocessing is provided. The frame buffer 72 includes two frame buffers 72A and 72B having the same memory structure and memory capacity.

VRAM7に2つのフレームバッファ72A,72Bが設けられていることにより、モニタ14への例えば1/30秒毎の各コマの描画処理をスムーズに行うことができる。すなわち、一方のフレームバッファ72Aを用いてモニタ14への表示処理を行っている間に、他方のフレームバッファ72Bで次のコマの画像データを生成し、この処理をフレームバッファ72Aとフレームバッファ72Bとの間で交互に行うことにより、描画処理をスムーズに行う。   Since the two frame buffers 72A and 72B are provided in the VRAM 7, it is possible to smoothly perform drawing processing of each frame on the monitor 14 every 1/30 seconds, for example. That is, while the display process on the monitor 14 is performed using one frame buffer 72A, the image data of the next frame is generated by the other frame buffer 72B, and this process is performed by the frame buffer 72A and the frame buffer 72B. By alternately performing between the two, the drawing process is performed smoothly.

VRAM7には、後述するように、ライトマップ、シャドウマップ、Zバッファ、各オブジェクトの描画データ等が記憶される領域が設けられている。   As will be described later, the VRAM 7 is provided with an area for storing a light map, a shadow map, a Z buffer, drawing data of each object, and the like.

D/Aコンバータ8は、フレームバッファ72から出力される画像データをアナログ信号に変換してモニタ14に出力するものである。D/Aコンバータ8には、フレームバッファ72Aからの画像データとフレームバッファ72Bからの画像データとを切り換えるスイッチ回路が設けられ、このスイッチ回路の切り換えは描画処理プロセッサ6によって制御される。   The D / A converter 8 converts the image data output from the frame buffer 72 into an analog signal and outputs the analog signal to the monitor 14. The D / A converter 8 is provided with a switch circuit for switching between the image data from the frame buffer 72A and the image data from the frame buffer 72B, and the switching of the switch circuit is controlled by the drawing processor 6.

すなわち、描画処理プロセッサ6は、フレームバッファ72Aをモニタ14のバッファとするときは、フレームバッファ72Aの画像データがモニタ14に出力されるようにスイッチ回路を切り換え、フレームバッファ72Bをモニタ14のバッファとするときは、フレームバッファ72Bの画像データがモニタ14に出力されるようにスイッチ回路を切り換える。   That is, when the drawing processor 6 uses the frame buffer 72A as the buffer of the monitor 14, the switching circuit is switched so that the image data of the frame buffer 72A is output to the monitor 14, and the frame buffer 72B is used as the buffer of the monitor 14. When switching, the switch circuit is switched so that the image data in the frame buffer 72B is output to the monitor 14.

音声処理プロセッサ9は、CPU2からの音声指令に基づき、RAM4から効果音又はBGM等の音声データを読み出し、所要の加工処理とD/A変換処理をした後、アンプ10に出力する。アンプ10は、音声処理プロセッサ9から入力される音声信号を所定の増幅度で増幅した後、スピーカ15に出力する。   The sound processor 9 reads sound data such as sound effects or BGM from the RAM 4 based on a sound command from the CPU 2, performs a required processing process and D / A conversion process, and then outputs them to the amplifier 10. The amplifier 10 amplifies the audio signal input from the audio processor 9 with a predetermined amplification degree, and then outputs it to the speaker 15.

インターフェース(I/F)11は、操作コントローラ16をゲーム装置1に接続するためのインターフェースである。操作コントローラ16は、ゲーム装置1に各種の操作情報を入力するものである。操作コントローラ16には、十字キー、左ボタン、右ボタン、セレクトボタン、スタートボタン、ジョイステック等の複数の操作部材(いずれも図示せず)が設けられている。   The interface (I / F) 11 is an interface for connecting the operation controller 16 to the game apparatus 1. The operation controller 16 is for inputting various types of operation information to the game apparatus 1. The operation controller 16 is provided with a plurality of operation members (all not shown) such as a cross key, a left button, a right button, a select button, a start button, and a joystick.

スタートボタンはゲーム開始を入力するためのボタンであり、セレクトボタンはメニュー内容を選択するためのボタンである。また、ジョイステックや十字キーは、主としてキャラクタに移動、攻撃及び防御等の種々の動作を指令するための操作部材として使用される。左ボタン及び右ボタンは、例えばモニタに表示される三次元映像の画像の視線方向を左方向や右方向に移動又は回転したりするのに使用される。   The start button is a button for inputting a game start, and the select button is a button for selecting menu contents. The joystick and the cross key are mainly used as operation members for instructing the character to perform various actions such as movement, attack and defense. The left button and the right button are used, for example, to move or rotate the line-of-sight direction of a 3D video image displayed on the monitor in the left direction or the right direction.

本実施形態に係るゲームプログラムは、上述したように、二次元映像において複数のオブジェクト(例えばキャラクタや建物)の影同士が重なった場合に、本願特有のレンダリング処理によって違和感のないより自然な影を表示させるようにしたものである。以下、詳述する。   As described above, in the game program according to the present embodiment, when shadows of a plurality of objects (for example, characters and buildings) overlap in a two-dimensional image, a more natural shadow without a sense of incongruity is rendered by a rendering process unique to the present application. It is intended to be displayed. Details will be described below.

次に、本実施形態に係るレンダリング処理について説明する。図2は、レンダリング処理の概略手順を示したフローチャートである。このフローチャートに示すレンダリング処理は、主として描画処理プロセッサ6によって行われる。レンダリング処理は、図2に示すように、オブジェクト描画処理(S1)、オーバーラップ処理(S2)、及び効果付加処理(S3)等によって構成されている。オーバーラップ処理(S2)は、キャスト処理(S4)及びレシーブ処理(S5)等によって構成されている。   Next, the rendering process according to the present embodiment will be described. FIG. 2 is a flowchart showing a schematic procedure of the rendering process. The rendering process shown in this flowchart is mainly performed by the drawing processor 6. As shown in FIG. 2, the rendering process includes an object drawing process (S1), an overlap process (S2), an effect addition process (S3), and the like. The overlap process (S2) includes a cast process (S4), a receive process (S5), and the like.

オブジェクト描画処理(S1)は、通常、複数の三角形であるポリゴンによって構成されているオブジェクトについて、フレームバッファ72に二次元画像を生成する処理である。本実施形態のオブジェクト描画処理では、最初に建物等の不透明なオブジェクトを対象とする描画処理が行われる。その後、グラス内の水のような半透明のオブジェクトの描画処理が行われるが、半透明のオブジェクトの描画処理については本願発明と関係のない一般的な処理であるので説明を省略する。以下に説明するオブジェクト描画処理は、不透明なオブジェクトについてのものである。   The object drawing process (S1) is a process for generating a two-dimensional image in the frame buffer 72 for an object that is normally composed of a plurality of polygons that are triangles. In the object drawing process of this embodiment, a drawing process for an opaque object such as a building is first performed. Thereafter, a drawing process of a translucent object such as water in the glass is performed, but the drawing process of the translucent object is a general process unrelated to the present invention, and thus the description thereof is omitted. The object drawing process described below is for an opaque object.

オブジェクト描画処理(S1)では、透視投影及び隠面消去が行われる。透視投影とは、三次元の仮想空間を二次元のモニタ画面に表示するために行われる処理をいう。具体的には、図3に示すように、例えば三次元の仮想空間内(xyz座標内で表される空間内)の所定位置にカメラ(図略)に相当する視点Vをおき、この視点VとオブジェクトOとの間に投影面としてのスクリーンSを仮想的に配置する。通常、三角形のポリゴンによって構成されるオブジェクトOの各点から視点Vに向かって投射線LAを生成すると、スクリーンS上に投射線LAとの交点の集まりとして、投影図としてのオブジェクトO’が形成される。このようにして、オブジェクトOがスクリーンSにオブジェクトO’として透視投影される。   In the object drawing process (S1), perspective projection and hidden surface removal are performed. Perspective projection refers to processing performed to display a three-dimensional virtual space on a two-dimensional monitor screen. Specifically, as shown in FIG. 3, for example, a viewpoint V corresponding to a camera (not shown) is placed at a predetermined position in a three-dimensional virtual space (in a space represented by xyz coordinates), and this viewpoint V is set. A screen S as a projection plane is virtually arranged between the object O and the object O. Normally, when a projection line LA is generated from each point of the object O composed of triangular polygons toward the viewpoint V, an object O ′ as a projection diagram is formed on the screen S as a collection of intersections with the projection line LA. Is done. In this way, the object O is perspectively projected on the screen S as the object O ′.

また、隠面消去とは、オブジェクトにおいて手前に存在する面によって隠されて見えない面の一部の領域を消去することをいい、本実施形態では、「Zバッファ法」と呼称される方法が用いられて隠面消去が行われる。   Further, hidden surface removal refers to erasing a part of a surface that is hidden by a surface existing in front of an object and cannot be seen. In this embodiment, a method called “Z buffer method” is used. Used to remove hidden surfaces.

Zバッファ法は、スクリーン画面に相当するフレームバッファ72の画素ごとに、対象となるオブジェクト同士の奥行き(z軸)方向における距離を比較することにより隠面消去を行う公知の方法である。Zバッファ法では、フレームバッファ72と同じ解像度を有し、視点からの奥行きを数値化したもの(以下、「Z値」という。)をフレームバッファ72の画素ごとに記憶するZバッファ(図示せず)が用いられる。このZバッファは、VRAM7に設けられる。   The Z buffer method is a known method for performing hidden surface removal by comparing the distances in the depth (z-axis) direction between target objects for each pixel of the frame buffer 72 corresponding to the screen screen. In the Z buffer method, a Z buffer (not shown) that has the same resolution as the frame buffer 72 and stores a numerical value of the depth from the viewpoint (hereinafter referred to as “Z value”) for each pixel of the frame buffer 72. ) Is used. This Z buffer is provided in the VRAM 7.

なお、本実施形態においては、Zバッファ法を採用しているが、これに代えて、遠くにあるオブジェクトから順にフレームバッファに上書きしていく、公知の「Zソート法」が用いられて隠面消去が行われてもよい。   In this embodiment, the Z buffer method is adopted, but instead of this, a known “Z sort method” in which the frame buffer is overwritten in order from a distant object is used to hide the hidden surface. Erasing may be performed.

オブジェクト描画処理では、複数のオブジェクトについてそれぞれ処理を行う順番が決定され、この処理の順番にしたがって一つのオブジェクトごとに処理が行われる。この処理の順番は、Zバッファ法では任意に決定される。   In the object drawing process, the order of processing is determined for each of the plurality of objects, and the process is performed for each object according to the order of the processes. The order of this processing is arbitrarily determined in the Z buffer method.

まず、最初のオブジェクトが描画される前工程として、フレームバッファ72の全画素の値が例えば背景色の値に設定されることによりフレームバッファ72の全画素が初期化される。次いで、Zバッファの全画素の値が最遠方(例えば無限大)の値に設定されることにより、Zバッファの全画素が初期化される。   First, as a pre-process for drawing the first object, all the pixels in the frame buffer 72 are initialized by setting the values of all the pixels in the frame buffer 72 to a background color value, for example. Next, all the pixels in the Z buffer are initialized by setting the values of all the pixels in the Z buffer to the farthest (for example, infinite) value.

次に、順番が最初のオブジェクト(以下、「オブジェクトO1」という。)について透視投影及び走査変換を行う。なお、走査変換とは、オブジェクトを構成するポリゴンの各辺とスクリーン上を走査される所定のスキャンラインとの交点を取得して、ポリゴンに含まれる画素を決定するための処理である。すなわち、2つの交点間にあるスキャンライン上の画素がポリゴン内部の画素とされる。 Next, perspective projection and scan conversion are performed on the object in the first order (hereinafter referred to as “object O 1 ”). The scan conversion is a process for determining the pixels included in the polygon by acquiring the intersections between the sides of the polygons that make up the object and a predetermined scan line scanned on the screen. That is, the pixel on the scan line between the two intersections is the pixel inside the polygon.

その後、オブジェクトO1(ポリゴン)の一の画素についての、三次元の仮想空間内の所定位置に設置される仮想的なカメラ(図略)との距離の値(以下、「Zo値」という。)が算出される。次いで、このZo値と、当該画素に対応するZバッファの画素のZ値とが比較される。 Thereafter, a value of a distance (hereinafter referred to as a “Zo value”) of one pixel of the object O 1 (polygon) with a virtual camera (not shown) installed at a predetermined position in the three-dimensional virtual space. ) Is calculated. Next, this Zo value is compared with the Z value of the pixel of the Z buffer corresponding to the pixel.

この比較結果がZ>Zoである場合、すなわち、オブジェクトO1の一の画素についての距離がZバッファの画素の現在のZ値よりカメラ側にある場合、Zバッファの画素のZ値をZo値に更新するとともに、オブジェクトO1の当該画素における輝度値(以下、「輝度値K」という。)を例えばVRAM7から読み出してフレームバッファ72に格納する。この輝度値Kの設定においては、テクスチャマッピング等の作業も同時に行われる。 When this comparison result is Z> Zo, that is, when the distance for one pixel of the object O 1 is closer to the camera than the current Z value of the Z buffer pixel, the Z value of the Z buffer pixel is set to the Z value. And the luminance value (hereinafter referred to as “luminance value K”) at the pixel of the object O 1 is read from, for example, the VRAM 7 and stored in the frame buffer 72. In the setting of the luminance value K, work such as texture mapping is also performed at the same time.

一方、上記比較結果がZ<Zoである場合、Zバッファの画素のZ値はそのままとされ、その画素には当該ポリゴンは描かれない。Zバッファ法では、全てのオブジェクトについて上述の処理が行われ、フレームバッファ72上に全てのオブジェクトについての二次元画像が生成される。   On the other hand, when the comparison result is Z <Zo, the Z value of the pixel in the Z buffer is left as it is, and the polygon is not drawn in that pixel. In the Z buffer method, the above-described processing is performed for all objects, and two-dimensional images for all objects are generated on the frame buffer 72.

このオブジェクト描画処理では、例えば山や空あるいは建物等といった背景等の動かないオブジェクト(以下、「静的オブジェクト」という。)がオブジェクトの一つとして扱われ、上記レンダリング処理が行われる。また、静的オブジェクトの他に、ゲーム空間上に登場し、動作するキャラクタ等のオブジェクト(以下、「動的オブジェクト」という。)もオブジェクトの一つとして扱われ、上記レンダリング処理が行われる。   In this object drawing process, a non-moving object such as a background such as a mountain, sky, or building (hereinafter referred to as “static object”) is treated as one of the objects, and the rendering process is performed. In addition to a static object, an object such as a character that appears and moves in the game space (hereinafter referred to as a “dynamic object”) is also treated as one of the objects, and the rendering process is performed.

次いで、シェーディング(陰影)処理が行われ、シェーディング処理後のデータがフレームバッファ72に格納される。シェーディング処理では、例えば予めVRAM7に記憶されたライトマップが用いられる。ここで、ライトマップとは、スクリーン画面に描写される静的な陰影を表す輝度情報(例えば輝度値)が予め演算によって求められてテクスチャ化されたものである。ライトマップは、例えばゲームにおいてゲームステージ毎に生成される。このライトマップは、独自の座標系を有しており(以下、この座標を「UV座標」という)、このUV座標によって輝度情報が格納された位置の特定が可能になっている。   Next, shading (shading) processing is performed, and the data after the shading processing is stored in the frame buffer 72. In the shading process, for example, a light map stored in advance in the VRAM 7 is used. Here, the light map is obtained by texturing luminance information (for example, luminance value) representing a static shadow drawn on the screen screen, which is obtained in advance by calculation. A light map is generated for each game stage in a game, for example. This light map has a unique coordinate system (hereinafter, these coordinates are referred to as “UV coordinates”), and the position where the luminance information is stored can be specified by the UV coordinates.

シェーディング処理では、ライトマップを参照して、処理対象となっている画素に対して、UV座標の輝度情報が取得される。この取得された輝度情報を上記算出された輝度値Kに乗算し又は加算して輝度値K’を算出することにより、画素ごとの輝度値が補正される。これにより、光が当たっている部分は比較的明るく、陰になる部分は比較的暗くなるよう描画され、立体感のあるリアルなスクリーン画像が得られる。   In the shading process, the luminance information of the UV coordinates is acquired for the pixel to be processed with reference to the light map. The luminance value K ′ is calculated by multiplying or adding the acquired luminance information to the calculated luminance value K, thereby correcting the luminance value for each pixel. As a result, the portion that is exposed to light is drawn so as to be relatively bright, and the shaded portion is drawn to be relatively dark, so that a realistic screen image with a stereoscopic effect can be obtained.

また、ライトマップを構成する輝度情報には、静的オブジェクトがライトによって照射されることにより生じる影(以下「静的シャドウ」という。)の輝度情報が含まれているので、シェーディング処理の実行によって静的シャドウも描画される。   In addition, since the luminance information constituting the light map includes luminance information of a shadow (hereinafter referred to as “static shadow”) generated when a static object is irradiated with light, Static shadows are also drawn.

フレームバッファ72の画素ごとに格納されていたRGBの輝度値は、対応する画素においてシェーディング処理によって算出された輝度値K’に更新される。オブジェクトOの全ての画素について上記処理が終了すれば、次のオブジェクトO2について同様の処理を実行し、以降、全てのオブジェクト(O1,O2,…,On、nはオブジェクト数)について同様の処理を行う。 The RGB luminance value stored for each pixel in the frame buffer 72 is updated to the luminance value K ′ calculated by the shading process in the corresponding pixel. If the processing for all the pixels completion of object O, performs the same processing for the next object O 2, since all the objects for (O 1, O 2, ... , O n, n is the number of objects) Similar processing is performed.

オーバーラップ処理(S2)は、オブジェクト描画処理(S1)においてフレームバッファ72に書き込まれた画像(スクリーン画像)に重ねるように、他の画像であるオーバーラップ画像をブレンディング、すなわち合成する処理である。   The overlap process (S2) is a process of blending, that is, synthesizing overlap images, which are other images, so as to overlap the image (screen image) written in the frame buffer 72 in the object drawing process (S1).

オーバーラップ画像としては、動的オブジェクトがライトによって照射されることにより生じる影(以下、「動的シャドウ」という。)等がある。この動的シャドウの合成処理に関するオーバーラップ処理については後述する。また、動的シャドウ以外の他のオーバーラップ画像のオーバーラップ処理については、本実施形態と直接的な関連がないのでここでは省略する。   Examples of the overlap image include a shadow (hereinafter referred to as “dynamic shadow”) that is generated when a dynamic object is irradiated with light. The overlap processing related to the dynamic shadow composition processing will be described later. In addition, the overlap processing of the overlap image other than the dynamic shadow is omitted here because it is not directly related to the present embodiment.

効果付加処理(S3)は、例えばエフェクト処理、フィルタ処理及びスクリーン処理等によって構成されている。エフェクト処理は、パーティクル(例えば爆風や火花等の粒子状のもの)をフレームバッファ72に書き込むための処理である。フィルタ処理は、例えば「もや」を表現する場合等のように、フレームバッファ72に書き込まれている画像データ全体について所定の補正を行うための処理である。これらの処理により、スクリーン画像に描画される映像がよりリアルになり、スクリーン画像に臨場感を持たせることができる。スクリーン処理は、ゲージ等(例えば体力ゲージ等)の、プレーヤから見て一番手前に表示される二次元画像をフレームバッファ72に書き込む処理である。   The effect addition process (S3) includes, for example, an effect process, a filter process, a screen process, and the like. The effect process is a process for writing particles (for example, particles such as blast and sparks) into the frame buffer 72. The filter process is a process for performing predetermined correction on the entire image data written in the frame buffer 72, for example, when expressing “moy”. By these processes, the image drawn on the screen image becomes more realistic, and the screen image can have a sense of reality. The screen process is a process of writing, in the frame buffer 72, a two-dimensional image that is displayed on the foremost side as viewed from the player, such as a gauge (eg, a physical strength gauge).

次に、上記オーバーラップ処理(S2)について詳細に説明する。オーバーラップ処理は、図2に示したように、例えばキャスト処理(S4)とレシーブ処理(S5)とによって構成される。なお、本実施形態のキャスト処理及びレシーブ処理は、静的オブジェクトに動的シャドウを合成する処理であって、その他の動的シャドウの合成処理(例えば、動的オブジェクトに動的シャドウを描画するセルフシャドウの処理)等は、オーバーラップ処理における別の処理で実行される。   Next, the overlap process (S2) will be described in detail. As shown in FIG. 2, the overlap process is configured by, for example, a cast process (S4) and a receive process (S5). The cast process and the receive process of the present embodiment are processes for synthesizing dynamic shadows to static objects, and other dynamic shadow synthesis processes (for example, self-drawing dynamic shadows on dynamic objects). Shadow processing) is executed as a separate process in the overlap process.

キャスト処理(S4)では、動的オブジェクトの動的シャドウを描画するために必要なシャドウマップが生成される。レシーブ処理(S5)では、フレームバッファ72の画素ごとに動的シャドウを描画するか否かを判別する処理が行われ、その判別処理による判別結果に基づいて動的シャドウのスクリーン画像への描画が行われる。   In the cast process (S4), a shadow map necessary for drawing the dynamic shadow of the dynamic object is generated. In the receive process (S5), a process for determining whether or not to draw a dynamic shadow is performed for each pixel of the frame buffer 72, and the dynamic shadow is drawn on the screen image based on the determination result of the determination process. Done.

ここで、スクリーン画像に影を描画するための公知手法である「シャドウマップ技法(三次元の画像空間においてZバッファ法を用いて影となる画素を決定する方法)」を用いた一般的に行われる影の描写方法について説明する。   Here, a general method using a “shadow map technique (a method for determining a pixel to be a shadow using a Z buffer method in a three-dimensional image space)”, which is a known technique for drawing a shadow on a screen image. How to draw shadows will be explained.

まず、シャドウマップとは、上記シャドウマップ技法に汎用的に用いられるものであり、光源(以下、「ライト」という)の位置を視点としライトから可視点までの距離を画素ごとに取得してデータ化したものである。ここでいう可視点とは、ライトを視点とした場合に、ライト側から見える点のことである。   First, a shadow map is used for the above-mentioned shadow map technique in general. Data is obtained by acquiring the distance from the light to the visible point for each pixel with the position of the light source (hereinafter referred to as “light”) as the viewpoint. It has become. Here, the visible point is a point that can be seen from the light side when the light is the viewpoint.

シャドウマップの生成においては、Zバッファ法を用いてライトの位置を視点としてライトから可視面までの距離、換言すればライトから当該ライトの光が当たっている部分(例えばオブジェクトや地面)までの距離がZ値(以下、「深度値D2」という。)として画素ごとに取得される。なお、シャドウマップは、ライトが複数ある場合、ライトごとにそれぞれ生成される。   In the generation of a shadow map, the distance from the light to the visible surface with the position of the light as the viewpoint using the Z buffer method, in other words, the distance from the light to the portion (for example, an object or the ground) where the light is applied Is acquired for each pixel as a Z value (hereinafter referred to as “depth value D2”). Note that when there are a plurality of lights, the shadow map is generated for each light.

例えば図4に示すように、地面EにオブジェクトOが配置されている場合において、三次元の仮想空間上に設定されているライトLからオブジェクトOに対して照射が行われているとする。このような場合、シャドウマップSMの画素smaにおいては、照射方向上にオブジェクトOのOa点及び地面EのEa点が存在するが、Zバッファ法によってライトLからの距離が最も短いOa点が特定され、ライトLからOa点までの距離が深度値D2として格納される。   For example, as shown in FIG. 4, when the object O is arranged on the ground E, it is assumed that the object O is irradiated from the light L set in the three-dimensional virtual space. In such a case, in the pixel sma of the shadow map SM, the Oa point of the object O and the Ea point of the ground E exist in the irradiation direction, but the Oa point having the shortest distance from the light L is specified by the Z buffer method. The distance from the light L to the point Oa is stored as the depth value D2.

また、例えば図4に示す地面EのEb点について考察すると、Eb点は画素smbの照射方向上においてライトLからの距離が最も短い(ライトLからの光が直接当たっている部分である。)。したがって、画素smbには、ライトLからEb点までの距離の値が深度値D2として格納される。   Further, for example, considering the Eb point on the ground E shown in FIG. 4, the Eb point has the shortest distance from the light L in the irradiation direction of the pixel smb (the part where the light from the light L directly hits). . Therefore, the value of the distance from the light L to the point Eb is stored in the pixel smb as the depth value D2.

このようにして、シャドウマップSMの各画素には、ライトLからの光が到達する部分までの距離である深度値D2がそれぞれ格納され、これによりシャドウマップSMが生成される。   In this way, each pixel of the shadow map SM stores the depth value D2 that is the distance to the portion where the light from the light L reaches, thereby generating the shadow map SM.

次に、カメラ視点から見た際のスクリーン画像の各画素における影の有無の判別について説明する。この判別は、スクリーン画像の各画素に描画されるオブジェクトのライトからの距離(以下、「深度値D1」と言う。)と、これに対応するシャドウマップSMに格納されている深度値D2とを比較することによって行われる。深度値D1が深度値D2よりも大きい場合(ライトから光が届く距離よりも遠い場合)、その画素には影が含まれると判定される。   Next, the determination of the presence or absence of a shadow in each pixel of the screen image when viewed from the camera viewpoint will be described. This determination is based on the distance (hereinafter referred to as “depth value D1”) of the object drawn on each pixel of the screen image and the depth value D2 stored in the corresponding shadow map SM. This is done by comparing. When the depth value D1 is larger than the depth value D2 (when it is farther than the distance that the light reaches from the light), it is determined that the pixel includes a shadow.

例えば、図4に示すスクリーンSの一の画素に描画される地面EのEa点に着目すれば、所定の演算により算出した、ライトLからEa点までの距離(深度値D1)と、これに対応するシャドウマップSMに格納されている、ライトLからオブジェクトOのOa点までの距離(深度値D2)とが比較される。地面EのEa点に対応するフレームバッファの画素の深度値D1が「30」であり、シャドウマップSMに格納されている当該画素に対応する深度値D2が「20」であるとすると、当該画素には影があると判別される。   For example, if attention is paid to the point Ea of the ground E drawn on one pixel of the screen S shown in FIG. 4, the distance (depth value D1) from the light L to the point Ea calculated by a predetermined calculation, and The distance (depth value D2) from the light L to the point Oa of the object O stored in the corresponding shadow map SM is compared. If the depth value D1 of the pixel in the frame buffer corresponding to the point Ea on the ground E is “30” and the depth value D2 corresponding to the pixel stored in the shadow map SM is “20”, the pixel Is identified as having a shadow.

一方、深度値D1が深度値D2よりも小さい又は等しい場合、その画素には影が含まれないと判定される。同様にして、フレームバッファ上の全ての画素について影の有無を判別し各画素について描画を行うことにより、影が生成されたスクリーン画像Sがフレームバッファに描画される。   On the other hand, when the depth value D1 is smaller than or equal to the depth value D2, it is determined that the pixel does not include a shadow. Similarly, the presence or absence of a shadow is determined for all the pixels on the frame buffer, and drawing is performed for each pixel, whereby the screen image S in which the shadow is generated is drawn on the frame buffer.

図5は、フレームバッファに格納される、図4に示すスクリーン画像Sのイメージ図であり、オブジェクトOの影が生成されていない状態を示す。また、図6は、図5に示すスクリーン画像Sに対して影を生成した場合の状態を示す図である。   FIG. 5 is an image diagram of the screen image S shown in FIG. 4 stored in the frame buffer, and shows a state where no shadow of the object O is generated. FIG. 6 is a diagram showing a state when a shadow is generated for the screen image S shown in FIG.

本実施形態では、上述したシャドウマップ技法を用いて、キャスト処理(S4)において動的シャドウを描画するためのシャドウマップがライト毎に生成され、レシーブ処理(S5)において当該動的シャドウのスクリーン画像への描画が行われる。したがって、本実施形態のキャスト処理(S4)では、シャドウマップが生成される対象は、動的オブジェクトのみに限定されている。そのため、「静的シャドウ」の描画対象となる建物等のオブジェクトに対する深度値は、シャドウマップには格納されないことになっている。動的シャドウを生成の対象とするか否かの判別には、例えばオブジェクト毎に設定されている情報(例えばフラグ等を用いて予め設定された情報)が用いられる。また、シャドウマップの一の画素のライトの照射方向上に動的オブジェクトが存在しない場合、その画素の深度値D2の更新は行わない。シャドウマップの各画素には初期値としてライトから最遠の値が格納されているので、更新を行わない場合は初期値が深度値D2となる。なお、本実施形態のシャドウマップはVRAM7に記憶される。   In the present embodiment, using the shadow map technique described above, a shadow map for drawing dynamic shadows is generated for each light in the cast process (S4), and a screen image of the dynamic shadow is received in the receive process (S5). Drawing to is done. Therefore, in the cast process (S4) of the present embodiment, the target for generating the shadow map is limited to only dynamic objects. For this reason, the depth value for an object such as a building to be drawn with “static shadow” is not stored in the shadow map. For example, information set for each object (for example, information set in advance using a flag or the like) is used for determining whether or not to generate a dynamic shadow. Further, when there is no dynamic object in the light irradiation direction of one pixel of the shadow map, the depth value D2 of the pixel is not updated. Since each pixel of the shadow map stores the farthest value from the light as an initial value, the initial value becomes the depth value D2 when updating is not performed. Note that the shadow map of this embodiment is stored in the VRAM 7.

図7は、図2に示したレシーブ処理(S5)を示すフローチャートである。レシーブ処理は、フレームバッファ72に描画されたスクリーン画像Sに対して動的オブジェクトの動的シャドウがブレンディング(合成)される処理である。   FIG. 7 is a flowchart showing the receive process (S5) shown in FIG. The receive process is a process in which the dynamic shadow of the dynamic object is blended (combined) with the screen image S drawn in the frame buffer 72.

まず、複数のライトLがある場合、複数のライトLのうち一つのライトLが選択される(S11)。次いで、フレームバッファ72のうちの一の画素が選択され(S12)、その後、描画ピクセル処理が行われる(S13)。描画ピクセル処理は、フレームバッファ72の一の画素に描画される静的オブジェクトに重ねて動的シャドウを描画するか否かを判別するとともに、動的シャドウを描画する場合に、動的シャドウのRGBの輝度値及び混合率α(0≦α≦1)をそれぞれ決定する処理である。動的シャドウのRGBの輝度値及び混合率αは、例えばVRAM7に設けられた動的シャドウ用のバッファに格納される。なお、この描画ピクセル処理については後述する。   First, when there are a plurality of lights L, one light L is selected from the plurality of lights L (S11). Next, one pixel in the frame buffer 72 is selected (S12), and then drawing pixel processing is performed (S13). The drawing pixel processing determines whether or not to draw a dynamic shadow over a static object drawn in one pixel of the frame buffer 72, and when drawing a dynamic shadow, The luminance value and the mixing ratio α (0 ≦ α ≦ 1) are determined. The RGB luminance values and the mixing ratio α of the dynamic shadow are stored in a dynamic shadow buffer provided in the VRAM 7, for example. This drawing pixel process will be described later.

次いで、フレームバッファ72の全ての画素について描画ピクセル処理を行ったか否かの判別が行われる(S14)。全ての画素について描画ピクセル処理を行なわれていない場合(S14:NO)、ステップS12に戻る。   Next, it is determined whether or not drawing pixel processing has been performed for all the pixels in the frame buffer 72 (S14). When the drawing pixel process has not been performed for all the pixels (S14: NO), the process returns to step S12.

全ての画素について描画ピクセル処理が行われている場合(S14:YES)、全てのライトLについて全画素の描画ピクセル処理が行われたか否かの判別が行われる(S15)。全てのライトLについて全画素の描画ピクセル処理が行われていない場合(S15:NO)、ステップS11に戻る。   If drawing pixel processing has been performed for all pixels (S14: YES), it is determined whether drawing pixel processing for all pixels has been performed for all lights L (S15). When the drawing pixel processing of all the pixels is not performed for all the lights L (S15: NO), the process returns to step S11.

全てのライトLについて全画素の描画ピクセル処理が行われ(S15:YES)、動的シャドウが描画される場合、VRAM7に設けられたバッファから輝度値及び混合率αを読み出し、フレームバッファ72の画素毎に動的シャドウをブレンディングする処理、すなわち動的シャドウの描画処理を行う(S16)。   When all of the lights L are subjected to the drawing pixel processing of all the pixels (S15: YES) and the dynamic shadow is drawn, the luminance value and the mixing rate α are read from the buffer provided in the VRAM 7 and the pixels of the frame buffer 72 are read. Processing for blending dynamic shadows every time, that is, drawing processing of dynamic shadows is performed (S16).

次に、図7のステップS13に示す描画ピクセル処理について、図8に示すフローチャートを参照して説明する。描画ピクセル処理は、上述したように、フレームバッファ72の一の画素に描画される静的オブジェクトに重ねて動的シャドウを描画するか否かを判別するとともに、動的シャドウを描画する場合に、動的シャドウのRGBの輝度値及び混合率αを設定する処理である。   Next, the drawing pixel process shown in step S13 of FIG. 7 will be described with reference to the flowchart shown in FIG. As described above, the drawing pixel processing determines whether or not to draw a dynamic shadow over a static object drawn in one pixel of the frame buffer 72, and when drawing a dynamic shadow, This is a process for setting the RGB luminance value and the mixing ratio α of the dynamic shadow.

まず、図7のステップS12において選択されたフレームバッファ72の一つの画素に描画されるオブジェクトの深度値D1が所定の演算により取得されるとともに、この画素に対応する動的シャドウの深度値D2がVRAM7のシャドウマップから読み出される(S21)。例えば、図9に示すように、動的オブジェクトとしてのキャラクタCにおいて動的シャドウCSが生成される場合、フレームバッファ72の一つの画素であるf1点に注目し、この点における静的オブジェクト(この場合は地面)の深度値D1が所定の演算により取得される。ここで、深度値D1は、上述したように、ライトLから当該画素(f1点)に描画される静的オブジェクトまでの距離である。そして、シャドウマップからこのf1点に対応する動的オブジェクト(キャラクタC)の深度値D2が読み出される。   First, the depth value D1 of the object drawn in one pixel of the frame buffer 72 selected in step S12 of FIG. 7 is acquired by a predetermined calculation, and the depth value D2 of the dynamic shadow corresponding to this pixel is obtained. Read from the shadow map of the VRAM 7 (S21). For example, as shown in FIG. 9, when a dynamic shadow CS is generated in a character C as a dynamic object, attention is paid to a point f1 which is one pixel of the frame buffer 72, and a static object (this In this case, the depth value D1 of the ground) is acquired by a predetermined calculation. Here, as described above, the depth value D1 is a distance from the light L to the static object drawn on the pixel (point f1). Then, the depth value D2 of the dynamic object (character C) corresponding to the point f1 is read from the shadow map.

ステップS21において深度値D1が演算により算出され、深度値D2がVRAM7から読み出されると、選択された一の画素に対して動的シャドウを描画するか否かが判別される(S22)。具体的には、ステップS21で取得した、処理対象である画素の深度値D1が深度値D2よりも大きいか否かによって、当該画素に動的シャドウを描画するか否かが判別される。   When the depth value D1 is calculated by calculation in step S21 and the depth value D2 is read from the VRAM 7, it is determined whether or not to draw a dynamic shadow for the selected one pixel (S22). Specifically, whether or not to draw a dynamic shadow on the pixel is determined based on whether or not the depth value D1 of the pixel to be processed acquired in step S21 is larger than the depth value D2.

深度値D1が深度値D2以下と判別された場合(S22:NO)、選択された一の画素に対して動的シャドウを描画しないと判別される。この場合、動的シャドウのRGBの輝度値の設定が行われずに処理が終了する。このとき、動的シャドウ用のバッファは、更新されないので、初期値(例えば、RGB値に透明色を示す0の値とα値に0の値)のままとなる。   When it is determined that the depth value D1 is equal to or less than the depth value D2 (S22: NO), it is determined that the dynamic shadow is not drawn for the selected one pixel. In this case, the RGB brightness values of the dynamic shadow are not set and the process ends. At this time, since the buffer for dynamic shadow is not updated, the initial value (for example, 0 value indicating a transparent color in the RGB value and 0 value in the α value) remains unchanged.

一方、ステップS22において、深度値D1が深度値D2より大きいと判別された場合(S22:YES)、選択された一の画素に対して動的シャドウを描画すると判別される。   On the other hand, if it is determined in step S22 that the depth value D1 is greater than the depth value D2 (S22: YES), it is determined that a dynamic shadow is to be rendered for the selected one pixel.

選択された一の画素に対して動的シャドウを描画する場合、当該画素において、静的シャドウの輝度データに基づいて静的シャドウが存在するか否か(静的シャドウが描画されているか否か)が判別される。本実施形態では、ライトマップの輝度データを用いて静的シャドウが描画されているか否かを判別するが、上述したライトマップには、処理対象の画素に静的シャドウが描画されているか否かの情報が含まれていないので、以下に示す処理(ステップS23,S24)によって静的シャドウが描画されているか否かの判別が行われる。   When drawing a dynamic shadow for one selected pixel, whether or not a static shadow exists in the pixel based on the luminance data of the static shadow (whether or not a static shadow is drawn) ) Is determined. In this embodiment, it is determined whether or not a static shadow is drawn using the luminance data of the light map, but whether or not the static shadow is drawn on the pixel to be processed is described in the light map described above. Therefore, it is determined whether or not the static shadow is drawn by the following processing (steps S23 and S24).

すなわち、ステップS23において、動的シャドウの動的シャドウカラーと、静的シャドウが描画された静的オブジェクトのテクスチャカラーとが取得される。ここで、動的シャドウカラーとは、動的シャドウについて予め設定されているRGBの輝度値をいう(以下、「動的シャドウカラーDS」と言う。)。動的シャドウカラーDSは、動的シャドウの基本の輝度値(固定値)であり、静的シャドウと重なっていない状態では常にこの値を用いる。動的シャドウカラーDSは、VRAM7等に予め記憶されており、必要に応じて読み出される。なお、本実施形態の動的シャドウカラーDSは、単一の固定値であるが、例えばゲームステージ毎に切り替えて使用するように複数あってもよく、また単一の標準値を記憶しておいてゲームステージ毎に標準値を増減するようにして用いてもよい。   That is, in step S23, the dynamic shadow color of the dynamic shadow and the texture color of the static object on which the static shadow is drawn are acquired. Here, the dynamic shadow color refers to RGB luminance values set in advance for dynamic shadows (hereinafter referred to as “dynamic shadow color DS”). The dynamic shadow color DS is a basic luminance value (fixed value) of the dynamic shadow, and this value is always used when it does not overlap with the static shadow. The dynamic shadow color DS is stored in advance in the VRAM 7 or the like and is read out as necessary. Note that the dynamic shadow color DS of the present embodiment is a single fixed value. However, for example, a plurality of dynamic shadow colors DS may be used by switching for each game stage, and a single standard value is stored. The standard value may be increased or decreased for each game stage.

また、テクスチャカラーとは、選択された一の画素に描画される静的オブジェクトに関するRGBの輝度値をいう(以下、「テクスチャカラーSS」と言う。)。このテクスチャカラーSSは、静的シャドウの輝度情報が反映されている情報から取得する。本実施形態では、テクスチャカラーSSは、静的シャドウの輝度情報も含まれている、上述したシェーディング処理に用いられるライトマップから読み出され取得される。具体的には、ライトマップに格納されている、上記選択された一の画素に対応するUV座標位置の輝度値が読み出されて用いられる。なお、テクスチャカラーSSには、静的オブジェクトとともに静的シャドウが既に描画されているフレームバッファ72の輝度値が用いられてもよい。   The texture color refers to an RGB luminance value related to a static object drawn on one selected pixel (hereinafter referred to as “texture color SS”). The texture color SS is acquired from information reflecting the brightness information of the static shadow. In the present embodiment, the texture color SS is read and acquired from the light map used for the shading process described above, which also includes static shadow luminance information. Specifically, the luminance value at the UV coordinate position corresponding to the selected one pixel stored in the light map is read and used. For the texture color SS, the luminance value of the frame buffer 72 in which the static shadow is already drawn together with the static object may be used.

次いで、ステップS24において、動的シャドウカラーDSとテクスチャカラーSSとの合計値が、所定の閾値よりも大きいか否かが判別される。換言すれば、動的シャドウカラーDSとテクスチャカラーSSとの重なり部分が所定のカラーより黒いか否か(暗いか否か)が判別される。すなわち、図10に示すように、動的シャドウ(図10のCS参照)が静的シャドウ(図10のBS参照)に重なっていて、動的シャドウCSをスクリーン画像に馴染ませる処理を行うべきであるか否かが判別される。   Next, in step S24, it is determined whether or not the total value of the dynamic shadow color DS and the texture color SS is greater than a predetermined threshold value. In other words, it is determined whether or not the overlapping portion of the dynamic shadow color DS and the texture color SS is blacker than the predetermined color (whether it is dark). That is, as shown in FIG. 10, the dynamic shadow (see CS in FIG. 10) overlaps the static shadow (see BS in FIG. 10), and processing to make the dynamic shadow CS conform to the screen image should be performed. It is determined whether or not there is.

動的シャドウカラーDSとテクスチャカラーSSとの合計値が閾値を超えるような場合には、処理対象の画素のテクスチャカラーSSには静的シャドウの輝度値が含まれて比較的大きい輝度値が格納されていたとされ、動的シャドウを馴染ませる処理を行うようにされる。   When the total value of the dynamic shadow color DS and the texture color SS exceeds the threshold value, the texture color SS of the pixel to be processed includes the luminance value of the static shadow and stores a relatively large luminance value. It is assumed that it was done, and it is made to perform the process which adjusts dynamic shadow.

より具体的には、ステップS24では、「DS×b+SS+A>閾値」といった判別式が用いられて判別される。ここで「b」及び「A」は、スクリーン画像に描画するゲームの各場面(例えばステージ)や三次元空間の所定の場所等の環境に応じて予め定められた補正値である。特に「b」は、動的シャドウカラーDSを調整するものであり、「A」は閾値を直接的に調整するものである。上記判別式において左辺の「DS×b+SS+A」は、一種の評価関数であるので、式中の「b」の値及び「A」の値をそれぞれ変更することによって、閾値を調整することができる。これによって、動的シャドウを静的シャドウに完全に馴染ませずに、動的シャドウと静的シャドウとを二重にして描画させておきたい場合等、各場面の状況に応じた動的シャドウの描画を行うことができる。   More specifically, in step S24, the determination is made using a discriminant such as “DS × b + SS + A> threshold”. Here, “b” and “A” are correction values determined in advance according to the environment such as each scene (for example, stage) of the game drawn on the screen image and a predetermined place in the three-dimensional space. In particular, “b” is for adjusting the dynamic shadow color DS, and “A” is for adjusting the threshold value directly. Since “DS × b + SS + A” on the left side in the discriminant is a kind of evaluation function, the threshold value can be adjusted by changing the value of “b” and the value of “A” in the equation. This makes it possible to draw dynamic shadows according to the situation of each scene, such as when you want to draw dynamic shadows and static shadows in duplicate without completely adapting them to static shadows. Can draw.

なお、上記判別式「DS×b+SS+A>閾値」に代えて「DS+SS>閾値」といった判別式が用いられてもよい。さらに、「SS>閾値」といった判別式が用いられてもよい。また、ステップS24の処理では、「DS×b+SS+A>閾値」の判別において動的シャドウカラーDS及びテクスチャカラーSSとしてRGBのうちRだけの値を用いればよいが、これに限らず、R,G,Bの全ての値を考慮して用いるようにしてもよく、あるいはGだけ又はBだけを用いるようにしてもよい。   A discriminant such as “DS + SS> threshold” may be used in place of the discriminant “DS × b + SS + A> threshold”. Furthermore, a discriminant such as “SS> threshold” may be used. Further, in the process of step S24, in the determination of “DS × b + SS + A> threshold”, only the value of R of RGB may be used as the dynamic shadow color DS and the texture color SS, but not limited thereto, R, G, All values of B may be used in consideration, or only G or B may be used.

ステップS24において、動的シャドウカラーDSとテクスチャカラーSSとの合計値が閾値よりも大きいと判別した場合(S24:YES)、すなわち、動的シャドウカラーとテクスチャカラーとの重なり部分が所定のカラーより黒く、動的シャドウを馴染ませるよう判別した場合、動的シャドウのRGBの輝度値として、動的シャドウカラーDSとテクスチャカラーSSとの差分の値が設定される(S25)。   When it is determined in step S24 that the total value of the dynamic shadow color DS and the texture color SS is larger than the threshold value (S24: YES), that is, the overlapping portion of the dynamic shadow color and the texture color is more than a predetermined color. If it is determined that the dynamic shadow is adjusted to be black, the difference value between the dynamic shadow color DS and the texture color SS is set as the RGB luminance value of the dynamic shadow (S25).

具体的には、動的シャドウのRGBの輝度値として、設定式「DS×b−SS+A」で表される評価関数で算出される値が用いられる。この設定式においても式中の「b」及び「A」の値を変更することにより、各場面の状況に応じて動的シャドウと静的シャドウとの重なり具合を微調整することができる。   Specifically, the value calculated by the evaluation function represented by the setting expression “DS × b−SS + A” is used as the RGB luminance value of the dynamic shadow. Also in this setting formula, by changing the values of “b” and “A” in the formula, the overlapping degree of the dynamic shadow and the static shadow can be finely adjusted according to the situation of each scene.

例えば、「b」及び「A」の値を変更することによって、静的シャドウに重なる動的シャドウをプレーヤが認識できないように透明色で描画させたり、プレーヤが認識できる程度にうっすらと描画させたりすることができる。本実施形態では、スクリーン画像に描画するゲームの各場面や三次元空間の所定の場所等の環境に応じて予め定められた値が「b」及び「A」に設定されるので、動的シャドウと静的シャドウとの重なり部分を自然な描写になるよう表現することができる。   For example, by changing the values of “b” and “A”, a dynamic shadow that overlaps a static shadow is rendered in a transparent color so that the player cannot recognize it, or is rendered as thin as the player can recognize. can do. In this embodiment, since the predetermined values are set to “b” and “A” according to the environment such as each scene of the game to be drawn on the screen image or a predetermined place in the three-dimensional space, the dynamic shadow And the static shadow can be expressed in a natural way.

なお、本実施形態においては、ステップS25において用いられる設定式中の「b」及び「A」は、ステップS24において用いられる判別式中の「b」及び「A」と同じ値に設定しているが、例えば「b」に代えて「b」と異なる「a」、「A」に代えて「A」と異なる「B」といった値がそれぞれ設定されてもよい。   In the present embodiment, “b” and “A” in the setting formula used in step S25 are set to the same values as “b” and “A” in the discriminant used in step S24. However, for example, “a” different from “b” instead of “b”, and “B” different from “A” instead of “A” may be set.

また、上記設定式「DS×a−SS+A」に代えて、動的シャドウのRGBの輝度値として、設定式「DS−SS」が用いられてもよい。この場合であっても、動的シャドウカラーDS及び静的シャドウカラーSSがそれぞれ等しいときであれば、差分の値は「0」となって静的シャドウのみが描画される状態となるので、動的シャドウと静的シャドウとが重なっている画素の領域が不自然に濃くなることがない。また、動的シャドウカラーDS及びテクスチャカラーSSが異なる値であっても、静的シャドウに動的シャドウが重なる画素の領域の輝度値と、重ならない画素の領域の輝度値とがほぼ同等の輝度値になるので、重なっている画素の領域だけが不自然に濃く描画されることがない。   In place of the setting formula “DS × a−SS + A”, the setting formula “DS-SS” may be used as the luminance value of RGB of the dynamic shadow. Even in this case, if the dynamic shadow color DS and the static shadow color SS are equal, the difference value is “0”, and only the static shadow is drawn. The pixel area where the static shadow and the static shadow overlap does not become unnaturally dark. In addition, even if the dynamic shadow color DS and the texture color SS are different values, the luminance value of the pixel area where the dynamic shadow overlaps the static shadow and the luminance value of the pixel area where the dynamic shadow does not overlap are approximately equal. Therefore, only the overlapping pixel region is not drawn unnaturally.

その後、図8には示していないが、動的シャドウの混合率αを決定するフィルタリング処理が行われ、動的シャドウのRGBの輝度値と混合率αとが動的シャドウ用のバッファ(VRAM7)に格納される。フィルタリング処理には、動的シャドウの境界部分がいわゆるジャギー(例えばギザギザの縁)にならないように滑らかにするためのものであり、例えば公知の近方比率フィルタリング(PCF:percentage-closer filtering)が用いられる。これによって、動的シャドウの境界部分を滑らかに表現することができる。動的シャドウ用のバッファは、フレームバッファ72と同様の構成である。動的シャドウの輝度値及び混合率αは、フレームバッファ72の選択された画素に対応する動的シャドウ用のバッファの領域に格納される。   Thereafter, although not shown in FIG. 8, a filtering process for determining the mixing ratio α of the dynamic shadow is performed, and the RGB luminance value and the mixing ratio α of the dynamic shadow are obtained as a dynamic shadow buffer (VRAM 7). Stored in In the filtering process, the boundary portion of the dynamic shadow is smoothed so as not to be a so-called jaggy (for example, jagged edges). For example, known near-percentage filtering (PCF) is used. It is done. As a result, the boundary portion of the dynamic shadow can be expressed smoothly. The dynamic shadow buffer has the same configuration as the frame buffer 72. The luminance value and the mixing ratio α of the dynamic shadow are stored in the dynamic shadow buffer area corresponding to the selected pixel of the frame buffer 72.

一方、ステップS24において、動的シャドウカラーDSとテクスチャカラーSSとの合計値が閾値よりも小さいと判別した場合(S24:NO)、すなわち、動的シャドウカラーDSとテクスチャカラーSSとの重なり部分が所定のカラーより明るく、動的シャドウを馴染ませないと判別した場合、動的シャドウのRGBの輝度値として、動的シャドウカラーDSを設定する(S26)。その後、上述のフィルタリング処理を行って混合率αが決定された後、動的シャドウの輝度値と混合率αとが動的シャドウ用のバッファ(VRAM7)に格納される。   On the other hand, when it is determined in step S24 that the total value of the dynamic shadow color DS and the texture color SS is smaller than the threshold (S24: NO), that is, the overlapping portion of the dynamic shadow color DS and the texture color SS is If it is determined that the brightness is brighter than the predetermined color and the dynamic shadow is not familiar, the dynamic shadow color DS is set as the RGB luminance value of the dynamic shadow (S26). Then, after the above-described filtering process is performed to determine the mixing rate α, the dynamic shadow luminance value and the mixing rate α are stored in the dynamic shadow buffer (VRAM 7).

本実施形態では、フレームバッファ72に描画される全ての動的シャドウに対して図8のフローチャートの描画ピクセル処理に示した動的シャドウを馴染ませる処理を行っているが、例えばカメラ(図略)の位置から動的シャドウまでの距離(Z値)が比較的遠い動的シャドウに対しては、上記馴染ませる処理を行わずに描画するようにしてもよい。カメラの位置から遠い動的シャドウはスクリーン画面上に大きく表示されることは比較的少ないので、プレーヤには特に不自然さを感じさせることなく、また、ゲーム装置の処理負荷を軽減することができるといった利点がある。   In the present embodiment, the processing for making all the dynamic shadows drawn in the frame buffer 72 familiarize with the dynamic shadows shown in the drawing pixel processing in the flowchart of FIG. 8 is performed. For example, a camera (not shown) is used. For dynamic shadows having a relatively long distance (Z value) from the position to the dynamic shadows, the drawing may be performed without performing the above-described process. Dynamic shadows far from the camera position are relatively rarely displayed on the screen screen, so that the player does not feel particularly unnatural and can reduce the processing load of the game device. There are advantages such as.

具体的には、図8に示すステップS22とステップS23との間に、画素に描画されるオブジェクトのカメラ位置からの距離(Z値)が所定値以上であるか否かを判別する処理を加え、距離が所定値以上であると判別した場合には、動的シャドウカラーDSをそのまま動的シャドウのRGBの輝度値として設定するようにする。一方、所定値未満の場合は、ステップS23〜S26の処理を実行するようにする。   Specifically, a process of determining whether or not the distance (Z value) from the camera position of the object drawn on the pixel is greater than or equal to a predetermined value is added between step S22 and step S23 shown in FIG. If it is determined that the distance is greater than or equal to the predetermined value, the dynamic shadow color DS is set as the RGB luminance value of the dynamic shadow as it is. On the other hand, if the value is less than the predetermined value, the processes in steps S23 to S26 are executed.

もちろん、この発明の範囲は上述した実施の形態に限定されるものではない。例えば、上記実施形態で述べたゲームの内容は、対戦型ゲーム、アクションゲーム又はロールプレーイングゲーム等の種々のゲームに適用することができる。また、本実施形態に記載のゲームは、オンラインゲームに適用するようにしてもよく、オンラインゲームに参加したプレーヤ同士で対戦する、あるいは複数のプレーヤとチームを組んで他のチームと対戦するといったゲームに適用するようにしてもよい。   Of course, the scope of the present invention is not limited to the embodiment described above. For example, the content of the game described in the above embodiment can be applied to various games such as a battle game, an action game, or a role playing game. In addition, the game described in the present embodiment may be applied to an online game, where a player who participates in the online game competes with each other, or a team that forms a team with a plurality of players and competes with other teams. You may make it apply to.

本願発明に係るゲームプログラムが適用されるゲーム装置の一例を示すブロック構成図である。It is a block block diagram which shows an example of the game device with which the game program which concerns on this invention is applied. レンダリング処理の概略手順を示したフローチャートである。It is the flowchart which showed the outline procedure of the rendering process. 透視投影を説明するための概念図である。It is a conceptual diagram for demonstrating perspective projection. シャドウマップの生成を説明するための概念図である。It is a conceptual diagram for demonstrating the production | generation of a shadow map. オーバーラップ処理が行われる前のスクリーン画像のイメージ図の一例である。It is an example of the image figure of the screen image before an overlap process is performed. オーバーラップ処理が行われた後のスクリーン画像のイメージ図の一例である。It is an example of the image figure of the screen image after an overlap process was performed. 図2に示したレシーブ処理を示すフローチャートである。It is a flowchart which shows the receiving process shown in FIG. 図8に示した影描写処理を示すフローチャートである。It is a flowchart which shows the shadow description process shown in FIG. 動的オブジェクトに対してその動的シャドウが生成される場合を説明するための図である。It is a figure for demonstrating the case where the dynamic shadow is produced | generated with respect to a dynamic object. 静的シャドウと動的シャドウとの位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship of a static shadow and a dynamic shadow. 従来の建物と静的オブジェクトと動的オブジェクトとの位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship of the conventional building, a static object, and a dynamic object.

符号の説明Explanation of symbols

1 ゲーム装置
2 CPU
3 描画データ生成プロセッサ
4 RAM
5 ROM
6 描画処理プロセッサ
7 VRAM
8 D/Aコンバータ
9 音声処理プロセッサ
10 アンプ
12 DVD−ROMドライブ
14 モニタ
15 スピーカ
16 操作コントローラ
17 DVD−ROM
71 テクスチャバッファ
72 フレームバッファ
B 建物(静的オブジェクト)
BS 静的シャドウ
C キャラクタ(動的オブジェクト)
CS 動的シャドウ
E 地面
L ライト
O オブジェクト
SM シャドウマップ
S スクリーン画像
V 視点(カメラ)
1 game machine 2 CPU
3 drawing data generation processor 4 RAM
5 ROM
6 Drawing processor 7 VRAM
8 D / A converter 9 Audio processor 10 Amplifier 12 DVD-ROM drive 14 Monitor 15 Speaker 16 Operation controller 17 DVD-ROM
71 Texture buffer 72 Frame buffer B Building (Static object)
BS static shadow C character (dynamic object)
CS Dynamic Shadow E Ground L Light O Object SM Shadow Map S Screen Image V Viewpoint (Camera)

Claims (7)

コンピュータを、
三次元の仮想空間内に固定的に配置される1以上の静的なオブジェクトとその仮想空間内に動作可能に配置される1以上の動的なオブジェクトとを所定の視点から投影した二次元画像を作成し、表示画面に表示するためのゲーム装置として機能させるためのゲームプログラムであって、
前記コンピュータを、
フレームバッファの画素ごとに、前記静的なオブジェクトの輝度データとその影の輝度データと前記動的なオブジェクトの輝度データとを用い前記二次元画像を前記フレームバッファ上に作成する画像作成手段と、
前記画像作成手段により作成された前記フレームバッファ上の二次元画像について、画素ごとに、所定の光源と前記動的なオブジェクトとの位置関係に基づいて前記動的なオブジェクトの影を描画するか否かを判別する第1判別手段と、
前記第1判別手段によって前記動的なオブジェクトの影が描画されると判別された画素において、前記静的なオブジェクトの影の輝度データに基づいて前記静的なオブジェクトの影が存在するか否かを判別する第2判別手段と、
前記第2判別手段による判別結果に基づいて、前記動的なオブジェクトの影の輝度データを設定する影データ設定手段と、
前記フレームバッファの前記動的なオブジェクトの影を描くべき画素に対して、前記影データ設定手段によって設定された前記動的なオブジェクトの影の輝度データに基づいて、前記動的なオブジェクトの影を描画する描画手段と、
して機能させることを特徴とするゲームプログラム。
Computer
A two-dimensional image in which one or more static objects that are fixedly arranged in a three-dimensional virtual space and one or more dynamic objects that are operatively arranged in the virtual space are projected from a predetermined viewpoint. Is a game program for functioning as a game device for creating and displaying on a display screen,
The computer,
Image creation means for creating the two-dimensional image on the frame buffer using the luminance data of the static object, the luminance data of the shadow, and the luminance data of the dynamic object for each pixel of the frame buffer;
Whether or not to draw a shadow of the dynamic object based on the positional relationship between a predetermined light source and the dynamic object for each pixel of the two-dimensional image on the frame buffer created by the image creation means First discriminating means for discriminating
Whether or not there is a shadow of the static object based on luminance data of the shadow of the static object in the pixel determined by the first determination means that the shadow of the dynamic object is drawn Second discriminating means for discriminating
Shadow data setting means for setting brightness data of the shadow of the dynamic object based on the determination result by the second determination means;
Based on the luminance data of the shadow of the dynamic object set by the shadow data setting means for the pixel to which the shadow of the dynamic object of the frame buffer is to be drawn, the shadow of the dynamic object is changed. A drawing means for drawing;
A game program characterized by functioning.
前記コンピュータを、
前記第1判別手段によって前記動的なオブジェクトの影が描画されると判別された画素において、前記静的なオブジェクトの影の輝度データと、その画素における予め定められた前記動的なオブジェクトの影の輝度データとを加算する加算手段として機能させ、
前記第2判別手段は、
前記静的なオブジェクトの影の輝度データに代えて、前記加算手段による加算データと所定の閾値とを比較した比較結果に基づいて前記静的なオブジェクトの影が存在するか否かを判別する、請求項1に記載のゲームプログラム。
The computer,
In the pixel determined that the shadow of the dynamic object is drawn by the first determining means, the luminance data of the shadow of the static object and the predetermined shadow of the dynamic object in the pixel are determined. Function as an adding means for adding brightness data of
The second determining means includes
In place of the luminance data of the shadow of the static object, it is determined whether or not there is a shadow of the static object based on a comparison result obtained by comparing the addition data obtained by the addition unit and a predetermined threshold value. The game program according to claim 1.
前記第2判別手段は、
前記加算データが前記所定の閾値より大である場合、前記静的なオブジェクトの影が存在すると判別し、
前記加算データが前記所定の閾値以下である場合、前記静的なオブジェクトの影が存在しないと判別し、
前記影データ設定手段は、
前記第2判別手段によって前記静的なオブジェクトの影が存在すると判別された場合、前記静的なオブジェクトの影の輝度データと前記動的なオブジェクトの影の輝度データとの減算値を、前記動的なオブジェクトの影の輝度データとして設定し、前記第2判別手段によって前記静的なオブジェクトの影が存在しないと判別された場合、前記予め定められた動的なオブジェクトの影の輝度データを設定する、請求項2に記載のゲームプログラム。
The second determining means includes
If the addition data is greater than the predetermined threshold, determine that there is a shadow of the static object;
When the addition data is less than or equal to the predetermined threshold, it is determined that there is no shadow of the static object,
The shadow data setting means includes
When it is determined by the second determining means that the shadow of the static object exists, a subtraction value between the shadow luminance data of the static object and the shadow luminance data of the dynamic object is calculated as the dynamic value. If the second determination means determines that there is no shadow of the static object, the predetermined brightness data of the shadow of the dynamic object is set. The game program according to claim 2.
前記静的なオブジェクトの影の輝度データは、予め記憶手段に記憶されているライトマップに含まれており、
前記加算手段は、
前記静的なオブジェクトの影の輝度データとして、前記第1判別手段によって前記動的なオブジェクトの影が描画されると判別された画素に対応する輝度データを、前記ライトマップから読み出して用いる、請求項2又は3に記載のゲームプログラム。
The brightness data of the shadow of the static object is included in a light map stored in advance in the storage means,
The adding means includes
The brightness data corresponding to the pixel determined to be the shadow of the dynamic object drawn by the first determination unit is used as the brightness data of the static object shadow by reading from the light map. Item 4. A game program according to Item 2 or 3.
前記加算手段は、
前記静的なオブジェクトの影の輝度データ及び前記動的なオブジェクトの影の輝度データに対して補正値を付与する補正値付与手段を含む、請求項2ないし5のいずれかに記載のゲームプログラム。
The adding means includes
The game program according to any one of claims 2 to 5, further comprising correction value giving means for giving correction values to the shadow luminance data of the static object and the shadow luminance data of the dynamic object.
請求項1ないし5のいずれかに記載のゲームプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the game program according to any one of claims 1 to 5 is recorded. 請求項1ないし5のいずれかに記載のゲームプログラムを実行するコンピュータ。   A computer that executes the game program according to claim 1.
JP2007314418A 2007-12-05 2007-12-05 GAME PROGRAM, RECORDING MEDIUM CONTAINING THE GAME PROGRAM, AND COMPUTER Expired - Fee Related JP4995054B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007314418A JP4995054B2 (en) 2007-12-05 2007-12-05 GAME PROGRAM, RECORDING MEDIUM CONTAINING THE GAME PROGRAM, AND COMPUTER

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007314418A JP4995054B2 (en) 2007-12-05 2007-12-05 GAME PROGRAM, RECORDING MEDIUM CONTAINING THE GAME PROGRAM, AND COMPUTER

Publications (3)

Publication Number Publication Date
JP2009140135A true JP2009140135A (en) 2009-06-25
JP2009140135A5 JP2009140135A5 (en) 2011-01-27
JP4995054B2 JP4995054B2 (en) 2012-08-08

Family

ID=40870697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007314418A Expired - Fee Related JP4995054B2 (en) 2007-12-05 2007-12-05 GAME PROGRAM, RECORDING MEDIUM CONTAINING THE GAME PROGRAM, AND COMPUTER

Country Status (1)

Country Link
JP (1) JP4995054B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013166008A (en) * 2013-05-01 2013-08-29 Daito Giken:Kk Game machine and program
JP2017511514A (en) * 2014-01-22 2017-04-20 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Image processing method and apparatus, and computer device
CN108830923A (en) * 2018-06-08 2018-11-16 网易(杭州)网络有限公司 Image rendering method, device and storage medium
JP2019121238A (en) * 2018-01-09 2019-07-22 株式会社コーエーテクモゲームス Program, image processing method, and image processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188917A (en) * 1999-12-28 2001-07-10 Square Co Ltd Computer-readable recording medium with recorded program for three-dimensional computer image processing, shadow drawing processing method, and video game device
JP2002092635A (en) * 2000-09-20 2002-03-29 Sega Corp Image processor
JP2005157541A (en) * 2003-11-21 2005-06-16 Namco Ltd Program, information storage medium, and image generating system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188917A (en) * 1999-12-28 2001-07-10 Square Co Ltd Computer-readable recording medium with recorded program for three-dimensional computer image processing, shadow drawing processing method, and video game device
JP2002092635A (en) * 2000-09-20 2002-03-29 Sega Corp Image processor
JP2005157541A (en) * 2003-11-21 2005-06-16 Namco Ltd Program, information storage medium, and image generating system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013166008A (en) * 2013-05-01 2013-08-29 Daito Giken:Kk Game machine and program
JP2017511514A (en) * 2014-01-22 2017-04-20 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Image processing method and apparatus, and computer device
JP2019121238A (en) * 2018-01-09 2019-07-22 株式会社コーエーテクモゲームス Program, image processing method, and image processing device
CN108830923A (en) * 2018-06-08 2018-11-16 网易(杭州)网络有限公司 Image rendering method, device and storage medium
CN108830923B (en) * 2018-06-08 2022-06-17 网易(杭州)网络有限公司 Image rendering method and device and storage medium

Also Published As

Publication number Publication date
JP4995054B2 (en) 2012-08-08

Similar Documents

Publication Publication Date Title
JP3725524B2 (en) Method for generating computer display image and computer processing system and graphics processor for generating image data
US8602888B2 (en) Video game device and image processing program
JP5025950B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP4761528B2 (en) GAME PROGRAM AND GAME DEVICE
JP4895738B2 (en) 3D image display device and program for realizing the display device
JP2007229204A (en) Image generating method, image generator, and image generating program
JP4917346B2 (en) Game image processing program and game image processing apparatus
JP4343207B2 (en) Game device and image processing program
JP2008071260A5 (en)
JP4995054B2 (en) GAME PROGRAM, RECORDING MEDIUM CONTAINING THE GAME PROGRAM, AND COMPUTER
JP2006195882A (en) Program, information storage medium and image generation system
JP2009140135A5 (en)
JP3639286B2 (en) GAME PROGRAM AND GAME DEVICE
JP2006252426A (en) Program, information storage medium, and image generation system
JP4967064B2 (en) Three-dimensional animation display device and program for realizing the display device
JP2010055131A (en) Program, information storage medium, and image generation system
JP2009205522A (en) Program, information storage medium, and information conversion system
JP2008176148A (en) Liquid crystal display controller and liquid crystal display control program
JP4632855B2 (en) Program, information storage medium, and image generation system
JP4231684B2 (en) GAME DEVICE AND GAME PROGRAM
JP2014146162A (en) Image synthesis processing method and game machine
JP4955929B2 (en) Three-dimensional animation display device and program for realizing the display device
JP2006277329A5 (en)
JP2010231364A (en) Image generation system, program and information recording medium
JP2009246600A (en) Production control program of sound generated from sound source in virtual space

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120501

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120509

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4995054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees