JP4408681B2 - Program, information storage medium, and image generation system - Google Patents

Program, information storage medium, and image generation system Download PDF

Info

Publication number
JP4408681B2
JP4408681B2 JP2003361774A JP2003361774A JP4408681B2 JP 4408681 B2 JP4408681 B2 JP 4408681B2 JP 2003361774 A JP2003361774 A JP 2003361774A JP 2003361774 A JP2003361774 A JP 2003361774A JP 4408681 B2 JP4408681 B2 JP 4408681B2
Authority
JP
Japan
Prior art keywords
paint
model object
texture
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003361774A
Other languages
Japanese (ja)
Other versions
JP2005128687A (en
Inventor
幸延 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.), Namco Ltd, Namco Bandai Games Inc filed Critical Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Priority to JP2003361774A priority Critical patent/JP4408681B2/en
Publication of JP2005128687A publication Critical patent/JP2005128687A/en
Application granted granted Critical
Publication of JP4408681B2 publication Critical patent/JP4408681B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、プログラム、情報記憶媒体、及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

従来より、キャラクタなどのモデルオブジェクトが配置設定されるオブジェクト空間内(仮想的な3次元空間)において所与の視点(仮想カメラ)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。   Conventionally, an image generation system (game system) that generates an image that can be seen from a given viewpoint (virtual camera) in an object space (virtual three-dimensional space) in which model objects such as characters are arranged and set is known. It is popular as a place to experience so-called virtual reality.

この画像生成システムでは、背景の汚れなどを表現するために、テクスチャマッピングが用いられる。具体的には、汚れ模様テクスチャがマッピングされたポリゴンを描画することで背景の汚れを表現する。しかしながら、この手法では、汚れ範囲が増加すると、それにつれて、描画すべきポリゴンの枚数が増えてしまい、処理負荷が増大してしまう。従って広い範囲の汚れを表現することが難しかった。
特開平2001−76174号公報
In this image generation system, texture mapping is used to express background dirt and the like. Specifically, the background dirt is expressed by drawing a polygon to which the dirt pattern texture is mapped. However, with this method, when the dirt range increases, the number of polygons to be drawn increases accordingly, and the processing load increases. Therefore, it was difficult to express a wide range of dirt.
JP-A-2001-76174

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、少ない処理負荷でモデルオブジェクトへのペイント表現を実現できるプログラム、情報記憶媒体及び画像生成システムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a program, an information storage medium, and an image generation system capable of realizing paint expression on a model object with a small processing load. There is.

本発明は、オブジェクト空間において所与の視点から見える画像を生成する画像生成システムであって、フレーム更新により描画画像がクリアされる表示用領域と、フレーム更新により描画画像がクリアされないペイント用領域とを有する記憶部と、前記記憶部の領域に画像を描画する描画部とを含み、前記描画部が、前回のフレームでのペイントテクスチャがクリアされずに残っている前記ペイント用領域に、ペイント画像を描画することで、今回のフレームでのペイントテクスチャを生成し、生成されたペイントテクスチャのテクスチャマッピングを行いながら、表示用モデルオブジェクトを前記表示用領域に描画する画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。   The present invention relates to an image generation system that generates an image that can be viewed from a given viewpoint in an object space, a display area in which a drawing image is cleared by frame update, and a paint area in which the drawing image is not cleared by frame update; And a drawing unit that draws an image in the area of the storage unit, and the drawing unit paints a paint image in the paint area that remains without clearing the paint texture in the previous frame. This is related to an image generation system that generates a paint texture in the current frame and draws a display model object in the display area while performing texture mapping of the generated paint texture. The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

本発明によれば、フレーム更新により描画画像がクリアされないペイント用領域にペイント画像を描画することで、ペイントテクスチャが生成される。そして生成されたペイントテクスチャのテクスチャマッピングを行いながら、表示用モデルオブジェクトを表示用領域に描画することで、表示画像(ゲーム画像、フレーム画像)が生成される。このようにすれば、ペイント用領域には今回のフレームでのペイント画像を描画するだけでよいため、処理負荷を軽減できる。そして今回のフレームでのペイントテクスチャは、前回のフレームで生成されたペイントテクスチャがクリアされずに残っているペイント用領域に、ペイント画像を描画することで生成される。従って汚れ、弾痕等の範囲が徐々に拡大して行くような画像表現を少ない処理負荷で実現できる。   According to the present invention, the paint texture is generated by drawing the paint image in the paint area where the drawing image is not cleared by the frame update. A display image (game image, frame image) is generated by drawing the display model object in the display area while performing texture mapping of the generated paint texture. In this way, it is only necessary to draw the paint image in the current frame in the paint area, so that the processing load can be reduced. The paint texture in the current frame is generated by drawing a paint image in the area for painting that remains without clearing the paint texture generated in the previous frame. Accordingly, it is possible to realize an image expression in which the range of dirt, bullet holes, etc. gradually expands with a small processing load.

なお生成されたペイントテクスチャは、他のテクスチャと共に表示用モデルオブジェクトに直接にマルチテクスチャマッピング手法によりマッピングしてもよいし、別に用意されたペイント用モデルオブジェクトにペイントテクスチャをマッピングするようにしてもよい。   The generated paint texture may be mapped directly to the display model object together with other textures by the multi-texture mapping method, or the paint texture may be mapped to a separately prepared paint model object. .

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記記憶部が、表示用モデルオブジェクトにマッピングすべきテクスチャが記憶されるテクスチャ領域を更に有し、前記描画部が、前記テクスチャ領域のテクスチャを、表示用モデルオブジェクトにマッピングし、前記ペイントテクスチャを、表示用モデルオブジェクトの形状を簡略化したペイント用モデルオブジェクトにマッピングし、テクスチャ領域のテクスチャがマッピングされる表示用モデルオブジェクトと、ペイントテクスチャがマッピングされるペイント用モデルオブジェクトとを、前記表示用領域に描画するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the storage unit further includes a texture region in which a texture to be mapped to the display model object is stored, and the drawing unit includes the texture region. A texture is mapped to a display model object, the paint texture is mapped to a paint model object in which the shape of the display model object is simplified, and a texture in the texture area is mapped, and the paint texture The paint model object to which is mapped may be drawn in the display area.

このようにすれば、狭義のマルチテクスチャマッピング機能をサポートしていない画像生成システムにおいても、モデルオブジェクトに汚れや弾痕等を付着させるペイント表現を実現できる。またペイント用モデルオブジェクトの形状を簡略化することで、使用メモリ容量の節約も図れる。   In this way, even in an image generation system that does not support the multi-texture mapping function in the narrow sense, it is possible to realize a paint expression that attaches dirt, bullet holes, etc. to the model object. Also, by simplifying the shape of the paint model object, it is possible to save the memory capacity used.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記記憶部の前記ペイント用領域が、ペイント用モデルオブジェクト又は表示用モデルオブジェクトの第1〜第Nの面に対応した第1〜第Nの領域を有し、前記描画部が、前記ペイント用領域の前記第1〜第Nの領域に生成されたペイントテクスチャを、ペイント用モデルオブジェクト又は表示用モデルオブジェクトの前記第1〜第Nの面にマッピングするこようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the paint area of the storage unit corresponds to the first to Nth surfaces of the paint model object or the display model object. N regions, and the drawing unit generates paint textures generated in the first to Nth regions of the paint region as the first to Nth paint model objects or display model objects. You may make it map to a surface.

このようにすればペイント用又は表示用のモデルオブジェクトが第1〜第Nの面を有する場合にも、これらの各面にペイント画像をペイントするペイント表現を、簡素な処理で実現できる。   In this way, even when the paint or display model object has the first to Nth surfaces, the paint expression for painting the paint image on each of these surfaces can be realized by a simple process.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記記憶部の前記ペイント用領域が、ペイント用モデルオブジェクト又は表示用モデルオブジェクトの第1の底面に対応した第1の底面用領域と、ペイント用モデルオブジェクト又は表示用モデルオブジェクトの第1の底面よりも高い位置にある第2の底面に対応した第2の底面用領域とを有し、前記描画部が、前記ペイント用領域の前記第1、第2の底面用領域に生成されたペイントテクスチャを、ペイント用モデルオブジェクト又は表示用モデルオブジェクトの前記第1、第2の底面にマッピングするようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the paint area of the storage unit is a first bottom area corresponding to the first bottom face of the paint model object or the display model object. A second bottom surface area corresponding to a second bottom surface at a position higher than the first bottom surface of the paint model object or the display model object, and the drawing unit includes the paint region The paint texture generated in the first and second bottom surface areas may be mapped to the first and second bottom surfaces of the paint model object or the display model object.

このようにすれば、第2の底面にペイントされるべきではないペイント画像が、第2の底面にペイントされてしまうような事態を効果的に防止できる。   In this way, it is possible to effectively prevent a situation where a paint image that should not be painted on the second bottom surface is painted on the second bottom surface.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、表示用モデルオブジェクトの形状を簡略化したヒットチェック用モデルオブジェクト又は表示用モデルオブジェクトと、プリミティブとのヒットチェック処理を行うヒットチェック部と、ヒットチェック処理により求められたプリミティブのヒット位置に基づいて、ペイント画像の描画位置を決定する描画位置決定部を含み(ヒットチェック部と描画位置決定部としてコンピュータを機能させ)、前記描画部が、決定された描画位置に、ペイント画像を描画するようにしてもよい。   In the image generation system, program, and information storage medium according to the present invention, a hit check model object or display model object in which the shape of the display model object is simplified, and a hit check unit that performs hit check processing with a primitive, A drawing position determining unit that determines the drawing position of the paint image based on the hit position of the primitive obtained by hit check processing (the computer functions as a hit check unit and a drawing position determining unit), The paint image may be drawn at the determined drawing position.

このようにすれば、ヒットチェック用又は表示用のモデルオブジェクトにプリミティブがヒットした場合に、そのヒット位置に対応する位置にペイント画像がペイントされた表示用モデルオブジェクトの画像を生成でき、リアルな画像表現を実現できる。   In this way, when a primitive hits a hit check or display model object, a display model object image in which a paint image is painted at a position corresponding to the hit position can be generated. Expression can be realized.

また本発明は、オブジェクト空間において所与の視点から見える画像を生成する画像生成システムであって、表示用領域とペイント用領域とを有する記憶部と、前記ペイント用領域にペイント画像を描画することで、ペイントテクスチャを生成し、生成されたペイントテクスチャのテクスチャマッピングを行いながら、表示用モデルオブジェクトを前記表示用領域に描画する描画部と、表示用モデルオブジェクトの形状を簡略化したヒットチェック用モデルオブジェクト又は表示用モデルオブジェクトと、プリミティブとのヒットチェック処理を行うヒットチェック部と、ヒットチェック処理により求められたプリミティブのヒット位置に基づいて、ペイント画像の描画位置を決定する描画位置決定部とを含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。   Further, the present invention is an image generation system for generating an image that can be viewed from a given viewpoint in an object space, wherein the storage unit includes a display area and a paint area, and the paint image is drawn in the paint area. A drawing unit that draws a display model object in the display area while generating a paint texture and performing texture mapping of the generated paint texture, and a hit check model that simplifies the shape of the display model object A hit check unit for performing a hit check process with an object or a display model object and a primitive, and a drawing position determining unit for determining a paint image drawing position based on the hit position of the primitive obtained by the hit check process Concerning image generation system including. The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

本発明によれば、ヒットチェック処理により求められたヒット位置に基づいて、描画位置が決定され、決定された描画位置にペイント画像が描画される。従って、ヒットチェック用又は表示用のモデルオブジェクトにプリミティブがヒットした場合に、そのヒット位置に対応する位置にペイント画像がペイントされた表示用モデルオブジェクトの画像を生成でき、リアルな画像表現を実現できる。   According to the present invention, the drawing position is determined based on the hit position obtained by the hit check process, and the paint image is drawn at the determined drawing position. Therefore, when a primitive hits a hit check or display model object, a display model object image in which a paint image is painted at a position corresponding to the hit position can be generated, and a realistic image expression can be realized. .

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記描画部が、生成されたペイントテクスチャを拡大又は縮小してマッピングするテクスチャマッピングを行い、前記描画位置決定部が、ヒットチェック処理により求められたプリミティブのヒット位置と、ペイントテクスチャの拡縮率とに基づいて、ペイント画像の描画位置、或いはペイント画像の描画位置及びサイズを決定するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the drawing unit performs texture mapping for mapping the generated paint texture by enlarging or reducing, and the drawing position determining unit performs hit check processing. The drawing position of the paint image or the drawing position and size of the paint image may be determined based on the obtained hit position of the primitive and the scaling ratio of the paint texture.

このようにすれば、アドレス管理の簡素化等のためにペイント用領域のサイズを固定サイズにした場合にも、矛盾の無いペイント表現を実現できる。   In this way, a consistent paint expression can be realized even when the size of the paint area is fixed for simplification of address management.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、ペイントテクスチャの前記拡縮率が、表示用モデルオブジェクトの形状を簡略化したモデルオブジェクトであって前記ペイントテクスチャがマッピングされるペイント用モデルオブジェクト又は表示用モデルオブジェクトのサイズデータに基づいて、特定されるようにしてもよい。   In the image generation system, program, and information storage medium according to the present invention, the scale factor of the paint texture is a model object in which the shape of the display model object is simplified and the paint texture is mapped to the paint model object Or you may make it identify based on the size data of the model object for a display.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記サイズデータが、ペイント用モデルオブジェクト又は表示用モデルオブジェクトの各頂点座標の最大値及び最小値により得られるデータであってもよい。   In the image generation system, program, and information storage medium according to the present invention, the size data may be data obtained from the maximum value and the minimum value of each vertex coordinate of the paint model object or the display model object.

また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、前記描画位置決定部が、ヒットチェック用モデルオブジェクト又は表示用モデルオブジェクトの面に沿って移動するプリミティブの移動位置に基づいて、ペイント画像の描画位置を決定し、前記描画部が、決定された描画位置であってプリミティブの前記移動位置に対応する描画位置に、ペイント画像を描画するようにしてもよい。   In the image generation system, the program, and the information storage medium according to the present invention, the drawing position determination unit may perform a paint image based on the movement position of the primitive that moves along the plane of the hit check model object or the display model object. The drawing position may be determined, and the drawing unit may draw the paint image at the determined drawing position corresponding to the movement position of the primitive.

このようにすれば、表示用モデルオブジェクトの面に沿ってペイント画像があたかも移動しているかのように見える画像を生成でき、演出効果を向上できる。   In this way, it is possible to generate an image that looks as if the paint image is moving along the surface of the display model object, thereby improving the effect.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation system (game system) of the present embodiment. Note that the image generation system of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAMなどにより実現できる。   The operation unit 160 is for a player to input operation data, and the function can be realized by a lever, a button, a steering, a microphone, a touch panel display, a housing, or the like. The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

携帯型情報記憶装置194は、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。通信部196は外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device. The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or communication ASICs, programs, and the like. It can be realized by.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of this embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (storage unit 170) via the network and communication unit 196. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部100は記憶部170をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on operation data and programs from the operation unit 160. Here, as the game process, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result are calculated. There is a process or a process of ending a game when a game end condition is satisfied. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、オブジェクト空間設定部110、移動・動作処理部112、パーティクル処理部113、視点制御部114、ヒットチェック部116、描画位置決定部118、描画部120、音生成部130を含む。なおこれらの一部を省略してもよい。   The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a particle processing unit 113, a viewpoint control unit 114, a hit check unit 116, a drawing position determination unit 118, a drawing unit 120, and a sound generation unit 130. Some of these may be omitted.

オブジェクト空間設定部110は、キャラクタ、車、樹木、柱、壁、建物、マップ(地形)などの表示物を表す各種モデルオブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのモデルオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でモデルオブジェクトを配置する。   The object space setting unit 110 is a model object representing objects such as characters, cars, trees, columns, walls, buildings, maps (terrain) (objects composed of primitive surfaces such as polygons, free-form surfaces, or subdivision surfaces). ) Is set in the object space. In other words, the position and rotation angle (synonymous with orientation and direction) of the model object in the world coordinate system are determined, and the rotation angle (rotation angle about the X, Y, and Z axes) is determined at that position (X, Y, Z). Place the model object with.

移動・動作処理部112は、モデルオブジェクト(車、飛行機、又はキャラクタ等)の移動・動作演算(移動・動作シミュレーション)を行う。即ち操作部160によりプレーヤが入力した操作データ、プログラム(移動・動作アルゴリズム)、或いは各種データ(モーションデータ)などに基づいて、モデルオブジェクト(移動オブジェクト)をオブジェクト空間内で移動させたり、モデルオブジェクトを動作(モーション、アニメーション)させる処理を行う。具体的には、モデルオブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、モデルオブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of a model object (car, airplane, character, etc.). That is, the model object (moving object) is moved in the object space or the model object is moved based on operation data, a program (movement / motion algorithm), or various data (motion data) input by the player through the operation unit 160. Perform processing to move (motion, animation). Specifically, a simulation for sequentially obtaining movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part object) of each model object every frame (1/60 seconds). Process. The frame is a unit of time for performing model object movement / motion processing (simulation processing) and image generation processing.

パーティクル処理部113は、その形状が変形する不定形な表示物(例えば炎、煙、水、爆発)を表現するためのパーティクル(広義にはプリミティブ)を、発生させたり、移動させたり、消滅させたりする処理を行う。具体的には、所与の発生位置から発生するパーティクル(例えば炎パーティクル、煙パーティクル)の発生量、発生位置、移動状態(速度、加速度等)又は寿命等をランダムに変化させる処理を行う。   The particle processing unit 113 generates, moves, or extinguishes particles (primitives in a broad sense) for expressing an irregularly shaped display object (for example, flame, smoke, water, explosion) whose shape is deformed. Process. Specifically, a process of randomly changing the generation amount, generation position, movement state (speed, acceleration, etc.) or lifetime of particles (for example, flame particles and smoke particles) generated from a given generation position is performed.

視点制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。   The viewpoint control unit 114 performs a virtual camera (viewpoint) control process for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, a process for controlling the position (X, Y, Z) or the rotation angle (rotation angle about the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position and the line-of-sight direction) is performed.

例えば仮想カメラによりモデルオブジェクトを後方から撮影する場合には、モデルオブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたモデルオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた移動経路で移動させながら予め決められた回転角度で回転させるようにしてもよい。この場合には、仮想カメラの位置(移動経路)や回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。   For example, when a model object is photographed from behind using a virtual camera, the position or rotation angle (the direction of the virtual camera) of the virtual camera is controlled so that the virtual camera follows changes in the position or rotation of the model object. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the model object obtained by the movement / motion processing unit 112. Alternatively, the virtual camera may be rotated at a predetermined rotation angle while being moved along a predetermined movement route. In this case, the virtual camera is controlled based on virtual camera data for specifying the position (movement path) and rotation angle of the virtual camera.

ヒットチェック部116は、モデルオブジェクトとプリミティブ(パーティクル、ポリゴン、又は自由曲面等)とのヒットチェック処理を行う。このヒットチェック処理は、例えばモデルオブジェクトの面とプリミティブの移動軌道との交点を求めることで実現される。なおプリミティブとのヒットチェックの対象となるモデルオブジェクトは、ヒットチェック用モデルオブジェクトであってもよいし、表示用モデルオブジェクトであってもよい。   The hit check unit 116 performs hit check processing between the model object and the primitive (particle, polygon, free-form surface, etc.). This hit check process is realized, for example, by obtaining the intersection of the surface of the model object and the movement trajectory of the primitive. The model object to be hit-checked with the primitive may be a hit check model object or a display model object.

ここで表示用モデルオブジェクトは、画面に実際に表示されるモデルオブジェクト(複数のパーツオブジェクトで構成されるオブジェクト)であり、例えば背景、キャラクタ、車、バイク、船、宇宙船、或いはロボットなどのゲームに登場する表示物を表すモデルオブジェクトである。またヒットチェック用モデルオブジェクト(ヒットボリューム、ヒットボックス)は、ヒットチェックのために表示用モデルオブジェクトとは別に用意され、表示用モデルオブジェクトの形状を簡略化したモデルオブジェクトである。例えばヒットチェック用モデルオブジェクトは、表示用モデルオブジェクトよりもプリミティブ面数(ポリゴン数)が少なくなっている。また表示用モデルオブジェクトでは、多数のプリミティブ面により精密に表現されている部分も、ヒットチェック用モデルオブジェクトでは、少ないプリミティブ面で簡略化して表現される。   Here, the display model object is a model object (an object composed of a plurality of part objects) that is actually displayed on the screen. For example, a game such as a background, a character, a car, a motorcycle, a ship, a spaceship, or a robot. This is a model object that represents a display object that appears in. The hit check model object (hit volume, hit box) is prepared separately from the display model object for hit check, and is a model object in which the shape of the display model object is simplified. For example, the hit check model object has a smaller number of primitive faces (number of polygons) than the display model object. Further, in the model object for display, a portion that is precisely expressed by a large number of primitive surfaces is also simplified and expressed by a small number of primitive surfaces in the model object for hit check.

なおヒットチェック用モデルオブジェクトのサイズやオブジェクト空間内での配置位置は、表示用モデルオブジェクトのサイズや配置位置とほぼ同じになっている。但し、表示画面のチラツキ等の防止のために、ヒットチェック用モデルオブジェクトは、表示用モデルオブジェクトよりも例えば上方向(Y方向)にずらした位置に配置することが望ましい。   The size of the hit check model object and the arrangement position in the object space are substantially the same as the size and arrangement position of the display model object. However, in order to prevent flickering of the display screen or the like, the hit check model object is desirably arranged at a position shifted, for example, in the upward direction (Y direction) from the display model object.

描画位置決定部118は、汚れや弾痕などを表すペイント画像の描画位置を決定する処理を行う。具体的には、ヒットチェック部116によるヒットチェック処理により求められた、モデルオブジェクト(ヒットチェック用、表示用モデルオブジェクト)とプリミティブ(パーティクル)とのヒット位置に基づいて、ペイント画像の描画位置を決定する。更に具体的には、プリミティブのヒット位置や、後述するペイントテクスチャの拡縮率や、プリミティブがヒットしたモデルオブジェクトの面の法線ベクトルなどに基づいて、ペイント画像(ペイントテクスチャ)の描画位置を決定する。   The drawing position determination unit 118 performs processing for determining the drawing position of a paint image representing dirt, bullet holes, and the like. Specifically, the drawing position of the paint image is determined based on the hit position between the model object (hit check and display model object) and the primitive (particle) obtained by the hit check processing by the hit check unit 116. To do. More specifically, the drawing position of the paint image (paint texture) is determined based on the hit position of the primitive, the scaling ratio of the paint texture described later, the normal vector of the surface of the model object hit by the primitive, and the like. .

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まず、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、或いは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のモデルオブジェクト(1又は複数プリミティブ面)を表示用領域172に描画する。これにより、オブジェクト空間内において所与の視点(仮想カメラ)から見える画像が生成される。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. In the case of generating a so-called three-dimensional game image, first, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, or perspective transformation is performed, and drawing data ( The position coordinates, texture coordinates, color data, normal vector, α value, etc.) of the vertexes of the primitive surface are created. Based on the drawing data (primitive surface data), the model object (one or a plurality of primitive surfaces) after perspective transformation (after the geometry processing) is drawn in the display area 172. Thereby, an image that is visible from a given viewpoint (virtual camera) in the object space is generated.

具体的には、VRAM等により構成される記憶部170の表示用領域172、ペイント用領域174は共に、ピクセル単位で画像情報を記憶できる領域である。そして、いわゆるフレームバッファに相当する表示用領域172は、各フレームで表示すべきフレーム画像(ゲーム画像、表示画像)が生成される領域であり、フレーム更新(例えば1フレームである1/60秒毎の更新)により画像がクリア(リフレッシュ)される領域である。この画像のクリアは、例えば全画面が黒の画像を書き込むことで実現される。一方、ペイントテクスチャの生成に使用されるペイント用領域174は、フレーム更新により画像がクリアされない領域である。なおペイント用領域174の一部をフレーム更新によりクリアするようにしてもよい。   Specifically, both the display area 172 and the paint area 174 of the storage unit 170 configured by a VRAM or the like are areas in which image information can be stored in units of pixels. A display area 172 corresponding to a so-called frame buffer is an area where a frame image (game image, display image) to be displayed in each frame is generated, and frame update (for example, every 1/60 seconds, which is one frame). This is an area where the image is cleared (refreshed). This clearing of the image is realized, for example, by writing a black image on the entire screen. On the other hand, the paint area 174 used for generating the paint texture is an area where the image is not cleared by the frame update. A part of the paint area 174 may be cleared by frame update.

そして描画部120は、前回のフレームまでに生成されたペイントテクスチャ(ペイント画像)がクリアされずに残っているペイント用領域174に、ペイント画像(汚れ画像)を描画することで、今回のフレームでのペイントテクスチャを生成する。そして生成されたペイントテクスチャのテクスチャマッピングを行いながら、表示用モデルオブジェクトを表示用領域172に描画する。このようにすることで、今回のフレームでのフレーム画像(ゲーム画像、表示画像)が生成される。   Then, the drawing unit 120 draws the paint image (dirt image) in the paint region 174 that remains without clearing the paint texture (paint image) generated up to the previous frame. Generate a paint texture. The display model object is drawn in the display area 172 while performing texture mapping of the generated paint texture. In this way, a frame image (game image, display image) in the current frame is generated.

描画部120は、テクスチャマッピング部122、α合成部124を含む。テクスチャマッピング部122は、ペイント用領域174に生成されるペイントテクスチャやテクスチャ領域176に記憶されるテクスチャ(テクセル値)をモデルオブジェクトにマッピングする処理を行う。具体的には、モデルオブジェクト(プリミティブ面)の頂点に設定(付与)されるテクスチャ座標等を用いて、ペイント用領域174やテクスチャ領域176からテクスチャ(色、α値などの表面プロパティ)を読み出す。そして、2次元の画像又はパターンであるテクスチャをモデルオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理やバイリニア補間(テクセル補間)などを行う。このようにペイント用領域174にペイント画像を描画することでリアルタイム生成されたペイントテクスチャのマッピングは、このテクスチャマッピング部122により行われる。   The drawing unit 120 includes a texture mapping unit 122 and an α synthesis unit 124. The texture mapping unit 122 performs processing for mapping the paint texture generated in the paint area 174 and the texture (texel value) stored in the texture area 176 to the model object. Specifically, the texture (surface properties such as color and α value) is read from the paint area 174 and the texture area 176 using the texture coordinates set (given) at the vertices of the model object (primitive surface). Then, a texture that is a two-dimensional image or pattern is mapped to a model object. In this case, processing for associating pixels and texels, bilinear interpolation (texel interpolation), and the like are performed. Thus, the texture mapping unit 122 performs mapping of the paint texture generated in real time by drawing the paint image in the paint region 174.

なおテクスチャマッピング部122のテクスチャマッピング手法としては種々の手法がある。例えば第1の手法では、テクスチャ領域176のテクスチャ(下地テクスチャ、背景テクスチャ)を表示用モデルオブジェクトにマッピングし、生成されたペイントテクスチャ(オーバレイ物テクスチャ、汚れテクスチャ、弾痕テクスチャ)をペイント用モデルオブジェクトにマッピングする。そしてテクスチャ領域のテクスチャがマッピングされる表示用モデルオブジェクトと、ペイントテクスチャがマッピングされるペイント用モデルオブジェクトとを、表示用領域172に描画する。一方、第2の手法では、テクスチャ領域176に記憶されるテクスチャと、生成されたペイントテクスチャとを、いわゆるマルチテクスチャマッピングにより表示用モデルオブジェクトにマッピングする。そしてマルチテクスチャマッピングが施された表示用モデルオブジェクトを表示用領域172に描画する。   There are various texture mapping methods for the texture mapping unit 122. For example, in the first method, the texture (background texture, background texture) in the texture area 176 is mapped to the display model object, and the generated paint texture (overlay texture, dirt texture, bullet hole texture) is used as the paint model object. Map. Then, the display model object to which the texture in the texture area is mapped and the paint model object to which the paint texture is mapped are drawn in the display area 172. On the other hand, in the second method, the texture stored in the texture area 176 and the generated paint texture are mapped to the display model object by so-called multi-texture mapping. Then, the display model object subjected to the multi-texture mapping is drawn in the display area 172.

α合成部124はα値(A値)に基づくα合成処理(αブレンディング、α加算又はα減算等)を行う。例えばα合成がαブレンディングである場合には下式の合成処理を行う。   The α synthesis unit 124 performs α synthesis processing (α blending, α addition, α subtraction, or the like) based on the α value (A value). For example, when the α composition is α blending, the following composition processing is performed.

=(1−α)×R+α×R (1)
=(1−α)×G+α×G (2)
=(1−α)×B+α×B (3)
一方、α合成が加算αブレンディングである場合には下式の合成処理を行う。
R Q = (1−α) × R 1 + α × R 2 (1)
G Q = (1−α) × G 1 + α × G 2 (2)
B Q = (1−α) × B 1 + α × B 2 (3)
On the other hand, when α composition is addition α blending, the following composition processing is performed.

=R+α×R (4)
=G+α×G (5)
=B+α×B (6)
ここで、R、G、Bは、表示用領域172やペイント用領域174に既に描画されている画像のRGB成分であり、R、G、Bは、表示用領域172やペイント用領域174に描画すべき画像のRGB成分である。また、R、G、Bは、αブレンディングにより得られる画像のRGB成分である。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。
R Q = R 1 + α × R 2 (4)
G Q = G 1 + α × G 2 (5)
B Q = B 1 + α × B 2 (6)
Here, R 1 , G 1 , B 1 are RGB components of the image already drawn in the display area 172 and the paint area 174, and R 2 , G 2 , B 2 are the display area 172 and This is the RGB component of the image to be drawn in the paint area 174. R Q , G Q , and B Q are RGB components of an image obtained by α blending. The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play. Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

2.本実施形態の手法
次に本実施形態の手法について図面を用いて説明する。
2. Next, the method of this embodiment will be described with reference to the drawings.

2.1 ペイントテクスチャの生成
本実施形態では、ゲーム画像の背景(床、壁)などに付着される汚れ等を表現するために以下の手法を採用している。例えば図2において表示用領域(表示用VRAM領域)はフレーム更新によりクリア(リフレッシュ)される領域であり、表示用モデルオブジェクトDOB(部屋などの背景を表すモデルオブジェクト)が描画される領域である。一方、ペイント用領域(ペイント用VRAM領域)はフレーム更新によりクリアされない領域であり、ペイントテクスチャがリアルタイムに生成される領域である。
2.1 Generation of Paint Texture In the present embodiment, the following technique is used to express dirt or the like attached to the background (floor, wall) of the game image. For example, in FIG. 2, a display area (display VRAM area) is an area that is cleared (refreshed) by frame update, and is an area in which a display model object DOB (model object representing a background such as a room) is drawn. On the other hand, the paint area (paint VRAM area) is an area that is not cleared by frame update, and is an area in which a paint texture is generated in real time.

そして本実施形態では、前回のフレームでのペイントテクスチャが残っているペイント用領域にペイント画像を描画することで、今回のフレームでのペイントテクスチャを生成する。そして生成されたペイントテクスチャのテクスチャマッピングを行いながら、表示用モデルオブジェクトDOBを表示用領域に描画することで、背景(表示用モデルオブジェクト)に汚れ(ペイントテクスチャ)が付着した画像を生成する。   In this embodiment, the paint texture in the current frame is generated by drawing the paint image in the paint area where the paint texture in the previous frame remains. Then, while performing texture mapping of the generated paint texture, the display model object DOB is drawn in the display area, thereby generating an image in which dirt (paint texture) is attached to the background (display model object).

より具体的には図2に示すようにペイント用領域は、表示用モデルオブジェクトDOB(又は後述するペイント用モデルオブジェクトPOB)の面SF1〜SF5(広義には第1〜第Nの面)に対応した領域PR1〜PR5(広義には第1〜第Nの領域)を有する。例えば表示用モデルオブジェクトが部屋の背景を表すものである場合には、面SF1、SF2、SF3、SF4、SF5は、各々、床(広義には底面)、北側壁、東側壁、南側壁、西側壁(広義には側面)である。   More specifically, as shown in FIG. 2, the paint area corresponds to the surfaces SF1 to SF5 (first to Nth surfaces in a broad sense) of the display model object DOB (or a paint model object POB described later). Regions PR1 to PR5 (first to Nth regions in a broad sense). For example, when the display model object represents the background of a room, the surfaces SF1, SF2, SF3, SF4, and SF5 are the floor (bottom surface in a broad sense), the north side wall, the east side wall, the south side wall, and the west side, respectively. It is a wall (side in the broad sense).

そして本実施形態では、ペイント用領域の各領域PR1〜PR5にペイント画像を描画する。この場合のペイント画像の描画位置は、後述するようにヒットチェック処理により求められたプリミティブ(汚れを表すパーティクル)のヒット位置に基づいて決定される。例えば汚れエフェクトのプリミティブが部屋の床にヒット(衝突)したと判断された場合には、床の面SF1に対応する領域PR1にペイント画像(汚れ画像)を描画する。同様に汚れエフェクトのプリミティブが部屋の北側壁にヒットしたと判断された場合には、北側壁の面SF2に対応する領域PR2にペイント画像を描画する。なおペイント画像の描画は、例えば汚れ等のテクスチャがマッピングされたプリミティブ面(ポリゴン)をペイント用領域に描画することで実現される。   In this embodiment, a paint image is drawn in each of the regions PR1 to PR5 of the paint region. In this case, the drawing position of the paint image is determined based on the hit position of the primitive (particle representing dirt) obtained by hit check processing, as will be described later. For example, when it is determined that the dirt effect primitive hits (collides) with the floor of the room, a paint image (dirt image) is drawn in the region PR1 corresponding to the floor surface SF1. Similarly, when it is determined that the dirt effect primitive hits the north side wall of the room, a paint image is drawn in the region PR2 corresponding to the surface SF2 of the north side wall. Drawing of a paint image is realized by drawing a primitive surface (polygon) to which a texture such as dirt is mapped in a paint area.

ペイント用領域の各領域PR1〜PR5に生成されたペイントテクスチャは、表示用モデルオブジェクトDOB(ペイント用モデルオブジェクトPOB)の各面SF1〜SF5にマッピングされる。これにより、部屋等の背景を汚す表現を実現できる。   The paint texture generated in each of the regions PR1 to PR5 of the paint region is mapped to each surface SF1 to SF5 of the display model object DOB (paint model object POB). Thereby, the expression which stains the background of a room etc. is realizable.

特に本実施形態ではペイント用領域はフレーム更新によりクリア(リフレッシュ)されない。従って前回のフレーム(1又は複数フレーム前)で描画されたペイント画像は、ペイント用領域の各領域PR1〜PR5に残ったままとなり、その上に、今回のペイント画像がα合成(αブレンディング、加算αブレンディング)等により描画される。従って、プリミティブ(パーティクル)が面にヒットする毎に、その面に汚れが追加されて、汚れ範囲が広がる。そして本実施形態では、意図的に消さない限り汚れ状態が保持され、汚れ範囲が増加しても処理負荷はほとんど増加しない。また、あたかも筆で塗る感覚で連続的に汚れ範囲を広げることができる。またスタンプのような感覚でフルカラーの模様を背景に貼り付けることができ、血液などの液体が付着して部屋が汚れるというような演出を少ない処理負荷で表現できる。   In particular, in the present embodiment, the paint area is not cleared (refreshed) by the frame update. Therefore, the paint image drawn in the previous frame (one or more frames before) remains in each of the paint regions PR1 to PR5, and the current paint image is α-combined (α blending, addition). (α blending) etc. Therefore, each time a primitive (particle) hits a surface, the surface is contaminated and the contamination range is expanded. In this embodiment, the dirt state is maintained unless intentionally deleted, and the processing load hardly increases even if the dirt range is increased. In addition, it is possible to continuously expand the dirt range as if painting with a brush. In addition, a full-color pattern can be pasted on the background as if it were a stamp, and an effect that a liquid such as blood adheres and the room becomes dirty can be expressed with a small processing load.

例えば汚れを表現する1つの手法として、汚れテクスチャ(弾痕テクスチャ)がマッピングされた汚れ用ポリゴンを直接に表示用領域に描画する手法が考えられる。しかしながら、この手法では、汚れ範囲が広がるにつれて、汚れ用ポリゴンの枚数が増えてしまい、描画負荷が増加する。これに対して本実施形態では、ペイント用領域の画像はフレーム更新によりクリアされずに残るため、汚れ範囲が広がっても、描画負荷はほとんど増加しないという利点がある。   For example, as a technique for expressing dirt, a technique for directly drawing a dirt polygon onto which a dirt texture (bullet hole texture) is mapped in a display area is conceivable. However, with this method, the number of dirt polygons increases as the dirt range widens, and the drawing load increases. On the other hand, in the present embodiment, since the image in the paint area remains without being cleared by the frame update, there is an advantage that the drawing load hardly increases even if the dirt range is widened.

なお図2ではペイント用領域に設定される領域PR1〜PR5の個数は5つとなっているが、本実施形態はこれに限定されない。例えば天井の面用の領域を更に設けてもよい。或いは図3のように、床1(広義には第1の底面)に対応する領域PR1(第1の底面用領域)と、床1よりも高い位置にある床2(広義には第2の底面)に対応する領域PR6(第2の底面用領域)を設けてもよい。   In FIG. 2, the number of regions PR1 to PR5 set as the paint region is five, but the present embodiment is not limited to this. For example, an area for a ceiling surface may be further provided. Alternatively, as shown in FIG. 3, a region PR1 (first bottom region) corresponding to the floor 1 (first bottom surface in a broad sense) and a floor 2 (second region in a broad sense) located higher than the floor 1 A region PR6 (second bottom surface region) corresponding to the bottom surface may be provided.

例えば部屋に中2階が存在する場合には、このような床2(面SF6)に対応する領域PR6を設けないと次のような問題が生じる。即ち下の床(面SF1)に対応する領域PR1に汚れのペイント画像が描画された場合に、中2階である床2(面SF6)にペイント画像がペイントされてしまう問題が生じる。図3のように床2(面SF6)に対応する領域PR6を設ければ、このような問題の発生を防止できる。   For example, if the room has a mezzanine floor, the following problem arises unless the region PR6 corresponding to the floor 2 (surface SF6) is provided. That is, when a dirty paint image is drawn in the region PR1 corresponding to the lower floor (surface SF1), there is a problem that the paint image is painted on the floor 2 (surface SF6) which is the middle floor. If the region PR6 corresponding to the floor 2 (surface SF6) is provided as shown in FIG. 3, such a problem can be prevented.

図4〜図7に本実施形態により生成されるゲーム画像の例を示す。なお本実施形態の手法の理解を容易にするために、ペイント用領域にペイント画像が描画されて行く様子を、ゲーム画像の右側に示している。   Examples of game images generated by this embodiment are shown in FIGS. In order to facilitate understanding of the technique of the present embodiment, a state where a paint image is drawn in the paint area is shown on the right side of the game image.

図4では、キャラクタの体内から噴出した液体(血液等)が部屋の床に流れ、これにより床が汚れている。この場合に液体はパーティクル(プリミティブ)により表現され、このパーティクルと床とのヒットチェック処理(衝突判定処理)が行われ、ヒット位置(衝突位置)が求められる。そして求められたヒット位置に基づいて、図4のA1に示すペイント用領域の描画位置が決定される。より具体的には、ヒット位置と、ペイントテクスチャの拡縮率と、パーティクルがヒットした面(ポリゴン)の法線ベクトルとに基づいて描画位置が決定される。例えばパーティクルがヒットした面(ポリゴン)の法線ベクトルの方向が上向き(Y方向)であった場合には、描画位置は、床に対応する領域PR1にあると判断される。そしてヒット位置の座標値に、ペイントテクスチャの拡縮率に応じた値を掛け合わせることで、図4のA1に示す描画位置が求められる。   In FIG. 4, liquid (blood or the like) ejected from the character's body flows on the floor of the room, which makes the floor dirty. In this case, the liquid is expressed by particles (primitives), hit check processing (collision determination processing) between the particles and the floor is performed, and a hit position (collision position) is obtained. Based on the obtained hit position, the drawing position of the paint area indicated by A1 in FIG. 4 is determined. More specifically, the drawing position is determined based on the hit position, the scaling ratio of the paint texture, and the normal vector of the surface (polygon) on which the particle hits. For example, when the direction of the normal vector of the surface (polygon) hit by the particle is upward (Y direction), it is determined that the drawing position is in the region PR1 corresponding to the floor. Then, the drawing position indicated by A1 in FIG. 4 is obtained by multiplying the coordinate value of the hit position by a value corresponding to the scaling ratio of the paint texture.

ペイント用領域は初期状態では全てクリアされているため、初期状態でのペイント用領域の画像は透明状態になっている。そして図4のA1では、この透明状態のペイント用領域のA1に示す描画位置に、液体の汚れを表すペイント画像が描画され、ペイントテクスチャが生成される。そして生成されたペイントテクスチャを、モデルオブジェクト(表示用モデルオブジェクト又はペイント用モデルオブジェクト)にマッピングすることで、図4に示すように、液体により床が汚れて行くゲーム画像を生成できる。   Since all the paint areas are cleared in the initial state, the image of the paint area in the initial state is in a transparent state. In A1 of FIG. 4, a paint image representing liquid stain is drawn at the drawing position indicated by A1 in the transparent paint area, and a paint texture is generated. Then, by mapping the generated paint texture to a model object (display model object or paint model object), as shown in FIG. 4, it is possible to generate a game image in which the floor is stained with liquid.

図5は、図4から複数フレーム経過した後のゲーム画像である。図5では図4に比べて汚れ範囲が拡大している。この場合に本実施形態では図5のA2に示すように、前のフレームでのペイント画像(例えば図4のA1)はクリアされずにペイント用領域に保持されて残っている。従って図5のゲーム画像のフレームでは、そのフレームで描画すべきペイント画像を描画するだけでよいため、全ての汚れ用ポリゴンを全てのフレームで描画する手法に比べて処理負荷を軽減できる。   FIG. 5 is a game image after a plurality of frames have elapsed from FIG. In FIG. 5, the contamination range is enlarged as compared with FIG. In this case, in this embodiment, as shown by A2 in FIG. 5, the paint image (for example, A1 in FIG. 4) in the previous frame is not cleared but is held in the paint area and remains. Therefore, in the frame of the game image of FIG. 5, it is only necessary to draw the paint image to be drawn in that frame, so that the processing load can be reduced as compared with the method of drawing all the dirt polygons in all the frames.

図6は、図5から複数フレーム経過した後のゲーム画像である。図6ではA3に示すように、床1の汚れ範囲が図5に比べて更に拡大している。またA4、A5に示すように、西側壁や床2に対応する領域PR5、PR6にもペイント画像が描画されている。これらの領域PR1、PR5、PR6に生成されたペイントテクスチャを、床1、西側壁、床2にマッピングすることで、床1、西側壁、床2に汚れが付着した画像を生成できる。なお図6のA4では、パーティクルがヒットした面(ポリゴン)の法線ベクトルの方向が東向き(図3参照)であるため、描画位置は、西側壁に対応する領域PR5にあると判断されている。   FIG. 6 shows a game image after a plurality of frames have elapsed from FIG. In FIG. 6, as shown by A3, the dirt range of the floor 1 is further expanded compared to FIG. Also, as shown in A4 and A5, paint images are also drawn in the regions PR5 and PR6 corresponding to the west side wall and the floor 2. By mapping the paint textures generated in these regions PR1, PR5, and PR6 to the floor 1, the west side wall, and the floor 2, an image in which dirt is attached to the floor 1, the west side wall, and the floor 2 can be generated. In A4 of FIG. 6, since the normal vector direction of the surface (polygon) on which the particle hits is eastward (see FIG. 3), the drawing position is determined to be in the region PR5 corresponding to the west side wall. Yes.

図7は、図6から複数フレーム経過した後のゲーム画像である。図6ではA6、A7、A8に示すように、床1、西側壁、床2に対応する領域PR1、PR5、PR6の画像は、フレーム更新されても、消されずに保持されている。またA9に示すように、南側壁に対応する領域PR4にもペイント画像が描画されている。これらの領域PR1、PR4、PR5、PR6に生成されたペイントテクスチャを、床1、南側壁、西側壁、床2にマッピングすることで、床1、南側壁、西側壁、床2に汚れが付着した画像を生成できる。なお図7のA9では、パーティクルがヒットした面の法線ベクトルの方向が北向き(図3参照)であるため、描画位置は、南側壁に対応する領域PR4にあると判断されている。   FIG. 7 is a game image after a plurality of frames have elapsed from FIG. In FIG. 6, as indicated by A6, A7, and A8, the images of the regions PR1, PR5, and PR6 corresponding to the floor 1, the west side wall, and the floor 2 are retained without being erased even if the frame is updated. Further, as indicated by A9, a paint image is also drawn in the region PR4 corresponding to the south side wall. By mapping the paint texture generated in these areas PR1, PR4, PR5, and PR6 to floor 1, south side wall, west side wall, and floor 2, dirt adheres to floor 1, south side wall, west side wall, and floor 2 Images can be generated. In FIG. 7A9, since the direction of the normal vector of the surface on which the particle hits is north (see FIG. 3), the drawing position is determined to be in the region PR4 corresponding to the south side wall.

以上のように本実施形態によれば、少ない処理負荷で、部屋の床や各壁に自在に汚れを付着させる画像表現を実現できる。   As described above, according to the present embodiment, it is possible to realize an image expression in which dirt is freely attached to a floor or each wall of a room with a small processing load.

2.2 ペイント用モデルオブジェクト
本実施形態では、図2〜図7で説明した手法で生成されたペイントテクスチャをマッピングするモデルオブジェクトとして、図8に示すようなペイント用モデルオブジェクトPOBを用意している。このペイント用モデルオブジェクトPOBは、部屋の壁や床に汚れ模様を貼り付けるための描画用モデルオブジェクトであり、ゲーム中において、最初は透明で目視できないが、汚れが付着するとその部分が画面に現れる。
2.2 Paint Model Object In this embodiment, a paint model object POB as shown in FIG. 8 is prepared as a model object for mapping the paint texture generated by the method described with reference to FIGS. . This paint model object POB is a drawing model object for pasting a dirt pattern on the wall or floor of a room. In the game, the paint model object POB is transparent and cannot be seen at first, but when dirt is attached, the part appears on the screen. .

このペイント用モデルオブジェクトPOBは、表示用モデルオブジェクトDOB(背景モデル)と近い形状になっている。具体的には表示用モデルオブジェクトDOBよりもポリゴン数を減らして、DOBの形状を簡略化した形状になっている。例えば部屋の入り口や柱には汚れは付着しないので、その部分の形状が省略、簡略化された形状にする。なおポリゴン同士の干渉によるチラツキの発生を防止するために、背景の表示用モデルオブジェクトDOBよりも所与の距離だけ上方にずらした位置にペイント用モデルオブジェクトPOBを配置する。   The paint model object POB has a shape close to that of the display model object DOB (background model). Specifically, the number of polygons is reduced compared to the display model object DOB, and the shape of the DOB is simplified. For example, since dirt does not adhere to the entrance or pillar of the room, the shape of the portion is omitted and the shape is simplified. In order to prevent flickering due to interference between polygons, the paint model object POB is arranged at a position shifted upward by a given distance from the background display model object DOB.

ペイント用モデルオブジェクトPOBの制作段階においては、仮テクスチャをPOBにマッピングする。この仮テクスチャは、例えば各領域PR1〜PR6間で色が異なる単色のテクスチャになっている。ペイント用モデルオブジェクトPOBの最下段の床面には、床1用の仮テクスチャをマッピングし、上の床面には床2用の仮テクスチャをマッピングする。また各壁面には各壁面用の仮テクスチャをマッピングする。例えばペイント用モデルオブジェクトPOBを真上から見て、XZ平面上の頂点の最大値、最小値により特定される矩形を想定する。そして、その矩形に投影するように床1用の仮テクスチャをマッピングし、複数のポリゴンの各頂点のテクスチャ座標(UV)を設定する。また東西南北の各壁面では、ペイント用モデルオブジェクトPOBを真正面、真裏面、横面からそれぞれ見て、XY(ZY)平面上の頂点の最大値、最小値により特定される矩形を想定する。そしてその矩形に投影するように各壁面用の仮テクスチャをマッピングし、複数のポリゴンの各頂点のテクスチャ座標(UV)を設定する。   In the production stage of the paint model object POB, the temporary texture is mapped to the POB. This temporary texture is, for example, a monochromatic texture with different colors between the regions PR1 to PR6. The temporary texture for the floor 1 is mapped to the floor surface at the bottom of the paint model object POB, and the temporary texture for the floor 2 is mapped to the upper floor surface. Moreover, the temporary texture for each wall surface is mapped to each wall surface. For example, a rectangle specified by the maximum value and the minimum value of vertices on the XZ plane is assumed when the paint model object POB is viewed from directly above. Then, the temporary texture for the floor 1 is mapped so as to project onto the rectangle, and the texture coordinates (UV) of each vertex of the plurality of polygons are set. Further, on each of the east, west, north, and south wall surfaces, a rectangle specified by the maximum value and the minimum value of the vertices on the XY (ZY) plane is assumed when the paint model object POB is viewed from the front, the back, and the side. And the temporary texture for each wall surface is mapped so that it may project on the rectangle, and the texture coordinate (UV) of each vertex of a some polygon is set.

ゲーム処理中においては、仮テクスチャのテクスチャアドレスではなく、ペイント用領域(ペイント用VRAM領域)のアドレスを指定してマッピングする。こうすることで、仮テクスチャの代わりに、ペイント用領域でリアルタイム生成されたペイントテクスチャがペイント用モデルオブジェクトにマッピングされるようになる。   During the game process, mapping is performed by designating the address of the paint area (paint VRAM area) instead of the texture address of the temporary texture. By doing this, instead of the temporary texture, the paint texture generated in real time in the paint area is mapped to the paint model object.

2.3 ヒットチェック用モデルオブジェクト
本実施形態では、ペイント画像の描画位置を決定するためのモデルオブジェクトとして、図9に示すようなヒットチェック用モデルオブジェクトHOBを用意している。このヒットチェック用モデルオブジェクトHOBは、表示用モデルオブジェクトDOBやペイント用モデルオブジェクトPOBよりもポリゴン数を減らして、DOBやPOBの形状を簡略化した形状になっている。このヒットチェック用モデルオブジェクトHOBは、ペイント用モデルオブジェクトPOBの完成後に、その形状を流用して制作する。但し、ヒットチェック処理(衝突判定)の計算を軽減するために、描画クリップ用に分割されたポリゴンを結合することで、ポリゴン数を減らす。また階段のような微少な凹凸はスロープ状に近似することで、ポリゴン数を減らす。また汚れが付着しないような部分はヒットチェックも不要であるため、その部分の形状を省略したり簡略化する。
2.3 Hit Check Model Object In this embodiment, a hit check model object HOB as shown in FIG. 9 is prepared as a model object for determining the drawing position of the paint image. The hit check model object HOB has a simplified shape of the DOB or POB by reducing the number of polygons compared to the display model object DOB or the paint model object POB. The hit check model object HOB is produced by using the shape of the paint model object POB after completion. However, in order to reduce the calculation of hit check processing (collision determination), the number of polygons is reduced by combining polygons divided for drawing clips. In addition, the number of polygons is reduced by approximating minute irregularities such as stairs to a slope shape. In addition, the hit check is unnecessary for the portion where the dirt does not adhere, so the shape of the portion is omitted or simplified.

さて本実施形態では図2、図3のペイント用領域の各領域PR1〜PR6のサイズを固定サイズにしている。このように固定サイズにすることで、記憶部(VRAM)の記憶容量を節約できると共にアドレス管理を簡素化できる。一方、モデルオブジェクト(ペイント用、表示用モデルオブジェクトPOB、DOB)のサイズは、ゲームステージ(部屋)によって異なる。従って各領域PR1〜PR6のサイズと、モデルオブジェクトの各面のサイズとの比は、ゲームステージによって異なる。   In the present embodiment, the sizes of the areas PR1 to PR6 in the paint area shown in FIGS. 2 and 3 are fixed. By using a fixed size in this way, the storage capacity of the storage unit (VRAM) can be saved and address management can be simplified. On the other hand, the size of the model objects (painting and display model objects POB and DOB) varies depending on the game stage (room). Accordingly, the ratio between the size of each of the regions PR1 to PR6 and the size of each surface of the model object differs depending on the game stage.

そこで本実施形態では、リアルタイム生成されたペイントテクスチャを拡大又は縮小してモデルオブジェクト(POB又はDOB)にマッピングしている。具体的には図10(A)に示すように、部屋1(ゲームステージ1)の面SF1(床1)には、領域PR1に生成されたペイントテクスチャを拡縮率SR1で拡大又は縮小してマッピングする。一方、部屋2(ゲームステージ2)の面SF1には、領域PR1に生成されたペイントテクスチャを拡縮率SR2で拡大又は縮小してマッピングする。このようにすることで、ペイント用領域の各領域PR1〜PR6が固定サイズであった場合にも、矛盾無くペイントテクスチャをマッピングできる。なお拡縮率を縦方向と横方向で各々独立に設定できるようにしてもよい。   Therefore, in the present embodiment, the paint texture generated in real time is enlarged or reduced and mapped to the model object (POB or DOB). Specifically, as shown in FIG. 10A, the paint texture generated in the region PR1 is enlarged or reduced at the enlargement / reduction ratio SR1 on the surface SF1 (floor 1) of the room 1 (game stage 1). To do. On the other hand, on the surface SF1 of the room 2 (game stage 2), the paint texture generated in the region PR1 is enlarged or reduced at the enlargement / reduction ratio SR2 and mapped. In this way, the paint texture can be mapped without contradiction even when the areas PR1 to PR6 of the paint area have a fixed size. Note that the enlargement / reduction ratio may be set independently in the vertical direction and the horizontal direction.

ペイント用領域でのペイント画像の描画位置は、モデルオブジェクトの面でのパーティクル(プリミティブ)のヒット位置や、図10(A)のペイントテクスチャの拡縮率(拡縮率に相当するデータを含む)などに基づいて決定する。例えば図10(B)ではモデルオブジェクトの面SF1のB1に示す場所がパーティクルのヒット位置と判定されている。このB1に示すヒット位置から、B2に示す描画位置を決定する場合には、ペイントテクスチャの拡縮率を用いて描画位置を割り出す。なお描画位置が、領域PR1〜PR6のいずれにあるかは、パーティクルがヒットした面の法線ベクトルに基づき割り出すことができる。そして本実施形態では、B2の描画位置に例えば図10(C)に示す汚れテクスチャがマッピングされたペイント用ポリゴン(スプライト)を描画することで、ペイント画像を描画し、ペイントテクスチャを生成する。なおこの描画の際に、ペイント画像(ペイント用ポリゴン)のサイズも、ペイントテクスチャの拡縮率に応じて変化させる。例えばペイントテクスチャを大きく拡大してマッピングする場合には、ペイント画像も大きく拡大して描画する。このようにすることで、ゲームステージが変わっても汚れ模様の大きさを一定にできる。   The drawing position of the paint image in the paint area is determined by the hit position of the particle (primitive) on the surface of the model object, the scaling ratio (including data corresponding to the scaling ratio) of the paint texture in FIG. Determine based on. For example, in FIG. 10B, the location indicated by B1 of the surface SF1 of the model object is determined as the hit position of the particle. When the drawing position shown in B2 is determined from the hit position shown in B1, the drawing position is determined using the scaling ratio of the paint texture. Whether the drawing position is in the region PR1 to PR6 can be determined based on the normal vector of the surface on which the particle hits. In this embodiment, for example, a paint polygon (sprite) in which the dirt texture shown in FIG. 10C is mapped at the drawing position B2 is drawn, thereby drawing a paint image and generating a paint texture. At the time of this drawing, the size of the paint image (painting polygon) is also changed according to the enlargement / reduction ratio of the paint texture. For example, when mapping is performed with a greatly enlarged paint texture, the paint image is also drawn with a greatly enlarged image. By doing so, the size of the dirt pattern can be made constant even if the game stage changes.

なおペイントテクスチャの拡縮率は、モデルオブジェクト(POB又はDOB)のサイズデータ(ペイントサイズデータ)に基づいて特定できる。即ちモデルオブジェクトのサイズが大きい場合には、拡縮率も大きくなり、モデルオブジェクトのサイズが小さい場合には、拡縮率も小さくなる。   The enlargement / reduction ratio of the paint texture can be specified based on the size data (paint size data) of the model object (POB or DOB). That is, when the size of the model object is large, the enlargement / reduction ratio increases, and when the size of the model object is small, the enlargement / reduction ratio also decreases.

図11(A)にモデルオブジェクトのサイズデータの例を示す。このサイズデータはモデルオブジェクト(POB又はDOB)の各頂点座標の最大値、最小値により得られるデータである。より具体的には、モデルオブジェクトの全頂点についてのX座標の最大値、最小値、Y座標の最大値、最小値、Z座標の最大値、最小値を予め算出して、テーブルデータにしたものである。例えば頂点VX1〜VX8で構成される図11(B)の立方体は、モデルオブジェクト(POB又はDOB)を内包する立方体(バウンディングボリューム)になる。このようなサイズデータを用いることで、各部屋(各ゲームステージ)でのペイントテクスチャの拡縮率を容易に求めることができる。   FIG. 11A shows an example of model object size data. This size data is data obtained from the maximum value and the minimum value of each vertex coordinate of the model object (POB or DOB). More specifically, the X coordinate maximum value, minimum value, Y coordinate maximum value, minimum value, Z coordinate maximum value, minimum value for all vertices of the model object are calculated in advance and converted into table data. It is. For example, the cube of FIG. 11B composed of the vertices VX1 to VX8 becomes a cube (bounding volume) that includes the model object (POB or DOB). By using such size data, the paint texture scaling ratio in each room (each game stage) can be easily obtained.

2.4 応用例
図12(A)では、液体を表すパーティクルが壁にヒットした場合に、壁に付着した液体が流れ落ちるように見える演出表現を行っている。このような演出表現は、壁へのヒット後にエフェクトのパーティクルが壁の下方向に向かってゆっくりと移動するように制御し、通常よりも縮小したペイント画像(汚れテクスチャー)を連続的にマッピングして描画することで実現できる。より具体的には、モデルオブジェクト(HOB又はDOB)の面に沿って移動するパーティクル(プリミティブ)の移動位置に基づいて、ペイント画像の描画位置を決定する。そして決定された描画位置であってパーティクルの移動位置に対応する描画位置にペイント画像を描画することで、図12(A)に示す演出表現を実現できる。
2.4 Application Example In FIG. 12A, when a particle representing a liquid hits a wall, an effect expression is made so that the liquid attached to the wall appears to flow down. This kind of presentation is controlled so that the particle of the effect moves slowly toward the bottom of the wall after hitting the wall, and the paint image (dirt texture) reduced in size than usual is continuously mapped. This can be achieved by drawing. More specifically, the drawing position of the paint image is determined based on the moving position of the particle (primitive) that moves along the surface of the model object (HOB or DOB). Then, by rendering the paint image at the determined rendering position corresponding to the particle movement position, it is possible to realize the effect expression shown in FIG.

また図12(B)では、液体が入っている物体をゲームキャラクタが踏みつぶした場合に、その物体の中央から放射状に液体が広がって、汚れが床に付着する演出表現が実現されている。この図12(B)の演出表現も、モデルオブジェクトの面に沿って移動するパーティクルの移動位置に基づいてペイント画像の描画位置を決定し、その描画位置にペイント画像を描画することで実現できる。   Also, in FIG. 12B, when the game character steps over an object containing liquid, the effect expression that the liquid spreads radially from the center of the object and the dirt adheres to the floor is realized. The effect expression of FIG. 12B can also be realized by determining the drawing position of the paint image based on the movement position of the particles moving along the surface of the model object, and drawing the paint image at the drawing position.

3.本実施形態の処理
次に、本実施形態の詳細な処理例について図13のフローチャートを用いて説明する。まず複数のパーティクルで構成されるエフェクトの発生処理を行う(ステップS1)。具体的には例えばキャラクタに武器等がヒットすると、液体を表すパーティクルを、そのヒット位置から発生させる。この場合のパーティクルの移動方向、移動速度、寿命は乱数等に基づいて決定する。
3. Processing of this Embodiment Next, a detailed processing example of this embodiment will be described with reference to the flowchart of FIG. First, an effect generation process including a plurality of particles is performed (step S1). Specifically, for example, when a weapon hits a character, particles representing liquid are generated from the hit position. In this case, the moving direction, moving speed, and life of the particles are determined based on random numbers.

次にヒットチェック用モデルオブジェクト(図9)と各パーティクルとのヒットチェック(衝突判定)を行い、ヒット位置とペイントテクスチャの拡縮率(サイズデータ)とヒット面の法線ベクトルに基づき、ペイント用領域(VRAM)上でのペイント画像の描画位置(テクスチャ座標位置)を求める(ステップS2。図10(A)(B))。そして求められた描画位置に、汚れ模様テクスチャ(図10(C))がマッピングされるポリゴンを描画し、ペイントテクスチャを生成する(ステップS3)。   Next, a hit check (collision determination) between the hit check model object (FIG. 9) and each particle is performed, and the paint area is determined based on the hit position, the scale ratio (size data) of the paint texture, and the normal vector of the hit surface. The drawing position (texture coordinate position) of the paint image on (VRAM) is obtained (step S2, FIGS. 10A and 10B). Then, a polygon to which the dirt pattern texture (FIG. 10C) is mapped is drawn at the obtained drawing position to generate a paint texture (step S3).

次にテクスチャ領域の背景テクスチャがマッピングされる表示用モデルオブジェクト(背景モデル)を表示用領域(VRAM)に描画する(ステップS4)。そしてペイントテクスチャがマッピングされるペイント用モデルオブジェクト(図8)を表示用領域(VRAM)に描画する(ステップS5)。このようにすることで図4〜図7に示すようなゲーム画像を生成できる。   Next, a display model object (background model) to which the background texture of the texture area is mapped is drawn in the display area (VRAM) (step S4). Then, the paint model object (FIG. 8) to which the paint texture is mapped is drawn in the display area (VRAM) (step S5). By doing in this way, a game image as shown in FIGS. 4-7 can be produced | generated.

4.ハードウェア構成
図14に本実施形態を実現できるハードウェア構成の例を示す。メインプロセッサ900は、CD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
4). Hardware Configuration FIG. 14 shows an example of a hardware configuration capable of realizing this embodiment. The main processor 900 operates based on a program stored in a CD 982 (information storage medium), a program downloaded via the communication interface 990, a program stored in the ROM 950, or the like, and includes game processing, image processing, sound processing, and the like. Execute. The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is required for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.

ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。   The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and executes matrix calculation at high speed. The data decompression processor 906 performs decoding processing of compressed image data and sound data, and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。   The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture. The drawing processor 910 also performs α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.

ROM950にはシステムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。CDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるCD982にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950. The RAM 960 is a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The CD drive 980 accesses a CD 982 in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).

なお本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   The processing of each unit (each unit) in this embodiment may be realized entirely by hardware, or may be realized by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be realized by both hardware and a program.

そして本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。   When the processing of each part of this embodiment is realized by both hardware and a program, a program for causing the hardware (computer) to function as each part of this embodiment is stored in the information storage medium. More specifically, the program instructs the processors 902, 904, 906, 910, and 930, which are hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930 realizes the processing of each unit of the present invention based on the instruction and the passed data.

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語(プリミティブ、第1〜第Nの面、第1〜第Nの領域、底面、側面、プリミティブ面等)として引用された用語(パーティクル、面SF1〜SF6、領域PR1〜PR6、床、壁、ポリゴン等)は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。   The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms (particles, terms) cited as broad or synonymous terms (primitives, first to Nth surfaces, first to Nth regions, bottom surfaces, side surfaces, primitive surfaces, etc.) in the description or drawings. Surfaces SF1 to SF6, regions PR1 to PR6, floors, walls, polygons, and the like) can be replaced with terms having a broad meaning or the same meaning in other descriptions in the specification or the drawings.

またペイントテクスチャの生成手法やマッピング手法も、本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。また本実施形態では、表示用モデルオブジェクトが部屋などの背景のモデルオブジェクトである場合について説明したが、表示用モデルオブジェクトは、キャラクタや車などの移動表示物のモデルオブジェクトであってもよい。   The paint texture generation method and the mapping method are not limited to those described in the present embodiment, and methods equivalent to these methods are also included in the scope of the present invention. In this embodiment, the case where the display model object is a background model object such as a room has been described. However, the display model object may be a model object of a moving display object such as a character or a car.

また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯端末等の種々の画像生成システムに適用できる。   The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a portable terminal. it can.

本実施形態の画像生成システムの機能ブロック図の例である。It is an example of a functional block diagram of the image generation system of this embodiment. ペイントテクスチャの生成手法の説明図である。It is explanatory drawing of the production | generation method of a paint texture. ペイントテクスチャの生成手法の説明図である。It is explanatory drawing of the production | generation method of a paint texture. 本実施形態により生成されるゲーム画像の例である。It is an example of the game image produced | generated by this embodiment. 本実施形態により生成されるゲーム画像の例である。It is an example of the game image produced | generated by this embodiment. 本実施形態により生成されるゲーム画像の例である。It is an example of the game image produced | generated by this embodiment. 本実施形態により生成されるゲーム画像の例である。It is an example of the game image produced | generated by this embodiment. ペイント用モデルオブジェクトの例である。It is an example of the model object for painting. ヒットチェック用モデルオブジェクトの例である。It is an example of a model object for hit check. 図10(A)〜(C)は描画位置の決定手法の説明図である。10A to 10C are explanatory diagrams of a drawing position determination method. 図11(A)(B)はサイズデータの説明図である。11A and 11B are explanatory diagrams of size data. 図12(A)(B)は本実施形態の応用例の説明図である。12A and 12B are explanatory diagrams of application examples of the present embodiment. 本実施形態の具体的な処理のフローチャートである。It is a flowchart of the specific process of this embodiment. ハードウェア構成例である。It is a hardware structural example.

符号の説明Explanation of symbols

DOB 表示用モデルオブジェクト、POB ペイント用モデルオブジェクト、
HOB ヒットチェック用モデルオブジェクト、
SF1〜SF6 面、PR1〜PR6 領域
100 処理部、110 オブジェクト空間設定部、112 移動・動作処理部、
113 パーティクル処理部、114 視点制御部、116 ヒットチェック部、
118 描画位置決定部、120 画像生成部、122 テクスチャマッピング部、
124 α合成部、130 音生成部、160 操作部、170 記憶部、
172 表示用領域、174 ペイント用領域、176 テクスチャ領域
180 情報記憶媒体、190 表示部、
192 音出力部、194 携帯型情報記憶装置、196 通信部
DOB display model object, POB paint model object,
Model object for HOB hit check,
SF1 to SF6 plane, PR1 to PR6 region 100 processing unit, 110 object space setting unit, 112 movement / motion processing unit,
113 Particle processing unit, 114 Viewpoint control unit, 116 Hit check unit,
118 drawing position determination unit, 120 image generation unit, 122 texture mapping unit,
124 α synthesis unit, 130 sound generation unit, 160 operation unit, 170 storage unit,
172 Display area, 174 Paint area, 176 Texture area 180 Information storage medium, 190 Display section,
192 sound output unit, 194 portable information storage device, 196 communication unit

Claims (11)

オブジェクト空間において所与の視点から見える画像を生成するためのプログラムであって、
フレーム更新により描画画像がクリアされる表示用領域と、フレーム更新により描画画像がクリアされないペイント用領域とを有する記憶部と、
前記記憶部の領域に画像を描画する描画部として、
コンピュータを機能させ、
前記描画部が、
前回のフレームでのペイントテクスチャがクリアされずに残っている前記ペイント用領域に、ペイント画像を合成処理により描画することで、今回のフレームでのペイントテクスチャを生成し、生成されたペイントテクスチャのテクスチャマッピングを行いながら、表示用モデルオブジェクトを前記表示用領域に描画することを特徴とするプログラム。
A program for generating an image that can be viewed from a given viewpoint in an object space,
A storage unit having a display area in which a drawn image is cleared by frame update, and a paint area in which the drawn image is not cleared by frame update;
As a drawing unit for drawing an image in the area of the storage unit,
Make the computer work,
The drawing unit
The paint texture in the current frame is generated by drawing the paint image in the paint area where the paint texture in the previous frame remains without being cleared. A program for drawing a display model object in the display area while performing mapping.
請求項1において、
前記記憶部が、
表示用モデルオブジェクトにマッピングすべきテクスチャが記憶されるテクスチャ領域を更に有し、
前記描画部が、
前記テクスチャ領域のテクスチャを、表示用モデルオブジェクトにマッピングし、前記ペイントテクスチャを、表示用モデルオブジェクトの形状を簡略化したペイント用モデルオブジェクトにマッピングし、テクスチャ領域のテクスチャがマッピングされる表示用モデルオブジェクトと、ペイントテクスチャがマッピングされるペイント用モデルオブジェクトとを、前記表示用領域に描画することを特徴とするプログラム。
In claim 1,
The storage unit
A texture area in which a texture to be mapped to the display model object is stored;
The drawing unit
A texture model in the texture area is mapped to a display model object, the paint texture is mapped to a paint model object in which the shape of the display model object is simplified, and the texture model in the texture area is mapped. And a paint model object to which the paint texture is mapped is drawn in the display area.
請求項1又は2において、
前記記憶部の前記ペイント用領域が、
ペイント用モデルオブジェクト又は表示用モデルオブジェクトの第1〜第Nの面に対応した第1〜第Nの領域を有し、
前記描画部が、
前記ペイント用領域の前記第1〜第Nの領域に生成されたペイントテクスチャを、ペイント用モデルオブジェクト又は表示用モデルオブジェクトの前記第1〜第Nの面にマッピングすることを特徴とするプログラム。
In claim 1 or 2,
The area for painting in the storage unit is
The first to Nth areas corresponding to the first to Nth surfaces of the paint model object or the display model object;
The drawing unit
A program for mapping paint textures generated in the first to Nth areas of the paint area on the first to Nth surfaces of a paint model object or a display model object.
請求項3において、
前記記憶部の前記ペイント用領域が、
ペイント用モデルオブジェクト又は表示用モデルオブジェクトの第1の底面に対応した第1の底面用領域と、ペイント用モデルオブジェクト又は表示用モデルオブジェクトの第1の底面よりも高い位置にある第2の底面に対応した第2の底面用領域とを有し、
前記描画部が、
前記ペイント用領域の前記第1、第2の底面用領域に生成されたペイントテクスチャを、ペイント用モデルオブジェクト又は表示用モデルオブジェクトの前記第1、第2の底面にマッピングすることを特徴とするプログラム。
In claim 3,
The area for painting in the storage unit is
A first bottom surface area corresponding to the first bottom surface of the paint model object or the display model object, and a second bottom surface at a position higher than the first bottom surface of the paint model object or the display model object. A corresponding second bottom area,
The drawing unit
A program that maps the paint texture generated in the first and second bottom surface areas of the paint area to the first and second bottom surfaces of a paint model object or a display model object. .
請求項1乃至4のいずれかにおいて、
表示用モデルオブジェクトの形状を簡略化したヒットチェック用モデルオブジェクト又は表示用モデルオブジェクトと、プリミティブとのヒットチェック処理を行うヒットチェック部と、
ヒットチェック処理により求められたプリミティブのヒット位置に基づいて、ペイント画像の描画位置を決定する描画位置決定部として、
コンピュータを機能させ、
前記描画部が、
決定された描画位置に、ペイント画像を描画することを特徴とするプログラム。
In any one of Claims 1 thru | or 4,
A hit check unit that performs hit check processing of a hit check model object or a display model object with a simplified shape of a display model object and a primitive;
As a drawing position determination unit that determines the drawing position of the paint image based on the hit position of the primitive obtained by the hit check process,
Make the computer work,
The drawing unit
A program characterized by drawing a paint image at a determined drawing position.
請求項5において、
前記描画部が、
生成されたペイントテクスチャを拡大又は縮小してマッピングするテクスチャマッピングを行い、
前記描画位置決定部が、
ヒットチェック処理により求められたプリミティブのヒット位置と、ペイントテクスチャの拡縮率とに基づいて、ペイント画像の描画位置、或いはペイント画像の描画位置及びサイズを決定することを特徴とするプログラム。
Oite to claim 5,
The drawing unit
Perform texture mapping to map the generated paint texture by enlarging or reducing it,
The drawing position determination unit
A program which determines a drawing position of a paint image or a drawing position and size of a paint image based on a hit position of a primitive obtained by hit check processing and a scaling ratio of the paint texture.
請求項において、
ペイントテクスチャの前記拡縮率が、
表示用モデルオブジェクトの形状を簡略化したモデルオブジェクトであって前記ペイントテクスチャがマッピングされるペイント用モデルオブジェクト又は表示用モデルオブジェクトのサイズデータに基づいて、特定されることを特徴とするプログラム。
In claim 6 ,
The scaling ratio of the paint texture is
A program that is a model object obtained by simplifying the shape of a display model object and is specified based on size data of a paint model object or a display model object to which the paint texture is mapped.
請求項において、
前記サイズデータが、ペイント用モデルオブジェクト又は表示用モデルオブジェクトの各頂点座標の最大値及び最小値により得られるデータであることを特徴とするプログラム。
In claim 7 ,
The size data is data obtained from the maximum value and the minimum value of each vertex coordinate of a paint model object or a display model object.
請求項5乃至のいずれかにおいて、
前記描画位置決定部が、
ヒットチェック用モデルオブジェクト又は表示用モデルオブジェクトの面に沿って移動するプリミティブの移動位置に基づいて、ペイント画像の描画位置を決定し、
前記描画部が、
決定された描画位置であってプリミティブの前記移動位置に対応する描画位置に、ペイント画像を描画することを特徴するプログラム。
In any of claims 5 to 8 ,
The drawing position determination unit
Based on the movement position of the primitive that moves along the surface of the hit check model object or display model object, the drawing position of the paint image is determined,
The drawing unit
A program that draws a paint image at a determined drawing position corresponding to the movement position of a primitive.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。 A computer-readable information storage medium, wherein the program according to any one of claims 1 to 9 is stored. オブジェクト空間において所与の視点から見える画像を生成する画像生成システムであって、
フレーム更新により描画画像がクリアされる表示用領域と、フレーム更新により描画画像がクリアされないペイント用領域とを有する記憶部と、
前記記憶部の領域に画像を描画する描画部とを含み、
前記描画部が、
前回のフレームでのペイントテクスチャがクリアされずに残っている前記ペイント用領域に、ペイント画像を合成処理により描画することで、今回のフレームでのペイントテクスチャを生成し、生成されたペイントテクスチャのテクスチャマッピングを行いながら、表示用モデルオブジェクトを前記表示用領域に描画することを特徴とする画像生成システム。
An image generation system for generating an image that is visible from a given viewpoint in an object space,
A storage unit having a display area in which a drawn image is cleared by frame update, and a paint area in which the drawn image is not cleared by frame update;
A drawing unit for drawing an image in the area of the storage unit,
The drawing unit
The paint texture in the current frame is generated by drawing the paint image in the paint area where the paint texture in the previous frame remains without being cleared. An image generation system, wherein a display model object is drawn in the display area while mapping.
JP2003361774A 2003-10-22 2003-10-22 Program, information storage medium, and image generation system Expired - Fee Related JP4408681B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003361774A JP4408681B2 (en) 2003-10-22 2003-10-22 Program, information storage medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003361774A JP4408681B2 (en) 2003-10-22 2003-10-22 Program, information storage medium, and image generation system

Publications (2)

Publication Number Publication Date
JP2005128687A JP2005128687A (en) 2005-05-19
JP4408681B2 true JP4408681B2 (en) 2010-02-03

Family

ID=34641614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003361774A Expired - Fee Related JP4408681B2 (en) 2003-10-22 2003-10-22 Program, information storage medium, and image generation system

Country Status (1)

Country Link
JP (1) JP4408681B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4563266B2 (en) * 2005-06-29 2010-10-13 株式会社コナミデジタルエンタテインメント NETWORK GAME SYSTEM, GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5013511B2 (en) * 2006-10-17 2012-08-29 任天堂株式会社 GAME PROGRAM AND GAME DEVICE
JP4199817B1 (en) * 2007-08-21 2008-12-24 株式会社コナミデジタルエンタテインメント Image generating apparatus, image generating method, and program
FR3008814B1 (en) * 2013-07-18 2016-12-23 Allegorithmic SYSTEM AND METHOD FOR GENERATING PROCEDURAL TEXTURES USING PARTICLES
JP6611143B1 (en) * 2019-03-08 2019-11-27 アビームコンサルティング株式会社 Image display method, image display system, and program
JP7482953B2 (en) 2022-08-17 2024-05-14 任天堂株式会社 Information processing program, information processing device, information processing method, and information processing system

Also Published As

Publication number Publication date
JP2005128687A (en) 2005-05-19

Similar Documents

Publication Publication Date Title
JP4771821B2 (en) Program, information storage medium, and image generation system
US7312804B2 (en) Program product, image generation method and image generation system
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP2006195882A (en) Program, information storage medium and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP4651527B2 (en) Program, information storage medium, and image generation system
JP4408681B2 (en) Program, information storage medium, and image generation system
JP4749198B2 (en) Program, information storage medium, and image generation system
JP4502678B2 (en) Program, information storage medium, and image generation system
JP4743770B2 (en) Image generation system, program, and information storage medium
JP4073031B2 (en) Program, information storage medium, and image generation system
JP4754384B2 (en) Program, information recording medium, and image generation system
JP4488346B2 (en) Program, information storage medium, and image generation system
JP2005141647A (en) Program, information storage medium and image generating system
JP4743733B2 (en) Image generation system, program, and information storage medium
JP4528008B2 (en) Program, information storage medium, and image generation system
JP4229317B2 (en) Image generation system, program, and information storage medium
JP4592087B2 (en) Image generation system, program, and information storage medium
JP2006318196A (en) Program, information storage medium and image generation system
JP4754385B2 (en) Program, information recording medium, and image generation system
JP4476040B2 (en) Program, information storage medium, and image generation system
JP4458607B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2006318386A (en) Program, information storage medium, and image forming system
JP2007087030A (en) Program, information storage medium, and image generation system
JP2008077406A (en) Image generation system, program, and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091110

R150 Certificate of patent or registration of utility model

Ref document number: 4408681

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121120

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121120

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121120

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131120

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees