JP4838230B2 - Image processing apparatus, image processing apparatus control method, and program - Google Patents
Image processing apparatus, image processing apparatus control method, and program Download PDFInfo
- Publication number
- JP4838230B2 JP4838230B2 JP2007319440A JP2007319440A JP4838230B2 JP 4838230 B2 JP4838230 B2 JP 4838230B2 JP 2007319440 A JP2007319440 A JP 2007319440A JP 2007319440 A JP2007319440 A JP 2007319440A JP 4838230 B2 JP4838230 B2 JP 4838230B2
- Authority
- JP
- Japan
- Prior art keywords
- texture image
- grass
- soil
- unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は画像処理装置、画像処理装置の制御方法及びプログラムに関する。 The present invention relates to an image processing apparatus, a control method for the image processing apparatus, and a program.
仮想3次元空間を仮想カメラ(視点)から見た様子を表す画像を表示する画像処理装置が知られている。このような画像処理装置の例としてはゲーム装置が挙げられる。
上記のような画像処理装置(ゲーム装置)では、例えば、比較的広範囲の地面の所々に草が生える様子を比較的精細に表す画像を画面に表示したい場合がある。このような画像の表示を実現するにあたっては、その実現にかかる手間の軽減が強く望まれる。 In the image processing apparatus (game apparatus) as described above, for example, there is a case where it is desired to display on the screen an image that expresses a relatively fine state of grass growing on a relatively wide area of the ground. In realizing such image display, it is strongly desired to reduce the time and effort required for the display.
本発明は上記課題に鑑みてなされたものであって、その目的は、例えば、比較的広範囲の地面の所々に草が生える様子を比較的精細に表す画像の表示を実現する場合の手間の軽減を図ることが可能になる画像処理装置、画像処理装置の制御方法及びプログラムを提供することにある。 The present invention has been made in view of the above problems, and its purpose is, for example, reduction of time and labor when realizing display of an image that expresses a state where grass grows in a relatively wide range of places in a relatively fine manner. An object of the present invention is to provide an image processing apparatus, a control method for the image processing apparatus, and a program.
上記課題を解決するために、本発明に係る画像処理装置は、仮想3次元空間を仮想カメラから見た様子を表す画像を表示する画像処理装置において、第1の単位テクスチャ画像を記憶する第1の単位テクスチャ画像記憶手段と、第2の単位テクスチャ画像を記憶する第2の単位テクスチャ画像記憶手段と、前記第1の単位テクスチャ画像を複数配列してなる第1のテクスチャ画像を取得する第1のテクスチャ画像取得手段と、前記第2の単位テクスチャ画像を複数配列してなる第2のテクスチャ画像を取得する第2のテクスチャ画像取得手段と、前記第1のテクスチャ画像又は/及び前記第2のテクスチャ画像の各画素の透明度を示す透明度データを記憶する透明度データ記憶手段と、前記第1のテクスチャ画像と前記第2のテクスチャ画像とを前記透明度データに基づいて半透明合成してなるテクスチャ画像を、前記仮想3次元空間に配置されるオブジェクトにマッピングするマッピング手段と、を含むことを特徴とする。 In order to solve the above problem, an image processing apparatus according to the present invention is a first image processing apparatus that stores an image representing a state in which a virtual three-dimensional space is viewed from a virtual camera, and stores a first unit texture image. Unit texture image storage means, second unit texture image storage means for storing a second unit texture image, and first texture image obtained by arranging a plurality of the first unit texture images. Texture image obtaining means, second texture image obtaining means for obtaining a second texture image obtained by arranging a plurality of the second unit texture images, and the first texture image and / or the second texture image. Transparency data storage means for storing transparency data indicating the transparency of each pixel of the texture image, the first texture image and the second texture image The semi-transparent synthetic texture images comprising, based on the transparency data, characterized in that it comprises a mapping means for mapping the object placed in the virtual three-dimensional space.
また、本発明に係る画像処理装置の制御方法は、仮想3次元空間を仮想カメラから見た様子を表す画像を表示する画像処理装置の制御方法において、第1の単位テクスチャ画像を記憶してなる第1の単位テクスチャ画像記憶手段から前記第1の単位テクスチャ画像を読み出すステップと、第2の単位テクスチャ画像を記憶してなる第2の単位テクスチャ画像記憶手段から前記第2の単位テクスチャ画像を読み出すステップと、前記第1の単位テクスチャ画像を複数配列してなる第1のテクスチャ画像を取得する第1のテクスチャ画像取得ステップと、前記第2の単位テクスチャ画像を複数配列してなる第2のテクスチャ画像を取得する第2のテクスチャ画像取得ステップと、前記第1のテクスチャ画像又は/及び前記第2のテクスチャ画像の各画素の透明度を示す透明度データを記憶してなる透明度データ記憶手段から前記透明度データを読み出すステップと、前記第1のテクスチャ画像と前記第2のテクスチャ画像とを前記透明度データに基づいて半透明合成してなるテクスチャ画像を、前記仮想3次元空間に配置されるオブジェクトにマッピングするマッピングステップと、を含むことを特徴とする。 The image processing apparatus control method according to the present invention stores the first unit texture image in the image processing apparatus control method for displaying an image representing a state in which the virtual three-dimensional space is viewed from the virtual camera. Reading out the first unit texture image from the first unit texture image storage means, and reading out the second unit texture image from the second unit texture image storage means storing the second unit texture image. A first texture image obtaining step for obtaining a first texture image obtained by arranging a plurality of the first unit texture images, and a second texture obtained by arranging a plurality of the second unit texture images. A second texture image acquisition step of acquiring an image, and the first texture image or / and the second texture image A step of reading out the transparency data from transparency data storage means for storing transparency data indicating the transparency of the pixels, and translucent synthesis of the first texture image and the second texture image based on the transparency data. Mapping step of mapping the texture image to the object arranged in the virtual three-dimensional space.
また、本発明に係るプログラムは、仮想3次元空間を仮想カメラから見た様子を表す画像を表示する画像処理装置として、家庭用ゲーム機(据置型ゲーム機)、携帯ゲーム機、業務用ゲーム機、携帯電話機、携帯情報端末(PDA)やパーソナルコンピュータなどのコンピュータを機能させるためのプログラムであって、第1の単位テクスチャ画像を記憶する第1の単位テクスチャ画像記憶手段、第2の単位テクスチャ画像を記憶する第2の単位テクスチャ画像記憶手段、前記第1の単位テクスチャ画像を複数配列してなる第1のテクスチャ画像を取得する第1のテクスチャ画像取得手段、前記第2の単位テクスチャ画像を複数配列してなる第2のテクスチャ画像を取得する第2のテクスチャ画像取得手段、前記第1のテクスチャ画像又は/及び前記第2のテクスチャ画像の各画素の透明度を示す透明度データを記憶する透明度データ記憶手段、及び、前記第1のテクスチャ画像と前記第2のテクスチャ画像とを前記透明度データに基づいて半透明合成してなるテクスチャ画像を、前記仮想3次元空間に配置されるオブジェクトにマッピングするマッピング手段、として前記コンピュータを機能させるためのプログラムである。 The program according to the present invention is a home game machine (stationary game machine), a portable game machine, an arcade game machine as an image processing device that displays an image representing a virtual three-dimensional space viewed from a virtual camera. , A program for causing a computer such as a mobile phone, a personal digital assistant (PDA), or a personal computer to function, a first unit texture image storage means for storing a first unit texture image, a second unit texture image Second unit texture image storage means for storing, first texture image acquisition means for acquiring a first texture image formed by arranging a plurality of the first unit texture images, and a plurality of the second unit texture images. Second texture image acquisition means for acquiring a second texture image formed by arrangement, the first texture image or / And transparency data storage means for storing transparency data indicating the transparency of each pixel of the second texture image, and translucent synthesis of the first texture image and the second texture image based on the transparency data This is a program for causing the computer to function as mapping means for mapping the texture image formed on the object arranged in the virtual three-dimensional space.
また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。また、本発明に係るプログラム配信装置は、上記プログラムを記録した情報記憶媒体を備え、当該情報記憶媒体から上記プログラムを読み出し、配信するプログラム配信装置である。また、本発明に係るプログラム配信方法は、上記プログラムを記録した情報記憶媒体から上記プログラムを読み出し、配信するプログラム配信方法である。 An information storage medium according to the present invention is a computer-readable information storage medium recording the above program. A program distribution apparatus according to the present invention is a program distribution apparatus that includes an information storage medium that records the program, reads the program from the information storage medium, and distributes the program. The program distribution method according to the present invention is a program distribution method for reading and distributing the program from an information storage medium storing the program.
本発明は、仮想3次元空間を仮想カメラから見た様子を表す画像を表示する画像処理装置に関するものである。本発明では第1の単位テクスチャ画像と第2の単位テクスチャ画像とが記憶される。また、第1の単位テクスチャ画像を複数配列してなる第1のテクスチャ画像が取得され、第2の単位テクスチャ画像を複数配列してなる第2のテクスチャ画像が取得される。また本発明では、第1のテクスチャ画像又は/及び第2のテクスチャ画像の各画素の透明度を特定するための透明度データが記憶される。そして、第1のテクスチャ画像と第2のテクスチャ画像とを透明度データに基づいて半透明合成してなるテクスチャ画像が、仮想3次元空間に配置されるオブジェクトにマッピングされる。例えば、「第1の単位テクスチャ画像」は土を精細に表すテクスチャ画像である。また、「第2の単位テクスチャ画像」は草を精細に表すテクスチャ画像である。また、「オブジェクト」は例えば地面オブジェクトである。本発明によれば、例えば、比較的広範囲の地面の所々に草が生える様子を比較的精細に表す画像の表示を実現する場合の手間の軽減を図ることが可能になる。 The present invention relates to an image processing apparatus that displays an image representing a state in which a virtual three-dimensional space is viewed from a virtual camera. In the present invention, the first unit texture image and the second unit texture image are stored. In addition, a first texture image obtained by arranging a plurality of first unit texture images is obtained, and a second texture image obtained by arranging a plurality of second unit texture images is obtained. In the present invention, transparency data for specifying the transparency of each pixel of the first texture image or / and the second texture image is stored. Then, a texture image obtained by translucently combining the first texture image and the second texture image based on the transparency data is mapped to an object arranged in the virtual three-dimensional space. For example, the “first unit texture image” is a texture image that finely represents soil. Further, the “second unit texture image” is a texture image that represents grass precisely. The “object” is, for example, a ground object. According to the present invention, for example, it is possible to reduce time and labor when realizing display of an image that expresses a state where grass grows on a relatively wide area of the ground in a relatively fine manner.
また、本発明の一態様では、前記透明度データは、前記第1のテクスチャ画像又は/及び前記第2のテクスチャ画像の各画素の透明度の時間経過に伴う変化を示すデータであり、前記マッピング手段は、前記第1のテクスチャ画像又は/及び前記第2のテクスチャ画像の各画素の透明度を前記透明度データに基づいて変化させ、前記オブジェクトにマッピングされる前記テクスチャ画像を時間経過に伴って変化させるようにしてもよい。 In the aspect of the invention, the transparency data is data indicating a change with time of transparency of each pixel of the first texture image or / and the second texture image, and the mapping unit includes: The transparency of each pixel of the first texture image and / or the second texture image is changed based on the transparency data, and the texture image mapped to the object is changed over time. May be.
以下、本発明の実施形態の一例について図面に基づき詳細に説明する。ここでは、画像処理装置の一態様であるゲーム装置に本発明を適用した場合について説明する。本発明の実施形態に係るゲーム装置は、例えば家庭用ゲーム機(据置型ゲーム機)、携帯ゲーム機、携帯電話機、携帯情報端末(PDA)又はパーソナルコンピュータ等によって実現される。ここでは、本発明の実施形態に係るゲーム装置を家庭用ゲーム機によって実現する場合について説明する。 Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. Here, a case where the present invention is applied to a game device which is an aspect of an image processing device will be described. The game device according to the embodiment of the present invention is realized by, for example, a home game machine (stationary game machine), a portable game machine, a mobile phone, a personal digital assistant (PDA), a personal computer, or the like. Here, a case where the game device according to the embodiment of the present invention is realized by a consumer game machine will be described.
図1は、本発明の実施形態に係るゲーム装置(画像処理装置)の全体構成を示す図である。図1に示すゲーム装置10は、家庭用ゲーム機11、モニタ32、スピーカ34、光ディスク36を含んでいる。モニタ32及びスピーカ34は家庭用ゲーム機11に接続される。モニタ32としては例えば家庭用テレビ受像機が用いられる。スピーカ34としては例えば家庭用テレビ受像機に内蔵されたスピーカが用いられる。光ディスク36は情報記憶媒体であり、家庭用ゲーム機11に装着される。
FIG. 1 is a diagram showing an overall configuration of a game apparatus (image processing apparatus) according to an embodiment of the present invention. The
家庭用ゲーム機11は公知のコンピュータゲームシステムである。家庭用ゲーム機11は、バス12、マイクロプロセッサ14、主記憶16、画像処理部18、入出力処理部20、音声処理部22、光ディスク読み取り部24、ハードディスク26、通信インタフェース28及びコントローラ30を含む。コントローラ30以外の構成要素は家庭用ゲーム機11の筐体内に収容される。
The home game machine 11 is a known computer game system. The home game machine 11 includes a
バス12はアドレス及びデータを家庭用ゲーム機11の各部でやり取りするためのものである。マイクロプロセッサ14、主記憶16、画像処理部18及び入出力処理部20は、バス12によって相互データ通信可能に接続される。
The
マイクロプロセッサ14は図示しないROMに格納されるオペレーティングシステム、光ディスク36又はハードディスク26から読み出されるプログラム及びデータに基づいて、家庭用ゲーム機11の各部を制御する。主記憶16は例えばRAMを含む。主記憶16には光ディスク36又はハードディスク26から読み出されたプログラム及びデータが必要に応じて書き込まれる。主記憶16はマイクロプロセッサ14の作業用メモリとしても用いられる。
The
画像処理部18はVRAMを含む。画像処理部18はマイクロプロセッサ14から送られる画像データに基づいてVRAM上にゲーム画面を描画する。そして、画像処理部18はVRAM上に描画されたゲーム画面をビデオ信号に変換して所定のタイミングでモニタ32に出力する。すなわち画像処理部18は、マイクロプロセッサ14から視点座標系での各ポリゴンの頂点座標、頂点色情報(RGB値)、テクスチャ座標及びアルファ値等を受け取る。そして、それら情報を用いて表示画像を構成する各画素の色情報、Z値(奥行き情報)及びアルファ値等をVRAMの表示用バッファに描画する。このとき、VRAMにはテクスチャ画像が予め書き込まれており、各テクスチャ座標により特定されるテクスチャ画像中の領域が、それらテクスチャ座標に対応する頂点座標により特定されるポリゴンにマッピング(貼付)されるようになっている。こうして生成される表示画像は所定タイミングでモニタ32に出力される。
The
入出力処理部20はマイクロプロセッサ14が音声処理部22、光ディスク読み取り部24、ハードディスク26、通信インタフェース28及びコントローラ30にアクセスするためのインタフェースである。入出力処理部20には、音声処理部22、光ディスク読み取り部24、ハードディスク26、通信インタフェース28及びコントローラ30が接続される。
The input /
音声処理部22はサウンドバッファを含む。サウンドバッファには光ディスク36又はハードディスク26から読み出されたゲーム音楽、ゲーム効果音、メッセージ等の各種音声データが記憶される。音声処理部22はサウンドバッファに記憶された各種音声データを再生してスピーカ34から出力する。
The
光ディスク読み取り部24はマイクロプロセッサ14からの指示に従って光ディスク36に記録されたプログラムやデータを読み取る。なお、ここではプログラムやデータを家庭用ゲーム機11に供給するために光ディスク36を用いることとするが、メモリカード等、他の情報記憶媒体を用いるようにしてもよい。また、例えばインターネット等の通信ネットワークを介して遠隔地からプログラムやデータを家庭用ゲーム機11に供給するようにしてもよい。
The optical
ハードディスク26は一般的なハードディスク装置(補助記憶装置)である。ハードディスク26にはプログラムやデータが記憶される。通信インタフェース28はインターネット等の通信ネットワークに家庭用ゲーム機11を有線又は無線接続するためのインタフェースである。
The
コントローラ30はユーザが各種ゲーム操作を入力するための汎用操作入力手段である。入出力処理部20は一定周期毎(例えば1/60秒ごと)にコントローラ30の各部の状態をスキャンする。そして、入出力処理部20はそのスキャン結果を表す操作信号をバス12を介してマイクロプロセッサ14に渡す。マイクロプロセッサ14はその操作信号に基づいてプレイヤのゲーム操作を判定する。家庭用ゲーム機11には複数のコントローラ30を接続することが可能である。マイクロプロセッサ14は各コントローラ30から入力される操作信号に基づいてゲーム制御を実行する。
The
上記の構成を備えるゲーム装置10では、例えばプレイヤの操作に従ってプレイヤキャラクタオブジェクトが敵キャラクタオブジェクトを退治するアクションゲームが実行される。このアクションゲームは、光ディスク36又はハードディスク26から読み出されたゲームプログラムが実行されることによって実現される。
In the
ゲーム装置10の主記憶16には仮想3次元空間が構築される。図2は仮想3次元空間の一例を示している。図2に示す仮想3次元空間40には地面オブジェクト42が配置されている。また、地面オブジェクト42上にはプレイヤキャラクタオブジェクト44と敵キャラクタオブジェクト46とが配置されている。また仮想3次元空間40には、プレイヤキャラクタオブジェクト44の移動に従って移動する仮想カメラ48が設定される。この仮想カメラ48から仮想3次元空間40を見た様子を表すゲーム画面が生成され、該ゲーム画面がモニタ32に表示される。
A virtual three-dimensional space is constructed in the
以下、上記のゲーム装置10において、比較的広範囲の地面の所々に草が生える様子を比較的精細に表す画像の表示を好適に実現するための技術について説明する。
Hereinafter, in the above-described
図3は、ゲーム装置10が所定時間(例えば1/60秒)ごとに実行する処理のうち、本発明に関連する処理を主として示すフロー図である。図3に示す処理は光ディスク36又はハードディスク26に記憶されたプログラムに従って実行される。
FIG. 3 is a flowchart mainly showing processing related to the present invention among processing executed by the
図3に示すように、まず環境処理が実行される(S101)。環境処理では、仮想3次元空間40のすべてのオブジェクトの位置及び姿勢が算出される。また環境処理では、視点座標、視線方向及び画角も算出される。なお、画角には例えば固定値が用いられる。こうして算出される視点座標、視線方向及び画角に従って、仮想カメラ48が仮想3次元空間40に仮想的に配置される。
As shown in FIG. 3, environmental processing is first executed (S101). In the environment processing, the positions and orientations of all objects in the virtual three-dimensional space 40 are calculated. In the environment processing, the viewpoint coordinates, the line-of-sight direction, and the angle of view are also calculated. For example, a fixed value is used for the angle of view. The
その後、ジオメトリ処理が実行される(S102)。ジオメトリ処理では、ワールド座標系(Xw,Yw,Zw)から視点座標系(すなわち、視点座標を原点とし、視線方向をZ方向、水平方向をX方向、垂直方向をY方向とする座標系)への座標変換が行われる。また、各オブジェクトを構成するポリゴンについて、頂点の色情報が光源情報に基づいて算出される。さらに、クリッピング処理も行われる。 Thereafter, geometry processing is executed (S102). In the geometry processing, from the world coordinate system (Xw, Yw, Zw) to the viewpoint coordinate system (that is, the coordinate system having the viewpoint coordinates as the origin, the gaze direction as the Z direction, the horizontal direction as the X direction, and the vertical direction as the Y direction). The coordinate transformation is performed. Also, vertex color information is calculated based on the light source information for the polygons constituting each object. Further, clipping processing is also performed.
その後、レンダリング処理が実行される(S103)。すなわち、マイクロプロセッサ14が、視野範囲内の各ポリゴンの頂点座標、頂点色情報及びテクスチャ座標等を画像処理部18に渡す。そして、画像処理部18が、それらの情報に基づいてVRAM上にゲーム画面を形成する。ゲーム画面は、視点座標系で記述された各オブジェクトをスクリーン座標系に変換することによって形成される。こうして、仮想3次元空間40を仮想カメラ48から見た様子を表すゲーム画面がVRAM上に描画される。VRAM上に描画されたゲーム画面は所与のタイミングでモニタ32に表示出力される(S104)。
Thereafter, a rendering process is executed (S103). That is, the
ここで、地面オブジェクト42へのテクスチャ画像のマッピングについて詳細に説明する。
Here, the mapping of the texture image onto the
まず、地面オブジェクト42へのテクスチャ画像のマッピングに関連するデータについて説明する。
First, data related to mapping of a texture image to the
光ディスク36(第1の単位テクスチャ画像記憶手段及び第2の単位テクスチャ画像記憶手段)には、土を表す単位テクスチャ画像(第1の単位テクスチャ画像)と、草を表す単位テクスチャ画像(第2の単位テクスチャ画像)と、が記憶される。土の単位テクスチャ画像には土が比較的精細に(比較的高解像度で)描かれており、草の単位テクスチャ画像には草が比較的精細に(比較的高解像度で)描かれている。また、これらの単位テクスチャ画像の大きさ(広さ)は地面オブジェクト42よりも小さくなっている。なお以下では、土の単位テクスチャ画像50を図4に示すように表し、草の単位テクスチャ画像52を図5に示すように表す。光ディスク36には、地面オブジェクト42へのテクスチャ画像のマッピングに関連するデータが他にも記憶されるが、このデータについては後述する。
The optical disk 36 (first unit texture image storage means and second unit texture image storage means) has a unit texture image (first unit texture image) representing soil and a unit texture image (second second) representing grass. Unit texture image) is stored. The soil is drawn relatively finely (with relatively high resolution) in the soil unit texture image, and the grass is drawn relatively finely (with relatively high resolution) in the grass unit texture image. In addition, the size (width) of these unit texture images is smaller than that of the
次に、地面オブジェクト42へのテクスチャ画像のマッピングに関する処理について説明する。図6は、地面オブジェクト42へのテクスチャ画像のマッピングに関する処理を示すフロー図である。図6に示す処理は光ディスク36又はハードディスク26に記憶されたプログラムに従って実行される。
Next, processing related to mapping of a texture image onto the
図6に示すように、マイクロプロセッサ14及び画像処理部18(第1のテクスチャ画像取得手段)は、土の単位テクスチャ画像50を縦又は/及び横に繰り返し配置することによって、土テクスチャ画像(第1のテクスチャ画像)をVRAM上に生成する(S201)。図7は、このステップで生成される土テクスチャ画像60の一例を示す。なお図7において、点線は、土の単位テクスチャ画像50が繰り返し配置されることを明確化するために描かれたものであり、実際には表されない。土テクスチャ画像60の大きさ(広さ)は地面オブジェクト42の大きさに対応している。すなわち、土テクスチャ画像60は、地面オブジェクト42の全体を覆うことが可能な大きさ(広さ)を有する。すなわち、土テクスチャ画像60は少なくとも地面オブジェクト42と同じ大きさ(広さ)を有する。
As shown in FIG. 6, the
また、マイクロプロセッサ14及び画像処理部18(第2のテクスチャ画像取得手段)は、草の単位テクスチャ画像52を縦又は/及び横に繰り返し配置することによって、草テクスチャ画像(第2のテクスチャ画像)をVRAM上に生成する(S202)。図8は、このステップで生成される草テクスチャ画像62の一例を示す。なお図8においても、点線は、草の単位テクスチャ画像52が繰り返し配置されることを明確化するために描かれたものであり、実際には表されない。草テクスチャ画像62の大きさ(広さ)も地面オブジェクト42の大きさに対応している。すなわち、草テクスチャ画像62も、地面オブジェクト42の全体を覆うことが可能な大きさ(広さ)を有する。つまり、草テクスチャ画像62も少なくとも地面オブジェクト42と同じ大きさ(広さ)を有する。また、土テクスチャ画像60と草テクスチャ画像62とは同じ大きさ(広さ)を有する。
In addition, the
その後、マイクロプロセッサ14及び画像処理部18(マッピング手段)は、土テクスチャ画像60と草テクスチャ画像62とを重ねて、地面オブジェクト42にマッピングする(S203)。すなわち、土テクスチャ画像60と草テクスチャ画像62とが半透明合成されてなるテクスチャ画像が地面オブジェクト42に対してマッピングされる。
Thereafter, the
このステップの処理に関連するデータとして、光ディスク36にはグレースケールのテクスチャ画像が記憶される。図9はこのテクスチャ画像の一例を示す。なお図9において、斜線部分はその部分の色が灰色であることを表している。また、灰色部分の濃さは一定ではなく、黒から白、又は白から黒へと滑らかに変化するように徐々に濃く又は薄くなるようになっている。このテクスチャ画像70の大きさ(広さ)は地面オブジェクト42(又は草テクスチャ画像62や土テクスチャ画像60)の大きさに対応している。本実施の形態の場合、このテクスチャ画像70の大きさ(広さ)は草テクスチャ画像62(又は土テクスチャ画像60)と同じ大きさである。このテクスチャ画像70は草テクスチャ画像62や土テクスチャ画像60とともに地面オブジェクト42に適用されることによって、草テクスチャ画像62(又は土テクスチャ画像60)の各画素の透明度(アルファ値:半透明合成の割合)を制御する役割を果たす。すなわち、このテクスチャ画像70は、草テクスチャ画像62(又は土テクスチャ画像60)の各画素の透明度を示す透明度データとしての役割を果たす。なお、ここでは、テクスチャ画像70は、草テクスチャ画像62の各画素の透明度を白黒の濃淡で示す256階調のグレースケール画像であることとして説明する。白色領域72は、草テクスチャ画像62の画素が完全不透明に設定されることを示す。黒色領域74は、草テクスチャ画像62の画素が完全透明に設定されることを示す。灰色領域76(斜線部分)は、草テクスチャ画像62の画素が半透明に設定されることを示す。なお、256階調のグレースケール画像は白黒の濃淡度を0〜255の値で保持するデータであり、値「0」は黒色に対応し、値「255」は白色に対応する。以下では、図9に示すテクスチャ画像のことを「透明度データ」と記載する。
As data related to the processing in this step, a grayscale texture image is stored on the optical disc 36. FIG. 9 shows an example of this texture image. In FIG. 9, the shaded portion indicates that the color of the portion is gray. Further, the density of the gray portion is not constant, and gradually becomes darker or lighter so as to smoothly change from black to white or from white to black. The size (width) of the
地面オブジェクト42(地面オブジェクト42にマッピングされるテクスチャ画像)の各画素のRGB値(R,G,B)は下記の式(1)〜(3)のようになる。なお、下記の式(1)〜(3)において、(Ra,Ga,Ba)は土テクスチャ画像60の対象画素のRGB値を示し、(Rb,Gb,Bb)は草テクスチャ画像62の対象画素のRGB値を示す。また、αは、透明度データの対象画素の色情報(256階調のグレースケール)から特定される透明度(アルファ値)を示す。
The RGB values (R, G, B) of each pixel of the ground object 42 (texture image mapped to the ground object 42) are expressed by the following equations (1) to (3). In the following formulas (1) to (3), (Ra, Ga, Ba) indicates the RGB value of the target pixel of the
R=(Ra*((255−α)/255))+(Rb*(α/255)) ・・・(1)
G=(Ga*((255−α)/255))+(Gb*(α/255)) ・・・(2)
B=(Ba*((255−α)/255))+(Bb*(α/255)) ・・・(3)
R = (Ra * ((255−α) / 255)) + (Rb * (α / 255)) (1)
G = (Ga * ((255−α) / 255)) + (Gb * (α / 255)) (2)
B = (Ba * ((255−α) / 255)) + (Bb * (α / 255)) (3)
上記のように、地面オブジェクト42には、土テクスチャ画像60と草体テクスチャ画像62とを透明度データに従って半透明合成してなるテクスチャ画像がマッピングされる。図10は地面オブジェクト42にマッピングされるテクスチャ画像80の一例を示している。なお図10において、実線部分は、土テクスチャ画像60や草体テクスチャ画像62が完全不透明に設定されることを示しており、点線部分は、土テクスチャ画像60や草体テクスチャ画像62が半透明に設定されることを示している。
As described above, the
なお、S201及びS202で生成される土テクスチャ画像60や草テクスチャ画像62は、ゲームが実行される間、VRAMに保持され続けるようにしてもよい。この場合、S201及びS202の処理は例えばゲーム開始時に一度だけ実行すればよい。
Note that the
以上説明したゲーム装置10によれば、土の単位テクスチャ画像50や草の単位テクスチャ画像52がテクスチャ解像度を維持したまま地面オブジェクト42にマッピングされることになる。その結果、比較的広範囲の地面の所々に草が生えている様子を表す画像(ゲーム画面)には地面や草が比較的精細に表されるようになる。
According to the
ところで、比較的広範囲の地面の所々に草が生えている様子を比較的精細に表す画像(ゲーム画面)を表示するための手法としては、下記のような手法も考えられる。図11及び図12はこの手法を説明するための図である。この手法では、図11に示すように、地面オブジェクト42が、土の単位テクスチャ画像50がマッピングされる部分(土を表す部分)のポリゴン(以下、「土ポリゴン」と記載する。)90と、草の単位テクスチャ画像52がマッピングされる部分(草を表す部分)のポリゴン(以下、「草ポリゴン」と記載する。)92と、にあらかじめ分割される。そして、図12に示すように、土ポリゴン90には土の単位テクスチャ画像50がマッピングされる。このとき、土の単位テクスチャ画像50はその解像度(テクスチャ解像度)を維持したままマッピングされる。このため、土ポリゴン90の大きさ(広さ)が土の単位テクスチャ画像50よりも大きい場合には、土の単位テクスチャ画像50が土ポリゴン90に対して繰り返しマッピングされる。同様に、図12に示すように、草ポリゴン92には草の単位テクスチャ画像52がその解像度(テクスチャ解像度)を維持したままマッピングされる。すなわち、草の単位テクスチャ画像52が草ポリゴン92に対して繰り返しマッピングされる。このようにしても、比較的広い範囲の地面の所々に草が生える様子を比較的精細に表す画像を表示することができる。
By the way, as a technique for displaying an image (game screen) representing a relatively fine image of grass growing on a relatively wide area of the ground, the following technique is also conceivable. 11 and 12 are diagrams for explaining this technique. In this method, as shown in FIG. 11, the
しかしながら、上記の手法では、例えば草が点々と生えている様子を表す画像を表示する場合のように、草が生えている場所を多く設ける場合、地面オブジェクト42を多くのポリゴンに分割しなければならなくなる。また、ゲーム開発の過程では、草が生える場所を変更する必要が生じる場合がある。この場合、上記の手法では、地面オブジェクト42のポリゴン分割からやり直さなければならなくなる。このため、上記の手法では、ゲーム制作者の手間がかかってしまう場合があった。
However, in the above method, for example, when a lot of places where grass grows are provided, for example, when an image showing how grass grows is displayed, the
この点、ゲーム装置10で採用されている手法によれば、例えば草が生える場所を多く設ける場合であっても、透明度データ(図9参照)を調整すれば足り、地面オブジェクト42を多くのポリゴンに分割する必要がない。また、ゲーム装置10で採用されている手法によれば、例えば草が生える場所を変更する場合であっても、透明度データ(図9参照)を変更すれば足り、地面オブジェクト42のポリゴン分割からやり直す必要がない。したがって、ゲーム装置10で採用されている手法によれば、ゲーム制作者の手間の軽減を図ることが可能になる。
In this regard, according to the technique adopted in the
また、ゲーム装置10で採用されている手法によれば、草が生えている場所から草が生えていない場所へと滑らかに変化させることが可能になる。
Further, according to the technique employed in the
図11及び図12を用いて説明した手法(地面オブジェクト42を土ポリゴン90と草ポリゴン92とに分割する方法)に関しては、草が生えている場所から草が生えていない場所へと滑らかに変化させるため手法として、下記のような手法が考えられる。図13はこの方法を説明するための図である。この手法では、図13に示すように、草ポリゴン92の一部が土ポリゴン90が重なるように草ポリゴン92が設けられる。図13に示す例では、土ポリゴン90内の太線で囲まれた部分90aと、草ポリゴン92内の太線で囲まれた部分92aと、が重なるようになっている。また、土ポリゴン90内の太線で囲まれた部分90bと、草ポリゴン92内の太線で囲まれた部分92bと、が重なるようになっている。そして、草ポリゴン92の土ポリゴン90との重なり部分(部分92a,92b)内の頂点94の透明度が、草が生えている場所から草が生えていない場所へと滑らかに変化するように調整される。
11 and 12 (the method of dividing the
しかしながら、上記の方法では、透明度の調整対象が頂点94に限られるため、透明度調整の自由度が低い。このため、草が生えている場所から草が生えていない場所への変化の滑らかさが、ゲーム制作者が所望する程度の滑らかさにならない場合がある。
However, in the above method, the transparency adjustment target is limited to the
この点、ゲーム装置10で採用されている手法によれば、土テクスチャ画像60や草テクスチャ画像62の透明度を画素単位で調整できるようになるため、透明度調整の自由度を向上することができる。その結果、草が生えている場所から草が生えていない場所への変化の滑らかさを、ゲーム制作者が所望する程度の滑らかさにすることが可能になる。
In this regard, according to the technique employed in the
本発明は以上に説明した実施の形態に限定されるものではない。 The present invention is not limited to the embodiment described above.
例えば、透明度データは、草テクスチャ画像62(又は土テクスチャ画像60)の各画素の透明度(α値)の時間経過に伴う変化を示すデータであってもよい。例えば、透明度データは、各画素の白黒の濃淡度の所定時間(例えば1/60秒)ごとの変化を表すグレースケールのアニメーションデータとしてもよい。こうすれば、地面オブジェクト42にマッピングされる草テクスチャ画像62(又は土テクスチャ画像60)の透明度を時間経過に伴って変化させることが可能になる。その結果、例えば、草の生える場所が時間経過に伴って変化する様子を画面に表すことが可能になる。
For example, the transparency data may be data indicating a change with time of transparency (α value) of each pixel of the grass texture image 62 (or the soil texture image 60). For example, the transparency data may be grayscale animation data representing a change in black and white density of each pixel every predetermined time (for example, 1/60 seconds). In this way, it is possible to change the transparency of the grass texture image 62 (or the soil texture image 60) mapped to the
また例えば、本発明は、比較的広範囲の地面の所々に草が生える様子を比較的精細に表す画像を表示する場合以外にも適用することができる。例えば、本発明は、比較的広範囲の地面の所々に草以外の物が生える様子を比較的精細に表す画像を表示する場合以外にも適用することができる。 In addition, for example, the present invention can be applied to a case other than displaying an image that expresses a state in which grass grows on a relatively wide area of the ground in a relatively fine manner. For example, the present invention can be applied to a case other than displaying an image representing a state in which things other than grass grow on places in a relatively wide range of ground.
また例えば、以上の説明では、プログラムを情報記憶媒体たる光ディスク36を介してゲーム装置10に供給するようにしたが、通信ネットワークを介してプログラムをゲーム装置10に配信するようにしてもよい。図14は、通信ネットワークを用いたプログラム配信システムの全体構成を示す図である。図14に基づいて本発明に係るプログラム配信方法を説明する。図14に示すように、このプログラム配信システム100はゲーム装置10、通信ネットワーク106、プログラム配信装置108を含む。プログラム配信装置108はデータベース102とサーバ104とを含む。通信ネットワーク106は、例えばインターネットやケーブルテレビネットワークを含む。このシステムでは、データベース(情報記憶媒体)102に、光ディスク36に記憶されるプログラムと同様のプログラムが記憶されている。そして、需要者がゲーム装置10を用いてゲーム配信要求をすることにより、それが通信ネットワーク106を介してサーバ104に伝えられる。そして、サーバ104はゲーム配信要求に応じてデータベース102からプログラムを読み出し、それをゲーム配信要求元のゲーム装置10に送信する。ここではゲーム配信要求に応じてゲーム配信するようにしたが、サーバ104から一方的に送信するようにしてもよい。また、必ずしも一度にゲームの実現に必要な全てのプログラムを配信(一括配信)する必要はなく、ゲームの局面に応じて必要な部分を配信(分割配信)するようにしてもよい。このように通信ネットワーク106を介してゲーム配信するようにすれば、プログラムを需要者は容易に入手することができるようになる。
Further, for example, in the above description, the program is supplied to the
10 ゲーム装置、11 家庭用ゲーム機、12 バス、14 マイクロプロセッサ、16 主記憶、18 画像処理部、20 入出力処理部、22 音声処理部、24 光ディスク読み取り部、26 ハードディスク、28 通信インタフェース、30 コントローラ、32 モニタ、34 スピーカ、36 光ディスク、40 仮想3次元空間、42 地面オブジェクト、44 プレイヤキャラクタオブジェクト、46 敵キャラクタオブジェクト、48 仮想カメラ、50 土の単位テクスチャ画像、52 草の単位テクスチャ画像、60 土テクスチャ画像、62 草テクスチャ画像、70 テクスチャ画像、72 白色領域、74 黒色領域、76 灰色領域、80 テクスチャ画像、90 土ポリゴン、92 草ポリゴン、94 頂点、100 プログラム配信システム、102 データベース、104 サーバ、106 通信ネットワーク、108 プログラム配信装置。
DESCRIPTION OF
Claims (3)
土の単位テクスチャ画像を記憶する土の単位テクスチャ画像記憶手段と、
草の単位テクスチャ画像を記憶する草の単位テクスチャ画像記憶手段と、
前記土の単位テクスチャ画像を複数配列してなる土テクスチャ画像を取得する土テクスチャ画像取得手段と、
前記草の単位テクスチャ画像を複数配列してなる草テクスチャ画像を取得する草テクスチャ画像取得手段と、
前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度を示す透明度データを記憶する透明度データ記憶手段と、
前記土テクスチャ画像と前記草テクスチャ画像とを前記透明度データに基づいて半透明合成してなるテクスチャ画像を、前記仮想3次元空間に配置されるオブジェクトにマッピングするマッピング手段と、
を含み、
前記透明度データは、前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度の時間経過に伴う変化を示すデータであり、
前記マッピング手段は、前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度を前記透明度データに基づいて変化させ、前記オブジェクトにマッピングされる前記テクスチャ画像を時間経過に伴って変化させる、
ことを特徴とする画像処理装置。 In an image processing apparatus that displays an image representing a virtual three-dimensional space viewed from a virtual camera
Soil unit texture image storage means for storing soil unit texture images;
A unit texture image storage unit for storing a unit texture image of grass;
Soil texture image acquisition means for acquiring a soil texture image formed by arranging a plurality of unit texture images of the soil;
Grass texture image acquisition means for acquiring a grass texture image formed by arranging a plurality of unit texture images of the grass;
Transparency data storage means for storing transparency data indicating transparency of each pixel of the soil texture image or / and the grass texture image;
Mapping means for mapping a texture image formed by translucent synthesis of the soil texture image and the grass texture image based on the transparency data to an object arranged in the virtual three-dimensional space;
Including
The transparency data is data indicating a change with time of transparency of each pixel of the soil texture image or / and the grass texture image,
The mapping means changes the transparency of each pixel of the soil texture image or / and the grass texture image based on the transparency data, and changes the texture image mapped to the object with time.
An image processing apparatus.
前記画像処理装置に含まれるマイクロプロセッサが、土の単位テクスチャ画像を記憶してなる土の単位テクスチャ画像記憶手段から前記土の単位テクスチャ画像を読み出すステップと、
前記マイクロプロセッサが、草の単位テクスチャ画像を記憶してなる草の単位テクスチャ画像記憶手段から前記草の単位テクスチャ画像を読み出すステップと、
前記マイクロプロセッサが、前記土の単位テクスチャ画像を複数配列してなる土テクスチャ画像を取得する土テクスチャ画像取得ステップと、
前記マイクロプロセッサが、前記草の単位テクスチャ画像を複数配列してなる草テクスチャ画像を取得する草テクスチャ画像取得ステップと、
前記マイクロプロセッサが、前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度を示す透明度データを記憶してなる透明度データ記憶手段から前記透明度データを読み出すステップと、
前記マイクロプロセッサが、前記土テクスチャ画像と前記草テクスチャ画像とを前記透明度データに基づいて半透明合成してなるテクスチャ画像を、前記仮想3次元空間に配置されるオブジェクトにマッピングするマッピングステップと、
を含み、
前記透明度データは、前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度の時間経過に伴う変化を示すデータであり、
前記マッピングステップにおいて、前記マイクロプロセッサは、前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度を前記透明度データに基づいて変化させ、前記オブジェクトにマッピングされる前記テクスチャ画像を時間経過に伴って変化させる、
ことを特徴とする画像処理装置の制御方法。 In a control method for an image processing apparatus that displays an image representing a virtual three-dimensional space viewed from a virtual camera,
A microprocessor included in the image processing device reads the soil unit texture image from a soil unit texture image storage unit configured to store a soil unit texture image;
The microprocessor reading the grass unit texture image from a grass unit texture image storage means storing grass unit texture images;
A soil texture image acquisition step in which the microprocessor acquires a soil texture image formed by arranging a plurality of unit texture images of the soil;
A grass texture image acquisition step in which the microprocessor acquires a grass texture image obtained by arranging a plurality of unit texture images of the grass;
The microprocessor reading the transparency data from transparency data storage means for storing transparency data indicating transparency of each pixel of the soil texture image or / and the grass texture image;
The microprocessor and the mapping step of mapping said grass texture image and the soil texture image semitransparent synthesized texture image comprising, based on the transparency data, the object placed in the virtual three-dimensional space,
Including
The transparency data is data indicating a change with time of transparency of each pixel of the soil texture image or / and the grass texture image,
In the mapping step, the microprocessor changes the transparency of each pixel of the soil texture image and / or the grass texture image based on the transparency data, and the texture image mapped to the object is changed over time. Change
And a control method for the image processing apparatus.
土の単位テクスチャ画像を記憶する土の単位テクスチャ画像記憶手段、
草の単位テクスチャ画像を記憶する草の単位テクスチャ画像記憶手段、
前記土の単位テクスチャ画像を複数配列してなる土テクスチャ画像を取得する土テクスチャ画像取得手段、
前記草の単位テクスチャ画像を複数配列してなる草テクスチャ画像を取得する草テクスチャ画像取得手段、
前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度を示す透明度データを記憶する透明度データ記憶手段、及び、
前記土テクスチャ画像と前記草テクスチャ画像とを前記透明度データに基づいて半透明合成してなるテクスチャ画像を、前記仮想3次元空間に配置されるオブジェクトにマッピングするマッピング手段、
として前記コンピュータを機能させ、
前記透明度データは、前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度の時間経過に伴う変化を示すデータであり、
前記マッピング手段は、前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度を前記透明度データに基づいて変化させ、前記オブジェクトにマッピングされる前記テクスチャ画像を時間経過に伴って変化させる、
ことを特徴とするプログラム。 A program for causing a computer to function as an image processing apparatus that displays an image representing a virtual three-dimensional space viewed from a virtual camera,
Soil unit texture image storage means for storing soil unit texture images;
Grass unit texture image storage means for storing grass unit texture images;
Soil texture image acquisition means for acquiring a soil texture image formed by arranging a plurality of unit texture images of the soil;
A grass texture image obtaining means for obtaining a grass texture image formed by arranging a plurality of unit texture images of the grass;
Transparency data storage means for storing transparency data indicating transparency of each pixel of the soil texture image or / and the grass texture image; and
Mapping means for mapping a texture image formed by translucent synthesis of the soil texture image and the grass texture image based on the transparency data to an object arranged in the virtual three-dimensional space;
Function the computer as
The transparency data is data indicating a change with time of transparency of each pixel of the soil texture image or / and the grass texture image,
The mapping means changes the transparency of each pixel of the soil texture image or / and the grass texture image based on the transparency data, and changes the texture image mapped to the object with time.
A program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007319440A JP4838230B2 (en) | 2007-12-11 | 2007-12-11 | Image processing apparatus, image processing apparatus control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007319440A JP4838230B2 (en) | 2007-12-11 | 2007-12-11 | Image processing apparatus, image processing apparatus control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009145941A JP2009145941A (en) | 2009-07-02 |
JP4838230B2 true JP4838230B2 (en) | 2011-12-14 |
Family
ID=40916518
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007319440A Active JP4838230B2 (en) | 2007-12-11 | 2007-12-11 | Image processing apparatus, image processing apparatus control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4838230B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007054656A (en) * | 1997-02-18 | 2007-03-08 | Sega Corp | Image processor and image processing method |
JP3910259B2 (en) * | 1997-05-16 | 2007-04-25 | 株式会社ソニー・コンピュータエンタテインメント | Image processing apparatus and method, and rendering apparatus and method |
JP2004334661A (en) * | 2003-05-09 | 2004-11-25 | Namco Ltd | Image generating system, program, and information storage medium |
JP4706966B2 (en) * | 2005-12-06 | 2011-06-22 | 株式会社セガ | Image generation program and image processing apparatus |
-
2007
- 2007-12-11 JP JP2007319440A patent/JP4838230B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009145941A (en) | 2009-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4833674B2 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
KR101623288B1 (en) | Rendering system, rendering server, control method thereof, program, and recording medium | |
US20080246760A1 (en) | Method and apparatus for mapping texture onto 3-dimensional object model | |
US7199801B2 (en) | Image processing apparatus and image processing method | |
JP4079378B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
KR100987624B1 (en) | Game machine, game machine control method, and information storage medium | |
JP4031509B1 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP5256153B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP4838230B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP4838221B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP4847572B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP2001283244A (en) | Three-dimensional image compositing device, its method, information storage medium, program distributing device and its method | |
EP2164047A1 (en) | Image processor, image processing method, program, and information storage medium | |
JP3712175B2 (en) | Image composition apparatus and method, and information storage medium | |
JP2005050070A (en) | Image processing device, method, and program | |
JP2002251626A (en) | Method for generating image and program used for the same | |
JP2011095937A (en) | Program, information storage medium and image generation system | |
JP2007082677A (en) | Game device, control method of game device, and program | |
JP2013084155A (en) | Image processing method, image processing program, image processing device, and image processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110822 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110913 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110929 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141007 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4838230 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |