JP4838230B2 - Image processing apparatus, image processing apparatus control method, and program - Google Patents

Image processing apparatus, image processing apparatus control method, and program Download PDF

Info

Publication number
JP4838230B2
JP4838230B2 JP2007319440A JP2007319440A JP4838230B2 JP 4838230 B2 JP4838230 B2 JP 4838230B2 JP 2007319440 A JP2007319440 A JP 2007319440A JP 2007319440 A JP2007319440 A JP 2007319440A JP 4838230 B2 JP4838230 B2 JP 4838230B2
Authority
JP
Japan
Prior art keywords
texture image
grass
soil
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007319440A
Other languages
Japanese (ja)
Other versions
JP2009145941A (en
Inventor
航成 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2007319440A priority Critical patent/JP4838230B2/en
Publication of JP2009145941A publication Critical patent/JP2009145941A/en
Application granted granted Critical
Publication of JP4838230B2 publication Critical patent/JP4838230B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は画像処理装置、画像処理装置の制御方法及びプログラムに関する。   The present invention relates to an image processing apparatus, a control method for the image processing apparatus, and a program.

仮想3次元空間を仮想カメラ(視点)から見た様子を表す画像を表示する画像処理装置が知られている。このような画像処理装置の例としてはゲーム装置が挙げられる。
特開2007−082859号公報
There is known an image processing apparatus that displays an image representing a virtual three-dimensional space viewed from a virtual camera (viewpoint). An example of such an image processing device is a game device.
JP 2007-082859 A

上記のような画像処理装置(ゲーム装置)では、例えば、比較的広範囲の地面の所々に草が生える様子を比較的精細に表す画像を画面に表示したい場合がある。このような画像の表示を実現するにあたっては、その実現にかかる手間の軽減が強く望まれる。   In the image processing apparatus (game apparatus) as described above, for example, there is a case where it is desired to display on the screen an image that expresses a relatively fine state of grass growing on a relatively wide area of the ground. In realizing such image display, it is strongly desired to reduce the time and effort required for the display.

本発明は上記課題に鑑みてなされたものであって、その目的は、例えば、比較的広範囲の地面の所々に草が生える様子を比較的精細に表す画像の表示を実現する場合の手間の軽減を図ることが可能になる画像処理装置、画像処理装置の制御方法及びプログラムを提供することにある。   The present invention has been made in view of the above problems, and its purpose is, for example, reduction of time and labor when realizing display of an image that expresses a state where grass grows in a relatively wide range of places in a relatively fine manner. An object of the present invention is to provide an image processing apparatus, a control method for the image processing apparatus, and a program.

上記課題を解決するために、本発明に係る画像処理装置は、仮想3次元空間を仮想カメラから見た様子を表す画像を表示する画像処理装置において、第1の単位テクスチャ画像を記憶する第1の単位テクスチャ画像記憶手段と、第2の単位テクスチャ画像を記憶する第2の単位テクスチャ画像記憶手段と、前記第1の単位テクスチャ画像を複数配列してなる第1のテクスチャ画像を取得する第1のテクスチャ画像取得手段と、前記第2の単位テクスチャ画像を複数配列してなる第2のテクスチャ画像を取得する第2のテクスチャ画像取得手段と、前記第1のテクスチャ画像又は/及び前記第2のテクスチャ画像の各画素の透明度を示す透明度データを記憶する透明度データ記憶手段と、前記第1のテクスチャ画像と前記第2のテクスチャ画像とを前記透明度データに基づいて半透明合成してなるテクスチャ画像を、前記仮想3次元空間に配置されるオブジェクトにマッピングするマッピング手段と、を含むことを特徴とする。   In order to solve the above problem, an image processing apparatus according to the present invention is a first image processing apparatus that stores an image representing a state in which a virtual three-dimensional space is viewed from a virtual camera, and stores a first unit texture image. Unit texture image storage means, second unit texture image storage means for storing a second unit texture image, and first texture image obtained by arranging a plurality of the first unit texture images. Texture image obtaining means, second texture image obtaining means for obtaining a second texture image obtained by arranging a plurality of the second unit texture images, and the first texture image and / or the second texture image. Transparency data storage means for storing transparency data indicating the transparency of each pixel of the texture image, the first texture image and the second texture image The semi-transparent synthetic texture images comprising, based on the transparency data, characterized in that it comprises a mapping means for mapping the object placed in the virtual three-dimensional space.

また、本発明に係る画像処理装置の制御方法は、仮想3次元空間を仮想カメラから見た様子を表す画像を表示する画像処理装置の制御方法において、第1の単位テクスチャ画像を記憶してなる第1の単位テクスチャ画像記憶手段から前記第1の単位テクスチャ画像を読み出すステップと、第2の単位テクスチャ画像を記憶してなる第2の単位テクスチャ画像記憶手段から前記第2の単位テクスチャ画像を読み出すステップと、前記第1の単位テクスチャ画像を複数配列してなる第1のテクスチャ画像を取得する第1のテクスチャ画像取得ステップと、前記第2の単位テクスチャ画像を複数配列してなる第2のテクスチャ画像を取得する第2のテクスチャ画像取得ステップと、前記第1のテクスチャ画像又は/及び前記第2のテクスチャ画像の各画素の透明度を示す透明度データを記憶してなる透明度データ記憶手段から前記透明度データを読み出すステップと、前記第1のテクスチャ画像と前記第2のテクスチャ画像とを前記透明度データに基づいて半透明合成してなるテクスチャ画像を、前記仮想3次元空間に配置されるオブジェクトにマッピングするマッピングステップと、を含むことを特徴とする。   The image processing apparatus control method according to the present invention stores the first unit texture image in the image processing apparatus control method for displaying an image representing a state in which the virtual three-dimensional space is viewed from the virtual camera. Reading out the first unit texture image from the first unit texture image storage means, and reading out the second unit texture image from the second unit texture image storage means storing the second unit texture image. A first texture image obtaining step for obtaining a first texture image obtained by arranging a plurality of the first unit texture images, and a second texture obtained by arranging a plurality of the second unit texture images. A second texture image acquisition step of acquiring an image, and the first texture image or / and the second texture image A step of reading out the transparency data from transparency data storage means for storing transparency data indicating the transparency of the pixels, and translucent synthesis of the first texture image and the second texture image based on the transparency data. Mapping step of mapping the texture image to the object arranged in the virtual three-dimensional space.

また、本発明に係るプログラムは、仮想3次元空間を仮想カメラから見た様子を表す画像を表示する画像処理装置として、家庭用ゲーム機(据置型ゲーム機)、携帯ゲーム機、業務用ゲーム機、携帯電話機、携帯情報端末(PDA)やパーソナルコンピュータなどのコンピュータを機能させるためのプログラムであって、第1の単位テクスチャ画像を記憶する第1の単位テクスチャ画像記憶手段、第2の単位テクスチャ画像を記憶する第2の単位テクスチャ画像記憶手段、前記第1の単位テクスチャ画像を複数配列してなる第1のテクスチャ画像を取得する第1のテクスチャ画像取得手段、前記第2の単位テクスチャ画像を複数配列してなる第2のテクスチャ画像を取得する第2のテクスチャ画像取得手段、前記第1のテクスチャ画像又は/及び前記第2のテクスチャ画像の各画素の透明度を示す透明度データを記憶する透明度データ記憶手段、及び、前記第1のテクスチャ画像と前記第2のテクスチャ画像とを前記透明度データに基づいて半透明合成してなるテクスチャ画像を、前記仮想3次元空間に配置されるオブジェクトにマッピングするマッピング手段、として前記コンピュータを機能させるためのプログラムである。   The program according to the present invention is a home game machine (stationary game machine), a portable game machine, an arcade game machine as an image processing device that displays an image representing a virtual three-dimensional space viewed from a virtual camera. , A program for causing a computer such as a mobile phone, a personal digital assistant (PDA), or a personal computer to function, a first unit texture image storage means for storing a first unit texture image, a second unit texture image Second unit texture image storage means for storing, first texture image acquisition means for acquiring a first texture image formed by arranging a plurality of the first unit texture images, and a plurality of the second unit texture images. Second texture image acquisition means for acquiring a second texture image formed by arrangement, the first texture image or / And transparency data storage means for storing transparency data indicating the transparency of each pixel of the second texture image, and translucent synthesis of the first texture image and the second texture image based on the transparency data This is a program for causing the computer to function as mapping means for mapping the texture image formed on the object arranged in the virtual three-dimensional space.

また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。また、本発明に係るプログラム配信装置は、上記プログラムを記録した情報記憶媒体を備え、当該情報記憶媒体から上記プログラムを読み出し、配信するプログラム配信装置である。また、本発明に係るプログラム配信方法は、上記プログラムを記録した情報記憶媒体から上記プログラムを読み出し、配信するプログラム配信方法である。   An information storage medium according to the present invention is a computer-readable information storage medium recording the above program. A program distribution apparatus according to the present invention is a program distribution apparatus that includes an information storage medium that records the program, reads the program from the information storage medium, and distributes the program. The program distribution method according to the present invention is a program distribution method for reading and distributing the program from an information storage medium storing the program.

本発明は、仮想3次元空間を仮想カメラから見た様子を表す画像を表示する画像処理装置に関するものである。本発明では第1の単位テクスチャ画像と第2の単位テクスチャ画像とが記憶される。また、第1の単位テクスチャ画像を複数配列してなる第1のテクスチャ画像が取得され、第2の単位テクスチャ画像を複数配列してなる第2のテクスチャ画像が取得される。また本発明では、第1のテクスチャ画像又は/及び第2のテクスチャ画像の各画素の透明度を特定するための透明度データが記憶される。そして、第1のテクスチャ画像と第2のテクスチャ画像とを透明度データに基づいて半透明合成してなるテクスチャ画像が、仮想3次元空間に配置されるオブジェクトにマッピングされる。例えば、「第1の単位テクスチャ画像」は土を精細に表すテクスチャ画像である。また、「第2の単位テクスチャ画像」は草を精細に表すテクスチャ画像である。また、「オブジェクト」は例えば地面オブジェクトである。本発明によれば、例えば、比較的広範囲の地面の所々に草が生える様子を比較的精細に表す画像の表示を実現する場合の手間の軽減を図ることが可能になる。   The present invention relates to an image processing apparatus that displays an image representing a state in which a virtual three-dimensional space is viewed from a virtual camera. In the present invention, the first unit texture image and the second unit texture image are stored. In addition, a first texture image obtained by arranging a plurality of first unit texture images is obtained, and a second texture image obtained by arranging a plurality of second unit texture images is obtained. In the present invention, transparency data for specifying the transparency of each pixel of the first texture image or / and the second texture image is stored. Then, a texture image obtained by translucently combining the first texture image and the second texture image based on the transparency data is mapped to an object arranged in the virtual three-dimensional space. For example, the “first unit texture image” is a texture image that finely represents soil. Further, the “second unit texture image” is a texture image that represents grass precisely. The “object” is, for example, a ground object. According to the present invention, for example, it is possible to reduce time and labor when realizing display of an image that expresses a state where grass grows on a relatively wide area of the ground in a relatively fine manner.

また、本発明の一態様では、前記透明度データは、前記第1のテクスチャ画像又は/及び前記第2のテクスチャ画像の各画素の透明度の時間経過に伴う変化を示すデータであり、前記マッピング手段は、前記第1のテクスチャ画像又は/及び前記第2のテクスチャ画像の各画素の透明度を前記透明度データに基づいて変化させ、前記オブジェクトにマッピングされる前記テクスチャ画像を時間経過に伴って変化させるようにしてもよい。   In the aspect of the invention, the transparency data is data indicating a change with time of transparency of each pixel of the first texture image or / and the second texture image, and the mapping unit includes: The transparency of each pixel of the first texture image and / or the second texture image is changed based on the transparency data, and the texture image mapped to the object is changed over time. May be.

以下、本発明の実施形態の一例について図面に基づき詳細に説明する。ここでは、画像処理装置の一態様であるゲーム装置に本発明を適用した場合について説明する。本発明の実施形態に係るゲーム装置は、例えば家庭用ゲーム機(据置型ゲーム機)、携帯ゲーム機、携帯電話機、携帯情報端末(PDA)又はパーソナルコンピュータ等によって実現される。ここでは、本発明の実施形態に係るゲーム装置を家庭用ゲーム機によって実現する場合について説明する。   Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. Here, a case where the present invention is applied to a game device which is an aspect of an image processing device will be described. The game device according to the embodiment of the present invention is realized by, for example, a home game machine (stationary game machine), a portable game machine, a mobile phone, a personal digital assistant (PDA), a personal computer, or the like. Here, a case where the game device according to the embodiment of the present invention is realized by a consumer game machine will be described.

図1は、本発明の実施形態に係るゲーム装置(画像処理装置)の全体構成を示す図である。図1に示すゲーム装置10は、家庭用ゲーム機11、モニタ32、スピーカ34、光ディスク36を含んでいる。モニタ32及びスピーカ34は家庭用ゲーム機11に接続される。モニタ32としては例えば家庭用テレビ受像機が用いられる。スピーカ34としては例えば家庭用テレビ受像機に内蔵されたスピーカが用いられる。光ディスク36は情報記憶媒体であり、家庭用ゲーム機11に装着される。   FIG. 1 is a diagram showing an overall configuration of a game apparatus (image processing apparatus) according to an embodiment of the present invention. The game device 10 shown in FIG. 1 includes a consumer game machine 11, a monitor 32, a speaker 34, and an optical disk 36. The monitor 32 and the speaker 34 are connected to the consumer game machine 11. As the monitor 32, for example, a home television receiver is used. As the speaker 34, for example, a speaker built in a home television receiver is used. The optical disk 36 is an information storage medium and is attached to the consumer game machine 11.

家庭用ゲーム機11は公知のコンピュータゲームシステムである。家庭用ゲーム機11は、バス12、マイクロプロセッサ14、主記憶16、画像処理部18、入出力処理部20、音声処理部22、光ディスク読み取り部24、ハードディスク26、通信インタフェース28及びコントローラ30を含む。コントローラ30以外の構成要素は家庭用ゲーム機11の筐体内に収容される。   The home game machine 11 is a known computer game system. The home game machine 11 includes a bus 12, a microprocessor 14, a main memory 16, an image processing unit 18, an input / output processing unit 20, an audio processing unit 22, an optical disc reading unit 24, a hard disk 26, a communication interface 28, and a controller 30. . Components other than the controller 30 are accommodated in the housing of the consumer game machine 11.

バス12はアドレス及びデータを家庭用ゲーム機11の各部でやり取りするためのものである。マイクロプロセッサ14、主記憶16、画像処理部18及び入出力処理部20は、バス12によって相互データ通信可能に接続される。   The bus 12 is for exchanging addresses and data among the units of the consumer game machine 11. The microprocessor 14, the main memory 16, the image processing unit 18, and the input / output processing unit 20 are connected by the bus 12 so that mutual data communication is possible.

マイクロプロセッサ14は図示しないROMに格納されるオペレーティングシステム、光ディスク36又はハードディスク26から読み出されるプログラム及びデータに基づいて、家庭用ゲーム機11の各部を制御する。主記憶16は例えばRAMを含む。主記憶16には光ディスク36又はハードディスク26から読み出されたプログラム及びデータが必要に応じて書き込まれる。主記憶16はマイクロプロセッサ14の作業用メモリとしても用いられる。   The microprocessor 14 controls each unit of the consumer game machine 11 based on an operating system stored in a ROM (not shown), a program and data read from the optical disk 36 or the hard disk 26. The main memory 16 includes a RAM, for example. Programs and data read from the optical disk 36 or the hard disk 26 are written in the main memory 16 as necessary. The main memory 16 is also used as a working memory for the microprocessor 14.

画像処理部18はVRAMを含む。画像処理部18はマイクロプロセッサ14から送られる画像データに基づいてVRAM上にゲーム画面を描画する。そして、画像処理部18はVRAM上に描画されたゲーム画面をビデオ信号に変換して所定のタイミングでモニタ32に出力する。すなわち画像処理部18は、マイクロプロセッサ14から視点座標系での各ポリゴンの頂点座標、頂点色情報(RGB値)、テクスチャ座標及びアルファ値等を受け取る。そして、それら情報を用いて表示画像を構成する各画素の色情報、Z値(奥行き情報)及びアルファ値等をVRAMの表示用バッファに描画する。このとき、VRAMにはテクスチャ画像が予め書き込まれており、各テクスチャ座標により特定されるテクスチャ画像中の領域が、それらテクスチャ座標に対応する頂点座標により特定されるポリゴンにマッピング(貼付)されるようになっている。こうして生成される表示画像は所定タイミングでモニタ32に出力される。   The image processing unit 18 includes a VRAM. The image processing unit 18 draws a game screen on the VRAM based on the image data sent from the microprocessor 14. The image processing unit 18 converts the game screen drawn on the VRAM into a video signal and outputs the video signal to the monitor 32 at a predetermined timing. That is, the image processing unit 18 receives vertex coordinates, vertex color information (RGB values), texture coordinates, alpha values, and the like of each polygon in the viewpoint coordinate system from the microprocessor 14. Then, using such information, the color information, Z value (depth information), alpha value and the like of each pixel constituting the display image are drawn in the display buffer of the VRAM. At this time, the texture image is written in the VRAM in advance, and the region in the texture image specified by each texture coordinate is mapped (pasted) to the polygon specified by the vertex coordinate corresponding to the texture coordinate. It has become. The display image generated in this way is output to the monitor 32 at a predetermined timing.

入出力処理部20はマイクロプロセッサ14が音声処理部22、光ディスク読み取り部24、ハードディスク26、通信インタフェース28及びコントローラ30にアクセスするためのインタフェースである。入出力処理部20には、音声処理部22、光ディスク読み取り部24、ハードディスク26、通信インタフェース28及びコントローラ30が接続される。   The input / output processing unit 20 is an interface for the microprocessor 14 to access the audio processing unit 22, the optical disk reading unit 24, the hard disk 26, the communication interface 28, and the controller 30. Connected to the input / output processing unit 20 are an audio processing unit 22, an optical disk reading unit 24, a hard disk 26, a communication interface 28, and a controller 30.

音声処理部22はサウンドバッファを含む。サウンドバッファには光ディスク36又はハードディスク26から読み出されたゲーム音楽、ゲーム効果音、メッセージ等の各種音声データが記憶される。音声処理部22はサウンドバッファに記憶された各種音声データを再生してスピーカ34から出力する。   The audio processing unit 22 includes a sound buffer. Various sound data such as game music, game sound effects, and messages read from the optical disk 36 or the hard disk 26 are stored in the sound buffer. The audio processing unit 22 reproduces various audio data stored in the sound buffer and outputs it from the speaker 34.

光ディスク読み取り部24はマイクロプロセッサ14からの指示に従って光ディスク36に記録されたプログラムやデータを読み取る。なお、ここではプログラムやデータを家庭用ゲーム機11に供給するために光ディスク36を用いることとするが、メモリカード等、他の情報記憶媒体を用いるようにしてもよい。また、例えばインターネット等の通信ネットワークを介して遠隔地からプログラムやデータを家庭用ゲーム機11に供給するようにしてもよい。   The optical disk reading unit 24 reads programs and data recorded on the optical disk 36 in accordance with instructions from the microprocessor 14. Here, the optical disc 36 is used to supply the program and data to the consumer game machine 11, but other information storage media such as a memory card may be used. Further, for example, a program or data may be supplied to the consumer game machine 11 from a remote place via a communication network such as the Internet.

ハードディスク26は一般的なハードディスク装置(補助記憶装置)である。ハードディスク26にはプログラムやデータが記憶される。通信インタフェース28はインターネット等の通信ネットワークに家庭用ゲーム機11を有線又は無線接続するためのインタフェースである。   The hard disk 26 is a general hard disk device (auxiliary storage device). The hard disk 26 stores programs and data. The communication interface 28 is an interface for connecting the consumer game machine 11 to a communication network such as the Internet by wire or wireless.

コントローラ30はユーザが各種ゲーム操作を入力するための汎用操作入力手段である。入出力処理部20は一定周期毎(例えば1/60秒ごと)にコントローラ30の各部の状態をスキャンする。そして、入出力処理部20はそのスキャン結果を表す操作信号をバス12を介してマイクロプロセッサ14に渡す。マイクロプロセッサ14はその操作信号に基づいてプレイヤのゲーム操作を判定する。家庭用ゲーム機11には複数のコントローラ30を接続することが可能である。マイクロプロセッサ14は各コントローラ30から入力される操作信号に基づいてゲーム制御を実行する。   The controller 30 is general-purpose operation input means for the user to input various game operations. The input / output processing unit 20 scans the state of each unit of the controller 30 at regular intervals (for example, every 1/60 seconds). Then, the input / output processing unit 20 passes an operation signal indicating the scan result to the microprocessor 14 via the bus 12. The microprocessor 14 determines the player's game operation based on the operation signal. A plurality of controllers 30 can be connected to the consumer game machine 11. The microprocessor 14 executes game control based on an operation signal input from each controller 30.

上記の構成を備えるゲーム装置10では、例えばプレイヤの操作に従ってプレイヤキャラクタオブジェクトが敵キャラクタオブジェクトを退治するアクションゲームが実行される。このアクションゲームは、光ディスク36又はハードディスク26から読み出されたゲームプログラムが実行されることによって実現される。   In the game apparatus 10 having the above-described configuration, for example, an action game is executed in which the player character object defeats the enemy character object in accordance with the operation of the player. This action game is realized by executing a game program read from the optical disk 36 or the hard disk 26.

ゲーム装置10の主記憶16には仮想3次元空間が構築される。図2は仮想3次元空間の一例を示している。図2に示す仮想3次元空間40には地面オブジェクト42が配置されている。また、地面オブジェクト42上にはプレイヤキャラクタオブジェクト44と敵キャラクタオブジェクト46とが配置されている。また仮想3次元空間40には、プレイヤキャラクタオブジェクト44の移動に従って移動する仮想カメラ48が設定される。この仮想カメラ48から仮想3次元空間40を見た様子を表すゲーム画面が生成され、該ゲーム画面がモニタ32に表示される。   A virtual three-dimensional space is constructed in the main memory 16 of the game apparatus 10. FIG. 2 shows an example of a virtual three-dimensional space. A ground object 42 is arranged in the virtual three-dimensional space 40 shown in FIG. On the ground object 42, a player character object 44 and an enemy character object 46 are arranged. In the virtual three-dimensional space 40, a virtual camera 48 that moves according to the movement of the player character object 44 is set. A game screen representing a state in which the virtual three-dimensional space 40 is viewed from the virtual camera 48 is generated, and the game screen is displayed on the monitor 32.

以下、上記のゲーム装置10において、比較的広範囲の地面の所々に草が生える様子を比較的精細に表す画像の表示を好適に実現するための技術について説明する。   Hereinafter, in the above-described game apparatus 10, a technique for suitably realizing display of an image that expresses a state in which grass grows in places on a relatively wide range of ground will be described.

図3は、ゲーム装置10が所定時間(例えば1/60秒)ごとに実行する処理のうち、本発明に関連する処理を主として示すフロー図である。図3に示す処理は光ディスク36又はハードディスク26に記憶されたプログラムに従って実行される。   FIG. 3 is a flowchart mainly showing processing related to the present invention among processing executed by the game apparatus 10 every predetermined time (for example, 1/60 seconds). The process shown in FIG. 3 is executed according to a program stored in the optical disc 36 or the hard disk 26.

図3に示すように、まず環境処理が実行される(S101)。環境処理では、仮想3次元空間40のすべてのオブジェクトの位置及び姿勢が算出される。また環境処理では、視点座標、視線方向及び画角も算出される。なお、画角には例えば固定値が用いられる。こうして算出される視点座標、視線方向及び画角に従って、仮想カメラ48が仮想3次元空間40に仮想的に配置される。   As shown in FIG. 3, environmental processing is first executed (S101). In the environment processing, the positions and orientations of all objects in the virtual three-dimensional space 40 are calculated. In the environment processing, the viewpoint coordinates, the line-of-sight direction, and the angle of view are also calculated. For example, a fixed value is used for the angle of view. The virtual camera 48 is virtually arranged in the virtual three-dimensional space 40 according to the viewpoint coordinates, the line-of-sight direction, and the angle of view calculated in this way.

その後、ジオメトリ処理が実行される(S102)。ジオメトリ処理では、ワールド座標系(Xw,Yw,Zw)から視点座標系(すなわち、視点座標を原点とし、視線方向をZ方向、水平方向をX方向、垂直方向をY方向とする座標系)への座標変換が行われる。また、各オブジェクトを構成するポリゴンについて、頂点の色情報が光源情報に基づいて算出される。さらに、クリッピング処理も行われる。   Thereafter, geometry processing is executed (S102). In the geometry processing, from the world coordinate system (Xw, Yw, Zw) to the viewpoint coordinate system (that is, the coordinate system having the viewpoint coordinates as the origin, the gaze direction as the Z direction, the horizontal direction as the X direction, and the vertical direction as the Y direction). The coordinate transformation is performed. Also, vertex color information is calculated based on the light source information for the polygons constituting each object. Further, clipping processing is also performed.

その後、レンダリング処理が実行される(S103)。すなわち、マイクロプロセッサ14が、視野範囲内の各ポリゴンの頂点座標、頂点色情報及びテクスチャ座標等を画像処理部18に渡す。そして、画像処理部18が、それらの情報に基づいてVRAM上にゲーム画面を形成する。ゲーム画面は、視点座標系で記述された各オブジェクトをスクリーン座標系に変換することによって形成される。こうして、仮想3次元空間40を仮想カメラ48から見た様子を表すゲーム画面がVRAM上に描画される。VRAM上に描画されたゲーム画面は所与のタイミングでモニタ32に表示出力される(S104)。   Thereafter, a rendering process is executed (S103). That is, the microprocessor 14 passes the vertex coordinates, vertex color information, texture coordinates, and the like of each polygon within the field-of-view range to the image processing unit 18. Then, the image processing unit 18 forms a game screen on the VRAM based on the information. The game screen is formed by converting each object described in the viewpoint coordinate system to the screen coordinate system. In this way, a game screen representing the virtual three-dimensional space 40 viewed from the virtual camera 48 is drawn on the VRAM. The game screen drawn on the VRAM is displayed and output on the monitor 32 at a given timing (S104).

ここで、地面オブジェクト42へのテクスチャ画像のマッピングについて詳細に説明する。   Here, the mapping of the texture image onto the ground object 42 will be described in detail.

まず、地面オブジェクト42へのテクスチャ画像のマッピングに関連するデータについて説明する。   First, data related to mapping of a texture image to the ground object 42 will be described.

光ディスク36(第1の単位テクスチャ画像記憶手段及び第2の単位テクスチャ画像記憶手段)には、土を表す単位テクスチャ画像(第1の単位テクスチャ画像)と、草を表す単位テクスチャ画像(第2の単位テクスチャ画像)と、が記憶される。土の単位テクスチャ画像には土が比較的精細に(比較的高解像度で)描かれており、草の単位テクスチャ画像には草が比較的精細に(比較的高解像度で)描かれている。また、これらの単位テクスチャ画像の大きさ(広さ)は地面オブジェクト42よりも小さくなっている。なお以下では、土の単位テクスチャ画像50を図4に示すように表し、草の単位テクスチャ画像52を図5に示すように表す。光ディスク36には、地面オブジェクト42へのテクスチャ画像のマッピングに関連するデータが他にも記憶されるが、このデータについては後述する。   The optical disk 36 (first unit texture image storage means and second unit texture image storage means) has a unit texture image (first unit texture image) representing soil and a unit texture image (second second) representing grass. Unit texture image) is stored. The soil is drawn relatively finely (with relatively high resolution) in the soil unit texture image, and the grass is drawn relatively finely (with relatively high resolution) in the grass unit texture image. In addition, the size (width) of these unit texture images is smaller than that of the ground object 42. In the following, the soil unit texture image 50 is represented as shown in FIG. 4, and the grass unit texture image 52 is represented as shown in FIG. The optical disk 36 stores other data related to the mapping of the texture image onto the ground object 42. This data will be described later.

次に、地面オブジェクト42へのテクスチャ画像のマッピングに関する処理について説明する。図6は、地面オブジェクト42へのテクスチャ画像のマッピングに関する処理を示すフロー図である。図6に示す処理は光ディスク36又はハードディスク26に記憶されたプログラムに従って実行される。   Next, processing related to mapping of a texture image onto the ground object 42 will be described. FIG. 6 is a flowchart showing processing relating to mapping of the texture image onto the ground object 42. The process shown in FIG. 6 is executed according to a program stored in the optical disk 36 or the hard disk 26.

図6に示すように、マイクロプロセッサ14及び画像処理部18(第1のテクスチャ画像取得手段)は、土の単位テクスチャ画像50を縦又は/及び横に繰り返し配置することによって、土テクスチャ画像(第1のテクスチャ画像)をVRAM上に生成する(S201)。図7は、このステップで生成される土テクスチャ画像60の一例を示す。なお図7において、点線は、土の単位テクスチャ画像50が繰り返し配置されることを明確化するために描かれたものであり、実際には表されない。土テクスチャ画像60の大きさ(広さ)は地面オブジェクト42の大きさに対応している。すなわち、土テクスチャ画像60は、地面オブジェクト42の全体を覆うことが可能な大きさ(広さ)を有する。すなわち、土テクスチャ画像60は少なくとも地面オブジェクト42と同じ大きさ(広さ)を有する。   As shown in FIG. 6, the microprocessor 14 and the image processing unit 18 (first texture image acquisition unit) repeatedly arrange the soil unit texture images 50 in the vertical and / or horizontal directions to thereby obtain a soil texture image (first texture image). 1 texture image) is generated on the VRAM (S201). FIG. 7 shows an example of the soil texture image 60 generated in this step. In FIG. 7, the dotted line is drawn to clarify that the soil unit texture image 50 is repeatedly arranged, and is not actually represented. The size (width) of the soil texture image 60 corresponds to the size of the ground object 42. That is, the soil texture image 60 has a size (width) that can cover the entire ground object 42. That is, the soil texture image 60 has at least the same size (width) as the ground object 42.

また、マイクロプロセッサ14及び画像処理部18(第2のテクスチャ画像取得手段)は、草の単位テクスチャ画像52を縦又は/及び横に繰り返し配置することによって、草テクスチャ画像(第2のテクスチャ画像)をVRAM上に生成する(S202)。図8は、このステップで生成される草テクスチャ画像62の一例を示す。なお図8においても、点線は、草の単位テクスチャ画像52が繰り返し配置されることを明確化するために描かれたものであり、実際には表されない。草テクスチャ画像62の大きさ(広さ)も地面オブジェクト42の大きさに対応している。すなわち、草テクスチャ画像62も、地面オブジェクト42の全体を覆うことが可能な大きさ(広さ)を有する。つまり、草テクスチャ画像62も少なくとも地面オブジェクト42と同じ大きさ(広さ)を有する。また、土テクスチャ画像60と草テクスチャ画像62とは同じ大きさ(広さ)を有する。   In addition, the microprocessor 14 and the image processing unit 18 (second texture image acquisition unit) repeatedly arrange the grass unit texture images 52 in the vertical and / or horizontal directions, whereby the grass texture image (second texture image). Is generated on the VRAM (S202). FIG. 8 shows an example of the grass texture image 62 generated in this step. In FIG. 8 as well, the dotted line is drawn to clarify that the grass unit texture image 52 is repeatedly arranged, and is not actually represented. The size (width) of the grass texture image 62 also corresponds to the size of the ground object 42. That is, the grass texture image 62 also has a size (width) that can cover the entire ground object 42. That is, the grass texture image 62 also has at least the same size (width) as the ground object 42. The soil texture image 60 and the grass texture image 62 have the same size (width).

その後、マイクロプロセッサ14及び画像処理部18(マッピング手段)は、土テクスチャ画像60と草テクスチャ画像62とを重ねて、地面オブジェクト42にマッピングする(S203)。すなわち、土テクスチャ画像60と草テクスチャ画像62とが半透明合成されてなるテクスチャ画像が地面オブジェクト42に対してマッピングされる。   Thereafter, the microprocessor 14 and the image processing unit 18 (mapping means) superimpose the soil texture image 60 and the grass texture image 62 and map them to the ground object 42 (S203). That is, a texture image formed by translucently combining the soil texture image 60 and the grass texture image 62 is mapped to the ground object 42.

このステップの処理に関連するデータとして、光ディスク36にはグレースケールのテクスチャ画像が記憶される。図9はこのテクスチャ画像の一例を示す。なお図9において、斜線部分はその部分の色が灰色であることを表している。また、灰色部分の濃さは一定ではなく、黒から白、又は白から黒へと滑らかに変化するように徐々に濃く又は薄くなるようになっている。このテクスチャ画像70の大きさ(広さ)は地面オブジェクト42(又は草テクスチャ画像62や土テクスチャ画像60)の大きさに対応している。本実施の形態の場合、このテクスチャ画像70の大きさ(広さ)は草テクスチャ画像62(又は土テクスチャ画像60)と同じ大きさである。このテクスチャ画像70は草テクスチャ画像62や土テクスチャ画像60とともに地面オブジェクト42に適用されることによって、草テクスチャ画像62(又は土テクスチャ画像60)の各画素の透明度(アルファ値:半透明合成の割合)を制御する役割を果たす。すなわち、このテクスチャ画像70は、草テクスチャ画像62(又は土テクスチャ画像60)の各画素の透明度を示す透明度データとしての役割を果たす。なお、ここでは、テクスチャ画像70は、草テクスチャ画像62の各画素の透明度を白黒の濃淡で示す256階調のグレースケール画像であることとして説明する。白色領域72は、草テクスチャ画像62の画素が完全不透明に設定されることを示す。黒色領域74は、草テクスチャ画像62の画素が完全透明に設定されることを示す。灰色領域76(斜線部分)は、草テクスチャ画像62の画素が半透明に設定されることを示す。なお、256階調のグレースケール画像は白黒の濃淡度を0〜255の値で保持するデータであり、値「0」は黒色に対応し、値「255」は白色に対応する。以下では、図9に示すテクスチャ画像のことを「透明度データ」と記載する。   As data related to the processing in this step, a grayscale texture image is stored on the optical disc 36. FIG. 9 shows an example of this texture image. In FIG. 9, the shaded portion indicates that the color of the portion is gray. Further, the density of the gray portion is not constant, and gradually becomes darker or lighter so as to smoothly change from black to white or from white to black. The size (width) of the texture image 70 corresponds to the size of the ground object 42 (or the grass texture image 62 or the soil texture image 60). In the case of the present embodiment, the size (width) of the texture image 70 is the same size as the grass texture image 62 (or the soil texture image 60). The texture image 70 is applied to the ground object 42 together with the grass texture image 62 and the soil texture image 60, whereby the transparency of each pixel of the grass texture image 62 (or the soil texture image 60) (alpha value: ratio of translucent composition). ) To control. That is, the texture image 70 serves as transparency data indicating the transparency of each pixel of the grass texture image 62 (or the soil texture image 60). Here, the texture image 70 will be described as a grayscale image of 256 gradations that shows the transparency of each pixel of the grass texture image 62 in black and white. The white area 72 indicates that the pixel of the grass texture image 62 is set to be completely opaque. The black area 74 indicates that the pixel of the grass texture image 62 is set to be completely transparent. A gray region 76 (shaded portion) indicates that the pixel of the grass texture image 62 is set to be translucent. Note that the grayscale image of 256 gradations is data that holds the gray level of black and white with a value of 0 to 255, with the value “0” corresponding to black and the value “255” corresponding to white. Hereinafter, the texture image shown in FIG. 9 is referred to as “transparency data”.

地面オブジェクト42(地面オブジェクト42にマッピングされるテクスチャ画像)の各画素のRGB値(R,G,B)は下記の式(1)〜(3)のようになる。なお、下記の式(1)〜(3)において、(Ra,Ga,Ba)は土テクスチャ画像60の対象画素のRGB値を示し、(Rb,Gb,Bb)は草テクスチャ画像62の対象画素のRGB値を示す。また、αは、透明度データの対象画素の色情報(256階調のグレースケール)から特定される透明度(アルファ値)を示す。   The RGB values (R, G, B) of each pixel of the ground object 42 (texture image mapped to the ground object 42) are expressed by the following equations (1) to (3). In the following formulas (1) to (3), (Ra, Ga, Ba) indicates the RGB value of the target pixel of the soil texture image 60, and (Rb, Gb, Bb) is the target pixel of the grass texture image 62. RGB values are shown. Α indicates transparency (alpha value) specified from the color information (256 gray scales) of the target pixel of the transparency data.

R=(Ra*((255−α)/255))+(Rb*(α/255)) ・・・(1)
G=(Ga*((255−α)/255))+(Gb*(α/255)) ・・・(2)
B=(Ba*((255−α)/255))+(Bb*(α/255)) ・・・(3)
R = (Ra * ((255−α) / 255)) + (Rb * (α / 255)) (1)
G = (Ga * ((255−α) / 255)) + (Gb * (α / 255)) (2)
B = (Ba * ((255−α) / 255)) + (Bb * (α / 255)) (3)

上記のように、地面オブジェクト42には、土テクスチャ画像60と草体テクスチャ画像62とを透明度データに従って半透明合成してなるテクスチャ画像がマッピングされる。図10は地面オブジェクト42にマッピングされるテクスチャ画像80の一例を示している。なお図10において、実線部分は、土テクスチャ画像60や草体テクスチャ画像62が完全不透明に設定されることを示しており、点線部分は、土テクスチャ画像60や草体テクスチャ画像62が半透明に設定されることを示している。   As described above, the ground object 42 is mapped with a texture image obtained by translucently combining the soil texture image 60 and the grass texture image 62 according to the transparency data. FIG. 10 shows an example of a texture image 80 mapped to the ground object 42. In FIG. 10, the solid line portion indicates that the soil texture image 60 and the grass texture image 62 are set to be completely opaque, and the dotted line portion indicates that the soil texture image 60 and the grass texture image 62 are set to be translucent. Which indicates that.

なお、S201及びS202で生成される土テクスチャ画像60や草テクスチャ画像62は、ゲームが実行される間、VRAMに保持され続けるようにしてもよい。この場合、S201及びS202の処理は例えばゲーム開始時に一度だけ実行すればよい。   Note that the soil texture image 60 and the grass texture image 62 generated in S201 and S202 may continue to be held in the VRAM while the game is executed. In this case, the processes of S201 and S202 need only be executed once at the start of the game, for example.

以上説明したゲーム装置10によれば、土の単位テクスチャ画像50や草の単位テクスチャ画像52がテクスチャ解像度を維持したまま地面オブジェクト42にマッピングされることになる。その結果、比較的広範囲の地面の所々に草が生えている様子を表す画像(ゲーム画面)には地面や草が比較的精細に表されるようになる。   According to the game apparatus 10 described above, the soil unit texture image 50 and the grass unit texture image 52 are mapped to the ground object 42 while maintaining the texture resolution. As a result, the ground and grass appear relatively finely in an image (game screen) showing a situation where grass grows in a relatively wide area of the ground.

ところで、比較的広範囲の地面の所々に草が生えている様子を比較的精細に表す画像(ゲーム画面)を表示するための手法としては、下記のような手法も考えられる。図11及び図12はこの手法を説明するための図である。この手法では、図11に示すように、地面オブジェクト42が、土の単位テクスチャ画像50がマッピングされる部分(土を表す部分)のポリゴン(以下、「土ポリゴン」と記載する。)90と、草の単位テクスチャ画像52がマッピングされる部分(草を表す部分)のポリゴン(以下、「草ポリゴン」と記載する。)92と、にあらかじめ分割される。そして、図12に示すように、土ポリゴン90には土の単位テクスチャ画像50がマッピングされる。このとき、土の単位テクスチャ画像50はその解像度(テクスチャ解像度)を維持したままマッピングされる。このため、土ポリゴン90の大きさ(広さ)が土の単位テクスチャ画像50よりも大きい場合には、土の単位テクスチャ画像50が土ポリゴン90に対して繰り返しマッピングされる。同様に、図12に示すように、草ポリゴン92には草の単位テクスチャ画像52がその解像度(テクスチャ解像度)を維持したままマッピングされる。すなわち、草の単位テクスチャ画像52が草ポリゴン92に対して繰り返しマッピングされる。このようにしても、比較的広い範囲の地面の所々に草が生える様子を比較的精細に表す画像を表示することができる。   By the way, as a technique for displaying an image (game screen) representing a relatively fine image of grass growing on a relatively wide area of the ground, the following technique is also conceivable. 11 and 12 are diagrams for explaining this technique. In this method, as shown in FIG. 11, the ground object 42 is a polygon (hereinafter referred to as “earth polygon”) 90 of a portion (a portion representing soil) to which the soil unit texture image 50 is mapped. A grass unit texture image 52 is divided in advance into polygons (portions representing grass) 92 (hereinafter referred to as “grass polygons”) to be mapped. Then, as shown in FIG. 12, the soil unit texture image 50 is mapped to the soil polygon 90. At this time, the soil unit texture image 50 is mapped while maintaining the resolution (texture resolution). Therefore, when the size (width) of the soil polygon 90 is larger than the soil unit texture image 50, the soil unit texture image 50 is repeatedly mapped to the soil polygon 90. Similarly, as shown in FIG. 12, a grass unit texture image 52 is mapped onto the grass polygon 92 while maintaining the resolution (texture resolution). That is, the grass unit texture image 52 is repeatedly mapped to the grass polygon 92. Even in this way, it is possible to display an image that represents a relatively fine image of grass growing in places on a relatively wide range of ground.

しかしながら、上記の手法では、例えば草が点々と生えている様子を表す画像を表示する場合のように、草が生えている場所を多く設ける場合、地面オブジェクト42を多くのポリゴンに分割しなければならなくなる。また、ゲーム開発の過程では、草が生える場所を変更する必要が生じる場合がある。この場合、上記の手法では、地面オブジェクト42のポリゴン分割からやり直さなければならなくなる。このため、上記の手法では、ゲーム制作者の手間がかかってしまう場合があった。   However, in the above method, for example, when a lot of places where grass grows are provided, for example, when an image showing how grass grows is displayed, the ground object 42 must be divided into many polygons. No longer. In the game development process, it may be necessary to change the place where the grass grows. In this case, in the above method, it is necessary to start again from the polygon division of the ground object 42. For this reason, in the above method, there is a case where it takes time for the game creator.

この点、ゲーム装置10で採用されている手法によれば、例えば草が生える場所を多く設ける場合であっても、透明度データ(図9参照)を調整すれば足り、地面オブジェクト42を多くのポリゴンに分割する必要がない。また、ゲーム装置10で採用されている手法によれば、例えば草が生える場所を変更する場合であっても、透明度データ(図9参照)を変更すれば足り、地面オブジェクト42のポリゴン分割からやり直す必要がない。したがって、ゲーム装置10で採用されている手法によれば、ゲーム制作者の手間の軽減を図ることが可能になる。   In this regard, according to the technique adopted in the game apparatus 10, for example, even when a lot of grassy places are provided, it is sufficient to adjust the transparency data (see FIG. 9), and the ground object 42 can be converted into many polygons. There is no need to split it. Further, according to the technique adopted in the game apparatus 10, even if, for example, the place where grass grows is changed, it is sufficient to change the transparency data (see FIG. 9), and redo the polygonal division of the ground object 42. There is no need. Therefore, according to the technique employed in the game apparatus 10, it is possible to reduce the effort of the game creator.

また、ゲーム装置10で採用されている手法によれば、草が生えている場所から草が生えていない場所へと滑らかに変化させることが可能になる。   Further, according to the technique employed in the game apparatus 10, it is possible to smoothly change from a place where grass grows to a place where grass does not grow.

図11及び図12を用いて説明した手法(地面オブジェクト42を土ポリゴン90と草ポリゴン92とに分割する方法)に関しては、草が生えている場所から草が生えていない場所へと滑らかに変化させるため手法として、下記のような手法が考えられる。図13はこの方法を説明するための図である。この手法では、図13に示すように、草ポリゴン92の一部が土ポリゴン90が重なるように草ポリゴン92が設けられる。図13に示す例では、土ポリゴン90内の太線で囲まれた部分90aと、草ポリゴン92内の太線で囲まれた部分92aと、が重なるようになっている。また、土ポリゴン90内の太線で囲まれた部分90bと、草ポリゴン92内の太線で囲まれた部分92bと、が重なるようになっている。そして、草ポリゴン92の土ポリゴン90との重なり部分(部分92a,92b)内の頂点94の透明度が、草が生えている場所から草が生えていない場所へと滑らかに変化するように調整される。   11 and 12 (the method of dividing the ground object 42 into the soil polygon 90 and the grass polygon 92), the method smoothly changes from a place where grass grows to a place where grass does not grow. In order to make this happen, the following method can be considered. FIG. 13 is a diagram for explaining this method. In this method, as shown in FIG. 13, the grass polygon 92 is provided so that the grass polygon 92 partially overlaps the soil polygon 90. In the example shown in FIG. 13, a portion 90 a surrounded by a thick line in the earth polygon 90 and a portion 92 a surrounded by a thick line in the grass polygon 92 overlap each other. In addition, a portion 90b surrounded by a thick line in the soil polygon 90 and a portion 92b surrounded by a thick line in the grass polygon 92 overlap each other. Then, the transparency of the vertex 94 in the overlapping portion (the portions 92a and 92b) of the grass polygon 92 with the soil polygon 90 is adjusted so as to smoothly change from the place where the grass grows to the place where the grass does not grow. The

しかしながら、上記の方法では、透明度の調整対象が頂点94に限られるため、透明度調整の自由度が低い。このため、草が生えている場所から草が生えていない場所への変化の滑らかさが、ゲーム制作者が所望する程度の滑らかさにならない場合がある。   However, in the above method, the transparency adjustment target is limited to the vertex 94, and thus the degree of freedom of transparency adjustment is low. For this reason, the smoothness of the change from a place where grass grows to a place where grass does not grow may not be as smooth as desired by the game creator.

この点、ゲーム装置10で採用されている手法によれば、土テクスチャ画像60や草テクスチャ画像62の透明度を画素単位で調整できるようになるため、透明度調整の自由度を向上することができる。その結果、草が生えている場所から草が生えていない場所への変化の滑らかさを、ゲーム制作者が所望する程度の滑らかさにすることが可能になる。   In this regard, according to the technique employed in the game apparatus 10, the transparency of the soil texture image 60 and the grass texture image 62 can be adjusted in units of pixels, so that the degree of freedom in adjusting the transparency can be improved. As a result, the smoothness of the change from the place where grass grows to the place where grass does not grow can be made as smooth as the game creator desires.

本発明は以上に説明した実施の形態に限定されるものではない。   The present invention is not limited to the embodiment described above.

例えば、透明度データは、草テクスチャ画像62(又は土テクスチャ画像60)の各画素の透明度(α値)の時間経過に伴う変化を示すデータであってもよい。例えば、透明度データは、各画素の白黒の濃淡度の所定時間(例えば1/60秒)ごとの変化を表すグレースケールのアニメーションデータとしてもよい。こうすれば、地面オブジェクト42にマッピングされる草テクスチャ画像62(又は土テクスチャ画像60)の透明度を時間経過に伴って変化させることが可能になる。その結果、例えば、草の生える場所が時間経過に伴って変化する様子を画面に表すことが可能になる。   For example, the transparency data may be data indicating a change with time of transparency (α value) of each pixel of the grass texture image 62 (or the soil texture image 60). For example, the transparency data may be grayscale animation data representing a change in black and white density of each pixel every predetermined time (for example, 1/60 seconds). In this way, it is possible to change the transparency of the grass texture image 62 (or the soil texture image 60) mapped to the ground object 42 with the passage of time. As a result, for example, it is possible to display on the screen how the grassy place changes over time.

また例えば、本発明は、比較的広範囲の地面の所々に草が生える様子を比較的精細に表す画像を表示する場合以外にも適用することができる。例えば、本発明は、比較的広範囲の地面の所々に草以外の物が生える様子を比較的精細に表す画像を表示する場合以外にも適用することができる。   In addition, for example, the present invention can be applied to a case other than displaying an image that expresses a state in which grass grows on a relatively wide area of the ground in a relatively fine manner. For example, the present invention can be applied to a case other than displaying an image representing a state in which things other than grass grow on places in a relatively wide range of ground.

また例えば、以上の説明では、プログラムを情報記憶媒体たる光ディスク36を介してゲーム装置10に供給するようにしたが、通信ネットワークを介してプログラムをゲーム装置10に配信するようにしてもよい。図14は、通信ネットワークを用いたプログラム配信システムの全体構成を示す図である。図14に基づいて本発明に係るプログラム配信方法を説明する。図14に示すように、このプログラム配信システム100はゲーム装置10、通信ネットワーク106、プログラム配信装置108を含む。プログラム配信装置108はデータベース102とサーバ104とを含む。通信ネットワーク106は、例えばインターネットやケーブルテレビネットワークを含む。このシステムでは、データベース(情報記憶媒体)102に、光ディスク36に記憶されるプログラムと同様のプログラムが記憶されている。そして、需要者がゲーム装置10を用いてゲーム配信要求をすることにより、それが通信ネットワーク106を介してサーバ104に伝えられる。そして、サーバ104はゲーム配信要求に応じてデータベース102からプログラムを読み出し、それをゲーム配信要求元のゲーム装置10に送信する。ここではゲーム配信要求に応じてゲーム配信するようにしたが、サーバ104から一方的に送信するようにしてもよい。また、必ずしも一度にゲームの実現に必要な全てのプログラムを配信(一括配信)する必要はなく、ゲームの局面に応じて必要な部分を配信(分割配信)するようにしてもよい。このように通信ネットワーク106を介してゲーム配信するようにすれば、プログラムを需要者は容易に入手することができるようになる。   Further, for example, in the above description, the program is supplied to the game apparatus 10 via the optical disk 36 as an information storage medium. However, the program may be distributed to the game apparatus 10 via a communication network. FIG. 14 is a diagram showing an overall configuration of a program distribution system using a communication network. A program distribution method according to the present invention will be described with reference to FIG. As shown in FIG. 14, the program distribution system 100 includes a game device 10, a communication network 106, and a program distribution device 108. The program distribution device 108 includes a database 102 and a server 104. The communication network 106 includes, for example, the Internet and a cable television network. In this system, a database (information storage medium) 102 stores a program similar to the program stored on the optical disc 36. Then, when a consumer makes a game distribution request using the game apparatus 10, it is transmitted to the server 104 via the communication network 106. Then, the server 104 reads the program from the database 102 in response to the game distribution request, and transmits it to the game apparatus 10 that is the game distribution request source. Here, the game is distributed in response to the game distribution request, but the server 104 may transmit the game unilaterally. Further, it is not always necessary to distribute (collectively distribute) all programs necessary for realizing the game at a time, and a necessary portion may be distributed (divided distribution) according to the situation of the game. If the game is distributed via the communication network 106 in this way, the consumer can easily obtain the program.

本実施の形態に係るゲーム装置(画像処理装置)のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the game device (image processing device) which concerns on this Embodiment. 仮想3次元空間の一例を示す図である。It is a figure which shows an example of virtual three-dimensional space. ゲーム装置が実行する処理を示すフロー図である。It is a flowchart which shows the process which a game device performs. 土の単位テクスチャ画像を示す図である。It is a figure which shows the unit texture image of soil. 草の単位テクスチャ画像を示す図である。It is a figure which shows the unit texture image of grass. ゲーム装置が実行する処理を示すフロー図である。It is a flowchart which shows the process which a game device performs. 土テクスチャ画像を示す図である。It is a figure which shows a soil texture image. 草テクスチャ画像を示す図である。It is a figure which shows a grass texture image. 透明度データを示す図である。It is a figure which shows transparency data. 地面オブジェクトにマッピングされるテクスチャ画像を示す図である。It is a figure which shows the texture image mapped by a ground object. 他の手法について説明するための図である。It is a figure for demonstrating another method. 他の手法について説明するための図である。It is a figure for demonstrating another method. 他の手法について説明するための図である。It is a figure for demonstrating another method. 本発明の他の実施形態に係るプログラム配信システムの全体構成を示す図である。It is a figure which shows the whole structure of the program delivery system which concerns on other embodiment of this invention.

符号の説明Explanation of symbols

10 ゲーム装置、11 家庭用ゲーム機、12 バス、14 マイクロプロセッサ、16 主記憶、18 画像処理部、20 入出力処理部、22 音声処理部、24 光ディスク読み取り部、26 ハードディスク、28 通信インタフェース、30 コントローラ、32 モニタ、34 スピーカ、36 光ディスク、40 仮想3次元空間、42 地面オブジェクト、44 プレイヤキャラクタオブジェクト、46 敵キャラクタオブジェクト、48 仮想カメラ、50 土の単位テクスチャ画像、52 草の単位テクスチャ画像、60 土テクスチャ画像、62 草テクスチャ画像、70 テクスチャ画像、72 白色領域、74 黒色領域、76 灰色領域、80 テクスチャ画像、90 土ポリゴン、92 草ポリゴン、94 頂点、100 プログラム配信システム、102 データベース、104 サーバ、106 通信ネットワーク、108 プログラム配信装置。   DESCRIPTION OF SYMBOLS 10 Game device, 11 Home-use game machine, 12 bus | bath, 14 Microprocessor, 16 Main memory, 18 Image processing part, 20 Input / output processing part, 22 Sound processing part, 24 Optical disk reading part, 26 Hard disk, 28 Communication interface, 30 Controller, 32 Monitor, 34 Speaker, 36 Optical disk, 40 Virtual three-dimensional space, 42 Ground object, 44 Player character object, 46 Enemy character object, 48 Virtual camera, 50 Soil unit texture image, 52 Grass unit texture image, 60 Soil texture image, 62 grass texture image, 70 texture image, 72 white area, 74 black area, 76 gray area, 80 texture image, 90 earth polygon, 92 grass polygon, 94 vertex, 100 program Beam delivery system, 102 database, 104 server, 106 communications network, 108 a program distribution device.

Claims (3)

仮想3次元空間を仮想カメラから見た様子を表す画像を表示する画像処理装置において、
土の単位テクスチャ画像を記憶する土の単位テクスチャ画像記憶手段と、
草の単位テクスチャ画像を記憶する草の単位テクスチャ画像記憶手段と、
前記土の単位テクスチャ画像を複数配列してなる土テクスチャ画像を取得する土テクスチャ画像取得手段と、
前記草の単位テクスチャ画像を複数配列してなる草テクスチャ画像を取得する草テクスチャ画像取得手段と、
前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度を示す透明度データを記憶する透明度データ記憶手段と、
前記土テクスチャ画像と前記草テクスチャ画像とを前記透明度データに基づいて半透明合成してなるテクスチャ画像を、前記仮想3次元空間に配置されるオブジェクトにマッピングするマッピング手段と、
を含み、
前記透明度データは、前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度の時間経過に伴う変化を示すデータであり、
前記マッピング手段は、前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度を前記透明度データに基づいて変化させ、前記オブジェクトにマッピングされる前記テクスチャ画像を時間経過に伴って変化させる、
ことを特徴とする画像処理装置。
In an image processing apparatus that displays an image representing a virtual three-dimensional space viewed from a virtual camera
Soil unit texture image storage means for storing soil unit texture images;
A unit texture image storage unit for storing a unit texture image of grass;
Soil texture image acquisition means for acquiring a soil texture image formed by arranging a plurality of unit texture images of the soil;
Grass texture image acquisition means for acquiring a grass texture image formed by arranging a plurality of unit texture images of the grass;
Transparency data storage means for storing transparency data indicating transparency of each pixel of the soil texture image or / and the grass texture image;
Mapping means for mapping a texture image formed by translucent synthesis of the soil texture image and the grass texture image based on the transparency data to an object arranged in the virtual three-dimensional space;
Including
The transparency data is data indicating a change with time of transparency of each pixel of the soil texture image or / and the grass texture image,
The mapping means changes the transparency of each pixel of the soil texture image or / and the grass texture image based on the transparency data, and changes the texture image mapped to the object with time.
An image processing apparatus.
仮想3次元空間を仮想カメラから見た様子を表す画像を表示する画像処理装置の制御方法において、
前記画像処理装置に含まれるマイクロプロセッサが、土の単位テクスチャ画像を記憶してなる土の単位テクスチャ画像記憶手段から前記土の単位テクスチャ画像を読み出すステップと、
前記マイクロプロセッサが、草の単位テクスチャ画像を記憶してなる草の単位テクスチャ画像記憶手段から前記草の単位テクスチャ画像を読み出すステップと、
前記マイクロプロセッサが、前記土の単位テクスチャ画像を複数配列してなる土テクスチャ画像を取得する土テクスチャ画像取得ステップと、
前記マイクロプロセッサが、前記草の単位テクスチャ画像を複数配列してなる草テクスチャ画像を取得する草テクスチャ画像取得ステップと、
前記マイクロプロセッサが、前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度を示す透明度データを記憶してなる透明度データ記憶手段から前記透明度データを読み出すステップと、
前記マイクロプロセッサが、前記土テクスチャ画像と前記草テクスチャ画像とを前記透明度データに基づいて半透明合成してなるテクスチャ画像を、前記仮想3次元空間に配置されるオブジェクトにマッピングするマッピングステップと、
を含み、
前記透明度データは、前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度の時間経過に伴う変化を示すデータであり、
前記マッピングステップにおいて、前記マイクロプロセッサは、前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度を前記透明度データに基づいて変化させ、前記オブジェクトにマッピングされる前記テクスチャ画像を時間経過に伴って変化させる、
ことを特徴とする画像処理装置の制御方法。
In a control method for an image processing apparatus that displays an image representing a virtual three-dimensional space viewed from a virtual camera,
A microprocessor included in the image processing device reads the soil unit texture image from a soil unit texture image storage unit configured to store a soil unit texture image;
The microprocessor reading the grass unit texture image from a grass unit texture image storage means storing grass unit texture images;
A soil texture image acquisition step in which the microprocessor acquires a soil texture image formed by arranging a plurality of unit texture images of the soil;
A grass texture image acquisition step in which the microprocessor acquires a grass texture image obtained by arranging a plurality of unit texture images of the grass;
The microprocessor reading the transparency data from transparency data storage means for storing transparency data indicating transparency of each pixel of the soil texture image or / and the grass texture image;
The microprocessor and the mapping step of mapping said grass texture image and the soil texture image semitransparent synthesized texture image comprising, based on the transparency data, the object placed in the virtual three-dimensional space,
Including
The transparency data is data indicating a change with time of transparency of each pixel of the soil texture image or / and the grass texture image,
In the mapping step, the microprocessor changes the transparency of each pixel of the soil texture image and / or the grass texture image based on the transparency data, and the texture image mapped to the object is changed over time. Change
And a control method for the image processing apparatus.
仮想3次元空間を仮想カメラから見た様子を表す画像を表示する画像処理装置としてコンピュータを機能させるためのプログラムであって、
土の単位テクスチャ画像を記憶する土の単位テクスチャ画像記憶手段、
草の単位テクスチャ画像を記憶する草の単位テクスチャ画像記憶手段、
前記土の単位テクスチャ画像を複数配列してなる土テクスチャ画像を取得する土テクスチャ画像取得手段、
前記草の単位テクスチャ画像を複数配列してなる草テクスチャ画像を取得する草テクスチャ画像取得手段、
前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度を示す透明度データを記憶する透明度データ記憶手段、及び、
前記土テクスチャ画像と前記草テクスチャ画像とを前記透明度データに基づいて半透明合成してなるテクスチャ画像を、前記仮想3次元空間に配置されるオブジェクトにマッピングするマッピング手段、
として前記コンピュータを機能させ、
前記透明度データは、前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度の時間経過に伴う変化を示すデータであり、
前記マッピング手段は、前記土テクスチャ画像又は/及び前記草テクスチャ画像の各画素の透明度を前記透明度データに基づいて変化させ、前記オブジェクトにマッピングされる前記テクスチャ画像を時間経過に伴って変化させる、
ことを特徴とするプログラム。
A program for causing a computer to function as an image processing apparatus that displays an image representing a virtual three-dimensional space viewed from a virtual camera,
Soil unit texture image storage means for storing soil unit texture images;
Grass unit texture image storage means for storing grass unit texture images;
Soil texture image acquisition means for acquiring a soil texture image formed by arranging a plurality of unit texture images of the soil;
A grass texture image obtaining means for obtaining a grass texture image formed by arranging a plurality of unit texture images of the grass;
Transparency data storage means for storing transparency data indicating transparency of each pixel of the soil texture image or / and the grass texture image; and
Mapping means for mapping a texture image formed by translucent synthesis of the soil texture image and the grass texture image based on the transparency data to an object arranged in the virtual three-dimensional space;
Function the computer as
The transparency data is data indicating a change with time of transparency of each pixel of the soil texture image or / and the grass texture image,
The mapping means changes the transparency of each pixel of the soil texture image or / and the grass texture image based on the transparency data, and changes the texture image mapped to the object with time.
A program characterized by that.
JP2007319440A 2007-12-11 2007-12-11 Image processing apparatus, image processing apparatus control method, and program Active JP4838230B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007319440A JP4838230B2 (en) 2007-12-11 2007-12-11 Image processing apparatus, image processing apparatus control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007319440A JP4838230B2 (en) 2007-12-11 2007-12-11 Image processing apparatus, image processing apparatus control method, and program

Publications (2)

Publication Number Publication Date
JP2009145941A JP2009145941A (en) 2009-07-02
JP4838230B2 true JP4838230B2 (en) 2011-12-14

Family

ID=40916518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007319440A Active JP4838230B2 (en) 2007-12-11 2007-12-11 Image processing apparatus, image processing apparatus control method, and program

Country Status (1)

Country Link
JP (1) JP4838230B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007054656A (en) * 1997-02-18 2007-03-08 Sega Corp Image processor and image processing method
JP3910259B2 (en) * 1997-05-16 2007-04-25 株式会社ソニー・コンピュータエンタテインメント Image processing apparatus and method, and rendering apparatus and method
JP2004334661A (en) * 2003-05-09 2004-11-25 Namco Ltd Image generating system, program, and information storage medium
JP4706966B2 (en) * 2005-12-06 2011-06-22 株式会社セガ Image generation program and image processing apparatus

Also Published As

Publication number Publication date
JP2009145941A (en) 2009-07-02

Similar Documents

Publication Publication Date Title
JP4833674B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
KR101623288B1 (en) Rendering system, rendering server, control method thereof, program, and recording medium
US20080246760A1 (en) Method and apparatus for mapping texture onto 3-dimensional object model
US7199801B2 (en) Image processing apparatus and image processing method
JP4079378B2 (en) Image processing apparatus, image processing apparatus control method, and program
KR100987624B1 (en) Game machine, game machine control method, and information storage medium
JP4031509B1 (en) Image processing apparatus, image processing apparatus control method, and program
JP5256153B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP4838230B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP4838221B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP4847572B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2001283244A (en) Three-dimensional image compositing device, its method, information storage medium, program distributing device and its method
EP2164047A1 (en) Image processor, image processing method, program, and information storage medium
JP3712175B2 (en) Image composition apparatus and method, and information storage medium
JP2005050070A (en) Image processing device, method, and program
JP2002251626A (en) Method for generating image and program used for the same
JP2011095937A (en) Program, information storage medium and image generation system
JP2007082677A (en) Game device, control method of game device, and program
JP2013084155A (en) Image processing method, image processing program, image processing device, and image processing system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110913

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110929

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141007

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4838230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250