JP5860329B2 - Game program and game system - Google Patents

Game program and game system Download PDF

Info

Publication number
JP5860329B2
JP5860329B2 JP2012081204A JP2012081204A JP5860329B2 JP 5860329 B2 JP5860329 B2 JP 5860329B2 JP 2012081204 A JP2012081204 A JP 2012081204A JP 2012081204 A JP2012081204 A JP 2012081204A JP 5860329 B2 JP5860329 B2 JP 5860329B2
Authority
JP
Japan
Prior art keywords
texture
effect expression
expression
texture image
effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012081204A
Other languages
Japanese (ja)
Other versions
JP2013210881A (en
Inventor
福井 誠
誠 福井
上田 幹夫
幹夫 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2012081204A priority Critical patent/JP5860329B2/en
Publication of JP2013210881A publication Critical patent/JP2013210881A/en
Application granted granted Critical
Publication of JP5860329B2 publication Critical patent/JP5860329B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、仮想のゲーム空間でのキャラクタの動作を制御するゲームプログラムおよびゲームシステムに関する。   The present invention relates to a game program and a game system for controlling character movement in a virtual game space.

従来、アクションゲームやロールプレイングゲームなど、プレイヤの操作に応じてプレイヤキャラクタを仮想のゲーム空間内で動作させるゲームがある。この種のゲームでは、プレイヤキャラクタの他に、例えばプレイヤキャラクタに攻撃を加える敵キャラクタなどのノンプレイヤキャラクタも登場する。ノンプレイヤキャラクタは、プレイヤが直接的にその動作を操作することのできないキャラクタであり、所定のルールに従ってゲーム空間内で行動するように設定されている。   Conventionally, there are games such as an action game and a role-playing game that cause a player character to move in a virtual game space in accordance with a player's operation. In this type of game, in addition to the player character, for example, a non-player character such as an enemy character that attacks the player character also appears. The non-player character is a character that cannot be directly operated by the player, and is set to act in the game space according to a predetermined rule.

このようなキャラクタ(プレイヤキャラクタおよびノンプレイヤキャラクタ)においては、環境や条件(例えばゲーム空間内におけるノンプレイヤキャラクタの出現位置、プレイヤキャラクタによる装備の変更指示、イベントの前後など)に応じて同じキャラクタでも異なる衣服を着たように表現する場合がある。このような場合、キャラクタ自体を表すテクスチャとは別に衣服を表すテクスチャ(衣服テクスチャ)を用意し、キャラクタ自体のテクスチャの上に衣服テクスチャを重ねるようにして両テクスチャをマッピングすることが知られている。これによれば、複数の衣服テクスチャのうち環境や条件に応じた衣服テクスチャを選択し、対応するキャラクタ上にマッピングすることにより同じキャラクタでも複数の衣服を着せることが可能となる(例えば、特許文献1参照)。   In such characters (player character and non-player character), the same character may be used depending on the environment and conditions (for example, the appearance position of the non-player character in the game space, an instruction to change the equipment by the player character, and before and after the event). Sometimes expressed as if wearing different clothes. In such a case, it is known that a texture (clothing texture) representing clothing is prepared separately from the texture representing the character itself, and both textures are mapped such that the clothing texture is superimposed on the texture of the character itself. . According to this, by selecting a clothing texture according to the environment and conditions from among a plurality of clothing textures and mapping it on the corresponding character, it is possible to wear a plurality of clothing even on the same character (for example, Patent Literature) 1).

特開2003−103047号公報Japanese Patent Application Laid-Open No. 2003-103047

ところで、上記のようなアクションゲームやロールプレイングゲームにおいては、キャラクタのダメージ表現(衣服の破れや焼け、血しぶきの付着など)やキャラクタの環境変化に応じた表現(衣服の水濡れ、泥汚れなど)などのエフェクト表現をキャラクタに付与する場合がある。   By the way, in action games and role-playing games such as those described above, character damage expressions (such as clothing tears and burns, blood splashing, etc.) and expressions in response to character environmental changes (such as clothes getting wet, mud stains) ) Or the like may be added to the character.

しかし、複数の衣服テクスチャに同様のエフェクト表現を適用するためには、衣服テクスチャごとにエフェクト表現付与後の衣服テクスチャを用意する必要があった。このため、衣服テクスチャの種類が増えると、その分エフェクト表現付与後の衣服テクスチャの数も増えてデータ量が増大してしまう問題があった。さらに、複数のエフェクト表現を行おうとすると飛躍的に衣服テクスチャの数が増えてしまい、現実的ではなかった。   However, in order to apply the same effect expression to a plurality of clothes textures, it is necessary to prepare a clothes texture after the effect expression is added for each clothes texture. For this reason, if the number of types of clothing textures increases, the number of clothing textures after the effect expression is added also increases, increasing the amount of data. Furthermore, when trying to express multiple effects, the number of clothing textures has increased dramatically, which is not realistic.

また、このようなエフェクト表現をよりリアリティのあるものにするために、キャラクタを構成する複数の部位に応じたエフェクト表現も想定される。例えば、キャラクタが身体の右側にダメージを受けた場合、身体の右側だけにダメージ表現として衣服の破れや血しぶきを付与することが考えられる。このような場合、1つの衣服表現に対し、当該衣服表現を実現するための衣服テクスチャのほかに、エフェクト表現ごとおよび部位ごとにエフェクト表現が付与された衣服テクスチャを用意することとなり、データ量があまりにも増えすぎてしまい、現実的ではなかった。   Also, in order to make such effect expression more realistic, effect expression corresponding to a plurality of parts constituting the character is also assumed. For example, when the character receives damage on the right side of the body, it is conceivable that only the right side of the body is given a torn clothing or blood splash as a damage expression. In such a case, for one clothing expression, in addition to the clothing texture for realizing the clothing expression, a clothing texture provided with the effect expression for each effect expression and for each part is prepared, and the amount of data is It was too much and it was not realistic.

このような問題は、上述した人型のキャラクタばかりでなく、怪獣型、ロボット型、車や飛行機などのキャラクタや、建物、路面、木、山、武器、盾など仮想のゲーム空間に三次元的に描画されるすべてのオブジェクトにおいても同様に問題となる。   These problems are not limited to the above-mentioned human-type characters, but are also three-dimensional in monster-type, robot-type, car and airplane characters, and virtual game spaces such as buildings, road surfaces, trees, mountains, weapons, and shields. The same problem arises for all objects drawn on the screen.

そこで本発明は、データ量の増大を抑制しつつオブジェクトに多様なエフェクト表現を付与することができるゲームプログラムおよびゲームシステムを提供することを目的とする。   Therefore, an object of the present invention is to provide a game program and a game system that can give various effect expressions to an object while suppressing an increase in the amount of data.

本発明に係るゲームプログラムは、コンピュータを、三次元で表現されるオブジェクトのための当該オブジェクトの少なくとも一部の特性が互いに異なる複数の基準テクスチャ画像と、前記オブジェクト表面の三次元座標との相関関係を示す二次元の基準テクスチャマップとを含む基準テクスチャデータを取得する基準テクスチャデータ取得手段、前記基準テクスチャ画像上に表現されるエフェクト表現テクスチャ画像と、前記基準テクスチャの三次元座標との相関関係を示す二次元のエフェクト表現テクスチャマップとを含むエフェクト表現テクスチャデータを取得するエフェクト表現テクスチャデータ取得手段、前記基準テクスチャ画像を前記基準テクスチャマップを用いてマッピングするオブジェクトマッピング手段、所定の場合に、前記エフェクト表現テクスチャマップを用いて、前記オブジェクトマッピング手段によりマッピングされた前記基準テクスチャ画像に前記エフェクト表現テクスチャ画像を合成するようにマッピングすることにより、エフェクト表現を行うエフェクト表現反映手段、として機能させ、前記エフェクト表現テクスチャ画像は、前記複数の基準テクスチャ画像の少なくとも一部に共通して適用可能に構成される。   The game program according to the present invention allows a computer to correlate a plurality of reference texture images having different characteristics of at least a part of the object for the object expressed in three dimensions and the three-dimensional coordinates of the object surface. A reference texture data acquisition means for acquiring reference texture data including a two-dimensional reference texture map indicating a correlation between an effect expression texture image expressed on the reference texture image and a three-dimensional coordinate of the reference texture An effect expression texture data acquisition means for acquiring effect expression texture data including a two-dimensional effect expression texture map shown, an object mapping means for mapping the reference texture image using the reference texture map, in a predetermined case, The effect expression texture map is used to perform the effect expression reflection means for effect expression by mapping the effect expression texture image to the reference texture image mapped by the object mapping means, The effect expression texture image is configured to be commonly applicable to at least a part of the plurality of reference texture images.

前記エフェクト表現テクスチャマップは、各基準テクスチャデータごとに設けられ、前記基準テクスチャ画像の三次元座標との相関関係が共通するように構成されていてもよい。   The effect expression texture map may be provided for each reference texture data, and may be configured to have a common correlation with the three-dimensional coordinates of the reference texture image.

前記複数の基準テクスチャ画像は、三次元で表現されるキャラクタのための複数の衣服テクスチャ画像であり、前記エフェクト表現テクスチャ画像は、キャラクタを構成する複数の部位のうち少なくとも2つの部位に応じた少なくとも2つのベーステクスチャ画像を備え、前記エフェクト表現テクスチャマップは、当該少なくとも2つのベーステクスチャ画像が互いに重ね合わせられるように、構成され、前記コンピュータを、前記キャラクタが前記所定の条件を満たすかどうかを判定する条件判定手段、および前記条件判定手段が前記所定の条件を満たすと判断した場合に、前記条件に応じて、前記複数のベーステクスチャ画像のうちの少なくとも1つを選択する選択手段として機能させ、前記エフェクト表現反映手段は、前記条件判定手段が前記所定の条件を満たすと判断した場合に、当該エフェクト表現テクスチャデータを構成する少なくとも2つのベーステクスチャ画像のうちエフェクト表現を行う部位に対応する前記ベーステクスチャ画像を前記エフェクト表現テクスチャマップを用いて前記衣服テクスチャ画像に重ね合わせるようにマッピングすることとしてもよい。   The plurality of reference texture images are a plurality of clothing texture images for a character expressed in three dimensions, and the effect expression texture image is at least corresponding to at least two parts of a plurality of parts constituting the character. Two base texture images are provided, and the effect expression texture map is configured such that the at least two base texture images are superimposed on each other, and the computer determines whether the character satisfies the predetermined condition. And when the condition determination means determines that the predetermined condition is satisfied, the condition determination means functions as a selection means for selecting at least one of the plurality of base texture images according to the condition, The effect expression reflecting means is the condition determination means. Is determined to satisfy the predetermined condition, the base texture image corresponding to the portion where the effect expression is performed among the at least two base texture images constituting the effect expression texture data is determined using the effect expression texture map. It is good also as mapping so that it may overlap with the said clothes texture image.

前記エフェクト表現テクスチャ画像は、コンピュータで色を表現する際のRGBの3つのチャンネルのうちの少なくとも2つを前記少なくとも2つのベーステクスチャ画像を格納することにより構成されてもよい。   The effect expression texture image may be configured by storing the at least two base texture images in at least two of the three RGB channels when a color is expressed by a computer.

前記エフェクト表現テクスチャ画像は、衣服の破れを表現するテクスチャ画像および衣服に付着した血しぶきを表現するテクスチャ画像の少なくとも1つを含むこととしてもよい。   The effect expression texture image may include at least one of a texture image that represents torn clothing and a texture image that represents blood splash attached to the clothing.

また、本発明に係るゲームシステムは、上記のゲームプログラムを記憶したプログラム記憶部と、前記プログラム記憶部に記憶されたプログラムを実行するコンピュータとを備えている。   A game system according to the present invention includes a program storage unit that stores the game program and a computer that executes the program stored in the program storage unit.

本発明によれば、データ量の増大を抑制しつつオブジェクトに多様なエフェクト表現を付与することができるゲームプログラムおよびゲームシステムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the game program and game system which can provide various effect expression to an object can be provided, suppressing the increase in data amount.

図1は、本実施形態におけるゲーム装置のハードウェア構成を示すブロック図である。FIG. 1 is a block diagram illustrating a hardware configuration of the game device according to the present embodiment. 図2は、図1に示すゲーム装置の機能的な構成を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration of the game apparatus shown in FIG. 図3は、本実施形態における衣服テクスチャデータの例(アーミーベスト)を示す図であるFIG. 3 is a diagram illustrating an example (army best) of clothing texture data in the present embodiment. 図4は、本実施形態における衣服テクスチャデータの例(タンクトップ)を示す図である。FIG. 4 is a diagram illustrating an example (tank top) of clothing texture data in the present embodiment. 図5は、本実施形態におけるエフェクト表現テクスチャデータを構成する二次元のエフェクト表現テクスチャマップおよびエフェクト表現テクスチャ画像の例を示す図である。FIG. 5 is a diagram showing an example of a two-dimensional effect expression texture map and an effect expression texture image constituting the effect expression texture data in the present embodiment. 図6は、本実施形態のエフェクト表現テクスチャ画像をエフェクト表現テクスチャマップ上に表した図(a)およびそれを衣服テクスチャ画像に重ね合わせるようにマッピングした際の三次元画像(b)の例を示す図である。FIG. 6A shows an example of an effect expression texture image of the present embodiment shown on an effect expression texture map, and an example of a three-dimensional image (b) when it is mapped so as to be superimposed on a clothing texture image. FIG. 図7は、本実施形態のエフェクト表現テクスチャ画像をエフェクト表現テクスチャマップ上に表した図(a)およびそれを衣服テクスチャ画像に重ね合わせるようにマッピングした際の三次元画像(b)の例を示す図である。FIG. 7A shows an example of an effect expression texture image of the present embodiment on an effect expression texture map and FIG. 7B shows an example of a three-dimensional image (b) when it is mapped so as to be superimposed on a clothing texture image. FIG. 図8は、本実施形態のエフェクト表現テクスチャ画像をエフェクト表現テクスチャマップ上に表した図(a)およびそれを衣服テクスチャ画像に重ね合わせるようにマッピングした際の三次元画像(b)の例を示す図である。FIG. 8A shows an example of an effect expression texture image of the present embodiment shown on an effect expression texture map, and an example of a three-dimensional image (b) when it is mapped so as to be superimposed on a clothing texture image. FIG. 図9は、本実施形態のエフェクト表現テクスチャ画像をエフェクト表現テクスチャマップ上に表した図(a)およびそれを衣服テクスチャ画像に重ね合わせるようにマッピングした際の三次元画像(b)の例を示す図である。FIG. 9A shows an example of an effect expression texture image according to the present embodiment shown on an effect expression texture map, and an example of a three-dimensional image (b) when mapping the image so as to be superimposed on a clothing texture image. FIG. 図10は、本実施形態におけるエフェクト表現テクスチャ画像を構成するベーステクスチャ画像の構成例を示す図である。FIG. 10 is a diagram illustrating a configuration example of a base texture image that configures an effect expression texture image according to the present embodiment. 図11は、本実施形態におけるエフェクト表現が行われた衣服テクスチャ画像(アーミーベスト)をキャラクタにマッピングした状態の例を示す図である。FIG. 11 is a diagram illustrating an example of a state in which a clothing texture image (army vest) on which an effect expression is performed in the present embodiment is mapped to a character. 図12は、本実施形態におけるエフェクト表現が行われた衣服テクスチャ画像(タンクトップ)をキャラクタにマッピングした状態の例を示す図である。FIG. 12 is a diagram illustrating an example of a state in which a clothing texture image (tank top) on which an effect expression is performed in the present embodiment is mapped to a character. 図13は、本実施形態におけるエフェクト表現処理の流れを示すフローチャートである。FIG. 13 is a flowchart showing the flow of effect expression processing in the present embodiment. 図14は、本実施形態におけるエフェクト表現テクスチャデータのデータ構造の例を示す図である。FIG. 14 is a diagram showing an example of the data structure of effect expression texture data in the present embodiment. 図15は、単純にエフェクト表現が行われる部位ごとおよび対象となる衣服テクスチャ画像ごとにエフェクト表現テクスチャデータを設けた場合のデータ構造(比較例)を示す図である。FIG. 15 is a diagram illustrating a data structure (comparative example) when effect expression texture data is provided for each part where effect expression is simply performed and for each target clothing texture image.

以下、本発明の実施の形態に係るゲームプログラムおよびゲームシステムについて、図面を参照しつつ説明する。   Hereinafter, a game program and a game system according to embodiments of the present invention will be described with reference to the drawings.

[ゲーム概要]
以下の説明では、家庭用ゲーム装置において実行されるアクションゲームを例として説明する。本実施形態に係るアクションゲームは、仮想のゲーム空間内でプレイヤキャラクタを操作して、敵キャラクタと戦いながら、アイテムを探索したり、所定のイベントを攻略したりすることにより進行する。なお、以下では、このような人型のキャラクタの衣服についてエフェクト表現を行う構成に基づいて説明する。
[Game Overview]
In the following description, an action game executed in a home game device will be described as an example. The action game according to the present embodiment proceeds by operating a player character in a virtual game space and searching for an item or capturing a predetermined event while fighting an enemy character. In the following, description will be given based on a configuration in which effect expression is performed on the clothes of such a humanoid character.

[ハードウェア構成]
上述したゲームを実現するゲーム装置の構成について説明する。本実施形態におけるゲームシステムは、下記ゲーム装置2と、当該ゲーム装置2に接続されるモニタ19、スピーカ22およびコントローラ24などの外部装置とで構成され、下記ディスク型記憶媒体30から読み込んだゲームプログラム30aおよびゲームデータ30bに基づいてゲームを行い得るものである。ただし、以下では、説明を簡単にするため、単にゲーム装置2と称する場合がある。図1は、本実施形態におけるゲーム装置2のハードウェア構成を示すブロック図である。図1に示すように、ゲーム装置2は、他のゲーム装置2およびサーバ装置3との間で、インターネットまたはLANなどの通信ネットワークNWを介して互いに通信可能である。このゲーム装置2は、その動作を制御するコンピュータであるCPU10を備え、このCPU10にはバス11を介してディスクドライブ12、メモリカードスロット13、プログラム記憶部を成すHDD14、ROM15およびRAM16が接続されている。
[Hardware configuration]
A configuration of a game device that realizes the above-described game will be described. The game system in the present embodiment includes the following game device 2 and external devices such as a monitor 19, a speaker 22, and a controller 24 connected to the game device 2, and a game program read from the following disk-type storage medium 30. A game can be played based on 30a and game data 30b. However, in the following, in order to simplify the description, the game device 2 may be simply referred to. FIG. 1 is a block diagram showing a hardware configuration of the game apparatus 2 in the present embodiment. As shown in FIG. 1, the game apparatus 2 can communicate with another game apparatus 2 and the server apparatus 3 via a communication network NW such as the Internet or a LAN. The game apparatus 2 includes a CPU 10 that is a computer for controlling the operation thereof, and a disk drive 12, a memory card slot 13, an HDD 14 that constitutes a program storage unit, a ROM 15, and a RAM 16 are connected to the CPU 10 via a bus 11. Yes.

ディスクドライブ12には、DVD−ROM等のディスク型記録媒体30が装填可能であり、該ディスク型記録媒体30には、本発明の実施の形態に係るゲームプログラム30aおよび本実施の形態で説明するゲームに登場するキャラクタならびにゲーム空間を形成するのに必要なオブジェクトおよびテクスチャ等のゲームデータ30bが記録されている。また、メモリカードスロット13にはカード型記録媒体31が装填でき、ゲームの途中経過等のプレイ状況を示すセーブデータを、CPU10からの指示に応じて記録可能である。   The disc drive 12 can be loaded with a disc type recording medium 30 such as a DVD-ROM, and the disc type recording medium 30 will be described in the game program 30a according to the embodiment of the present invention and the present embodiment. The game data 30b such as characters appearing in the game and objects and textures necessary for forming the game space are recorded. In addition, a card-type recording medium 31 can be loaded in the memory card slot 13, and save data indicating a play status such as a game progress can be recorded in accordance with an instruction from the CPU 10.

HDD14はゲーム装置2に内蔵される大容量記録媒体であって、ディスク型記録媒体30から読み込んだゲームプログラム30aおよびゲームデータ30bならびにセーブデータなどを記録する。ROM15は、マスクROMまたはPROMなどの半導体メモリであり、ゲーム装置2を起動する起動プログラムや、ディスク型記録媒体30が装填されたときの動作を制御するプログラムなどを記録している。RAM16は、DRAMまたはSRAMなどからなり、CPU10が実行すべきゲームプログラム30aや、その実行の際に必要になるゲームデータ30bなどを、ゲームのプレイ状況に応じてディスク型記録媒体30またはHDD14から読み込んで一時的に記録する。   The HDD 14 is a large-capacity recording medium built in the game apparatus 2 and records the game program 30a and game data 30b read from the disk-type recording medium 30, save data, and the like. The ROM 15 is a semiconductor memory such as a mask ROM or PROM, and stores a start program for starting the game apparatus 2 and a program for controlling an operation when the disk type recording medium 30 is loaded. The RAM 16 is composed of DRAM, SRAM, or the like, and reads a game program 30a to be executed by the CPU 10 or game data 30b necessary for the execution from the disk-type recording medium 30 or the HDD 14 according to the game play status. To record temporarily.

また、CPU10には、バス11を介してグラフィック処理部17、オーディオ合成部20、無線通信制御部23およびネットワークインタフェース25が接続されている。   Further, the graphic processing unit 17, the audio synthesis unit 20, the wireless communication control unit 23, and the network interface 25 are connected to the CPU 10 via the bus 11.

このうちグラフィック処理部17は、CPU10の指示に従ってゲーム空間や各キャラクタなどを含むゲーム画像を描画する。また、グラフィック処理部17にはビデオ変換部18を介して外部のモニタ19が接続されており、グラフィック処理部17にて描画されたゲーム画像はビデオ変換部18において動画形式に変換され、モニタ19にて表示されるようになっている。   Among these, the graphic processing unit 17 draws a game image including a game space and each character in accordance with an instruction from the CPU 10. An external monitor 19 is connected to the graphic processing unit 17 via a video conversion unit 18, and the game image drawn by the graphic processing unit 17 is converted into a moving image format by the video conversion unit 18, and the monitor 19 Is displayed.

オーディオ合成部20は、CPU10の指示に従ってデジタルのゲーム音声を再生および合成する。また、オーディオ合成部20にはオーディオ変換部21を介して外部のスピーカ22が接続されている。従って、オーディオ合成部20にて再生および合成されたゲーム音声は、オーディオ変換部21にてアナログ形式にデコードされ、さらにスピーカ22から外部へ出力されるようになっている。   The audio synthesizing unit 20 reproduces and synthesizes digital game sound in accordance with instructions from the CPU 10. An external speaker 22 is connected to the audio synthesis unit 20 via an audio conversion unit 21. Therefore, the game sound reproduced and synthesized by the audio synthesizing unit 20 is decoded into an analog format by the audio converting unit 21 and further outputted from the speaker 22 to the outside.

無線通信制御部23は、2.4GHz帯の無線通信モジュールを有し、ゲーム装置2に付属するコントローラ24との間で無線により接続され、データの送受信が可能となっている。ユーザは、このコントローラ24に設けられたボタン等の操作子(図示せず)を操作することにより、ゲーム装置2へ信号を入力することができ、モニタ19に表示されるプレイヤキャラクタの動作を制御可能になっている。また、ネットワークインタフェース25は、インターネットまたはLANなどの通信ネットワークNWに対してゲーム装置2を接続するものであり、他のゲーム装置2またはサーバ装置3との間で通信可能である。そして、ゲーム装置2を、通信ネットワークNWを介して他のゲーム装置2と接続し、互いにデータを送受信することにより、同一のゲーム空間100内で同期して複数のプレイヤキャラクタを表示させることができる。したがって、複数人が共同してゲームを進行させるマルチプレイが可能になっている。   The wireless communication control unit 23 includes a 2.4 GHz band wireless communication module, and is wirelessly connected to the controller 24 attached to the game apparatus 2 so that data can be transmitted and received. The user can input a signal to the game apparatus 2 by operating an operator (not shown) such as a button provided in the controller 24, and controls the movement of the player character displayed on the monitor 19. It is possible. The network interface 25 connects the game apparatus 2 to a communication network NW such as the Internet or a LAN, and can communicate with another game apparatus 2 or the server apparatus 3. Then, by connecting the game apparatus 2 to another game apparatus 2 via the communication network NW and transmitting / receiving data to / from each other, a plurality of player characters can be displayed in synchronization within the same game space 100. . Therefore, multiplayer in which a plurality of people work together to advance a game is possible.

[ゲーム装置の機能的構成]
図2は、図1に示すゲーム装置2の機能的な構成を示すブロック図である。図1に示すようにゲーム装置2は、CPU10、HDD14、ROM15、RAM16、グラフィック処理部17、ビデオ変換部18、オーディオ合成部20、オーディオ変換部21、ネットワークインタフェース25などを含む制御部4を備えたコンピュータとして動作する。そして、図2に示すように、ゲーム装置2の制御部4は、本発明のゲームプログラム30aを実行することで、ゲーム空間生成手段41、キャラクタ動作制御手段42、キャラクタダメージ判定手段43、基準テクスチャデータ取得手段44、エフェクト表現テクスチャデータ取得手段45、オブジェクトマッピング手段46、条件判定手段47、選択手段48、エフェクト表現反映手段49などの機能を発揮する。
[Functional configuration of game device]
FIG. 2 is a block diagram showing a functional configuration of the game apparatus 2 shown in FIG. As shown in FIG. 1, the game apparatus 2 includes a control unit 4 including a CPU 10, an HDD 14, a ROM 15, a RAM 16, a graphic processing unit 17, a video conversion unit 18, an audio synthesis unit 20, an audio conversion unit 21, a network interface 25, and the like. Act as a computer. Then, as shown in FIG. 2, the control unit 4 of the game apparatus 2 executes the game program 30a of the present invention, so that the game space generation means 41, the character motion control means 42, the character damage determination means 43, the reference texture, Functions such as data acquisition means 44, effect expression texture data acquisition means 45, object mapping means 46, condition determination means 47, selection means 48, and effect expression reflection means 49 are exhibited.

このうち、ゲーム空間生成手段41は、キャラクタが動作する仮想のゲーム空間および当該ゲーム空間内で動作し、三次元で表現される各キャラクタを生成し、モニタ19に表示させる。例えば、ゲーム空間生成手段41は、プレイヤキャラクタの移動に伴って、ゲームデータ30bに含まれるオブジェクトおよびテクスチャなどのデータを読み出し、三次元の仮想ゲーム空間を生成する。さらに、ゲーム空間生成手段41は、ゲーム装置2のモニタ19にゲーム空間を表示するために、生成したゲーム空間を所定の仮想カメラで撮影したときの二次元画像を生成する。   Among these, the game space generation means 41 operates in the virtual game space in which the character operates and in the game space, generates each character expressed in three dimensions, and displays it on the monitor 19. For example, the game space generation means 41 reads data such as objects and textures included in the game data 30b as the player character moves, and generates a three-dimensional virtual game space. Furthermore, in order to display the game space on the monitor 19 of the game apparatus 2, the game space generation means 41 generates a two-dimensional image when the generated game space is photographed with a predetermined virtual camera.

キャラクタ動作制御手段42は、ユーザによるコントローラ24の操作やゲームの進行状況に応じて、ゲーム空間におけるキャラクタの動作を制御する。   The character action control means 42 controls the action of the character in the game space according to the operation of the controller 24 by the user and the progress of the game.

キャラクタダメージ判定手段43は、キャラクタにダメージが加えられた場合に、キャラクタに加えられるダメージの判定(ダメージの有無およびダメージ量)を行う。本実施形態においては、キャラクタを構成する複数の部位ごとに当たり領域が設定されており、キャラクタダメージ判定手段43は、ダメージ要素(攻撃に用いられる武器や接触するオブジェクトなど)の座標と各部位ごとに設定されている当たり領域の座標(境界座標)とを比較し、ダメージ要素の座標が当たり領域内にあれば(境界座標を超えれば)その当たり領域の部位へのダメージとしてダメージ量を記憶する。なお、前回までに同じ部位にダメージを受けている場合は、前回までのダメージ量および今回のダメージ量を累積した値を記憶する。   The character damage determination means 43 determines the damage applied to the character (the presence / absence of damage and the amount of damage) when the character is damaged. In the present embodiment, a hit area is set for each of a plurality of parts constituting the character, and the character damage determination unit 43 determines the coordinates of damage elements (weapons used for attack, objects to be contacted, etc.) and each part. The coordinates of the hit area (boundary coordinates) are compared, and if the coordinates of the damage element are within the hit area (exceeding the boundary coordinates), the damage amount is stored as damage to the part of the hit area. If the same part has been damaged by the previous time, a value obtained by accumulating the previous damage amount and the current damage amount is stored.

基準テクスチャデータ取得手段44は、三次元で表現されるオブジェクトごとに、当該オブジェクトの少なくとも一部の特性が互いに異なる複数の基準テクスチャデータをゲームデータ30bから取得する。本実施形態において、複数の基準テクスチャ画像は、三次元で表現されるキャラクタのための複数の衣服テクスチャ画像である。すなわち、基準テクスチャデータ取得手段44は、キャラクタごとに異なる複数の衣装テクスチャデータをゲームデータ30bから取得する。衣服テクスチャデータを服務基準テクスチャデータは、三次元のコンピュータグラフィックスに用いられる一般的な構成を有している。すなわち、基準テクスチャデータは、オブジェクト表面の三次元座標(X,Y,Z)との相関関係が二次元座標(U,V)で表された二次元の基準テクスチャマップ(一般にUVマップと称されることがある)のデータと、当該二次元マップに対応するテクスチャ画像のデータとを含んでいる。   The reference texture data acquisition unit 44 acquires, for each object expressed in three dimensions, a plurality of reference texture data having at least some characteristics of the object different from the game data 30b. In the present embodiment, the plurality of reference texture images are a plurality of clothing texture images for a character expressed in three dimensions. That is, the reference texture data acquisition unit 44 acquires a plurality of costume texture data different for each character from the game data 30b. Clothes texture data The service standard texture data has a general configuration used for three-dimensional computer graphics. That is, the reference texture data is a two-dimensional reference texture map (generally referred to as a UV map) in which the correlation with the three-dimensional coordinates (X, Y, Z) on the object surface is represented by two-dimensional coordinates (U, V). Data) and texture image data corresponding to the two-dimensional map.

エフェクト表現テクスチャデータ取得手段45は、所定の条件に応じて基準テクスチャ画像上に表現されるエフェクト表現テクスチャ画像と、基準テクスチャ画像の三次元座標との相関関係を示す二次元のエフェクト表現テクスチャマップとを含むエフェクト表現テクスチャデータをゲームデータ30bから取得する。本実施形態におけるエフェクト表現テクスチャは、キャラクタの状態および/または周囲の環境(ゲーム進行状況)の変化に応じたキャラクタおよび衣服の表層的な変化を表現するテクスチャである。例えば、エフェクト表現テクスチャデータには、衣服の汚れや破れ、液体や血が衣服についたときの染みなどを表現するテクスチャデータが含まれる。このようにエフェクト表現テクスチャデータは、条件に応じて複数のエフェクト表現(複数種類の現象によるエフェクト表現)を行い得るように、複数種類がゲームデータ30bとして記憶されている。また、後述するように、キャラクタの複数の部位に応じて異なる複数のエフェクト表現を行い得るように、同じ種類のエフェクト表現についても部位に応じて異なる複数のエフェクト表現テクスチャデータが記憶されている。   The effect expression texture data acquisition unit 45 includes an effect expression texture image expressed on the reference texture image according to a predetermined condition and a two-dimensional effect expression texture map indicating a correlation between the three-dimensional coordinates of the reference texture image. Is obtained from the game data 30b. The effect expression texture in the present embodiment is a texture that expresses a surface change of the character and clothes according to a change in the character state and / or surrounding environment (game progress). For example, the effect expression texture data includes texture data representing stains and tears on clothes, stains when liquid or blood gets on clothes, and the like. As described above, a plurality of types of effect expression texture data are stored as the game data 30b so that a plurality of effect expressions (effect expression by a plurality of types of phenomena) can be performed according to conditions. Further, as will be described later, a plurality of effect expression texture data different depending on the part is stored for the same type of effect expression so that a plurality of different effect expressions can be performed according to a plurality of parts of the character.

オブジェクトマッピング手段46は、基準テクスチャ画像を基準テクスチャマップを用いてマッピングする。本実施形態におけるオブジェクトマッピング手段46は、キャラクタに複数の衣服テクスチャ画像のうちの1つの衣服テクスチャ画像を衣服テクスチャマップを用いてマッピングする。具体的にはオブジェクトマッピング手段46は、上述したような二次元の衣服テクスチャ画像のデータを対応する二次元の衣服テクスチャマップに基づいて所定の二次元座標位置がキャラクタ表面の対応する三次元座標上に位置するようにして衣服テクスチャを表現する。これにより、三次元で表現されるキャラクタ表面上に衣服テクスチャデータに基づく衣服表現(三次元的表現)を実現することができる。   The object mapping means 46 maps the reference texture image using the reference texture map. The object mapping means 46 in this embodiment maps one clothing texture image among a plurality of clothing texture images to the character using a clothing texture map. Specifically, the object mapping means 46 determines whether the predetermined two-dimensional coordinate position is based on the corresponding three-dimensional coordinate on the character surface based on the two-dimensional clothing texture map corresponding to the data of the two-dimensional clothing texture image as described above. The clothing texture is expressed as Thereby, it is possible to realize clothing representation (three-dimensional representation) based on clothing texture data on the character surface represented in three dimensions.

条件判定手段47は、キャラクタが所定の条件を満たすかどうかを判定する。本実施形態においては、キャラクタがダメージを受けたことを所定の条件の1つに含み、条件判定手段47は、キャラクタがダメージを受けたかどうかを部位ごとに判定する。なお、所定の条件として、当該ダメージを受けた部位が当該部位に関する所定の条件(例えば所定のダメージ量を超えること、所定の当選確率を有する抽選処理において当選することなど)を満たすかどうかをさらに判定することとしてもよい。すなわち、本実施形態における所定の条件を、当該部位がダメージを受け、かつ、ダメージを受けた部位にエフェクト表現を行う条件を満たすこととしてもよい。   Condition determining means 47 determines whether the character satisfies a predetermined condition. In this embodiment, one of the predetermined conditions includes that the character has been damaged, and the condition determination unit 47 determines for each part whether the character has been damaged. In addition, as a predetermined condition, whether or not the damaged part satisfies a predetermined condition (for example, exceeding a predetermined damage amount, winning in a lottery process having a predetermined winning probability, etc.) It may be determined. That is, the predetermined condition in the present embodiment may satisfy the condition that the part is damaged and the effect expression is performed on the damaged part.

選択手段48は、条件判定手段47が所定の条件を満たすと判断した場合に、当該条件に応じて、複数のエフェクト表現テクスチャ画像(後述するベーステクスチャ画像)のうちの少なくとも1つを選択する。具体的には、例えば右腕にダメージを受けた場合に、衣服の右腕部に破れ表現を行う場合には、所定の条件が右腕へのダメージとなり、この条件を満たした場合に選択手段48が衣服の右腕部の破れ表現に関するエフェクト表現テクスチャ画像を選択する。   When the condition determining unit 47 determines that the predetermined condition is satisfied, the selecting unit 48 selects at least one of a plurality of effect expression texture images (base texture images described later) according to the condition. Specifically, for example, when damage is given to the right arm of the clothing when the right arm is damaged, a predetermined condition is damage to the right arm. Select an effect expression texture image related to the right arm part tear expression.

エフェクト表現反映手段49は、条件判定手段47が所定の条件を満たすと判断した場合に、エフェクト表現を行う。具体的には、エフェクト表現反映手段49は、エフェクト表現テクスチャマップを用いて、オブジェクトマッピング手段46によりマッピングされた基準テクスチャ画像にエフェクト表現テクスチャ画像を合成するようにマッピングする。詳しくは後述するが、例えば、キャラクタがダメージを受けたときに、ダメージを受けた部位上の衣服の所定箇所が破れたり、その周囲が血で染まったりする等のエフェクト表現を行う。   The effect expression reflection means 49 performs effect expression when the condition determination means 47 determines that a predetermined condition is satisfied. Specifically, the effect expression reflecting means 49 uses the effect expression texture map to perform mapping so as to synthesize the effect expression texture image with the reference texture image mapped by the object mapping means 46. As will be described in detail later, for example, when the character is damaged, an effect expression is performed such that a predetermined part of the clothes on the damaged part is torn or the surrounding area is stained with blood.

[基準テクスチャデータおよびエフェクト表現テクスチャデータの構造]
ここで、本実施形態における基準テクスチャデータ(すなわち、衣服テクスチャデータ)およびエフェクト表現テクスチャデータの構造についてより具体的に説明する。図3および図4は、本実施形態における衣服テクスチャデータの例を示す図である。図3はアーミーベスト(前開き)の例を示し、図4はタンクトップの例を示す。図3(a)および図4(a)はそれぞれ二次元の衣服テクスチャ画像上に、二次元の衣服テクスチャマップを重ねて示した図であり、図3(b)および図4(b)はそれぞれ図3(a)および図4(a)の衣服テクスチャ画像をマッピングした後の三次元画像を正面から見たときの図である。二次元のテクスチャマップは、三次元オブジェクトの表面ポリゴンの各頂点と、二次元のテクスチャ画像上の位置との対応関係を示す、二次元座標上の頂点位置を表したものである。図3(a)および図4(a)において、二次元の衣服テクスチャマップは、オブジェクト表面を形成するポリゴンを二次元に展開したときの、当該ポリゴンの境界線として示されている。
[Structure of reference texture data and effect expression texture data]
Here, the structure of the reference texture data (that is, clothing texture data) and the effect expression texture data in the present embodiment will be described more specifically. 3 and 4 are diagrams showing examples of clothing texture data in the present embodiment. FIG. 3 shows an example of an army vest (front opening), and FIG. 4 shows an example of a tank top. FIGS. 3 (a) and 4 (a) are diagrams each showing a two-dimensional clothing texture map superimposed on a two-dimensional clothing texture image. FIGS. 3 (b) and 4 (b) are respectively diagrams. It is a figure when the three-dimensional image after mapping the clothes texture image of Fig.3 (a) and Fig.4 (a) is seen from the front. The two-dimensional texture map represents a vertex position on a two-dimensional coordinate indicating a correspondence relationship between each vertex of the surface polygon of the three-dimensional object and a position on the two-dimensional texture image. 3A and 4A, the two-dimensional clothing texture map is shown as a boundary line of the polygon when the polygon forming the object surface is developed two-dimensionally.

このように、図3(a)および図4(a)に示すような衣服テクスチャデータは、図3(b)および図4(b)に示す三次元画像の展開図として構成されるものである。このため、三次元表示状態において違和感がないように(例えば、継ぎ目が目立たないように)衣服テクスチャに応じて展開態様(すなわち、二次元座標と三次元座標との対応関係)が異なっている。例えば図3(a)に示すアーミーベストでは、前身ごろの左右が離間している(中央部分が存在しない)ので、当該離間部分が衣服テクスチャマップの左右の端に位置するように、衣服テクスチャデータが構成されている。なお、図3(a)の下部には、アーミーベストの立体部であるポケットのテクスチャデータがベスト本体部とは別に設けられている。   As described above, the clothing texture data as shown in FIGS. 3A and 4A is configured as a developed view of the three-dimensional image shown in FIGS. 3B and 4B. . For this reason, the development mode (that is, the correspondence relationship between the two-dimensional coordinates and the three-dimensional coordinates) differs depending on the clothing texture so that there is no sense of incongruity in the three-dimensional display state (for example, the seam is not conspicuous). For example, in the army vest shown in FIG. 3 (a), the left and right sides of the front body are separated (the center portion does not exist), so the clothing texture data is set so that the separated portions are located at the left and right ends of the clothing texture map. Is configured. In addition, the texture data of the pocket which is a solid part of an army vest is provided in the lower part of Fig.3 (a) separately from the vest main-body part.

これに対し、図4(a)に示すタンクトップでは、アーミーベストのように前身ごろの左右が離間していないので、より目立ち難い脇下部分で衣服を切断し、その切断箇所が衣服テクスチャマップの左右の端に位置するように、衣服テクスチャデータが構成されている。これに合わせて肩部分が繋がった状態となるようにキャラクタの頭が入る部分を衣服テクスチャマップの上下方向に関して中央部分に位置させている。二次元画像と三次元画像との間の対応関係(二次元座標と三次元座標との間の対応関係)さえ取れていれば、衣服テクスチャ画像をどのように展開してもよい。このため、一般的に、衣服テクスチャマップの二次元座標とキャラクタ表面の三次元座標との対応関係は、表現したい衣服に応じて異なることが多い。   On the other hand, in the tank top shown in FIG. 4 (a), the left and right sides of the front body are not separated like the army vest, so the clothes are cut at the underarm portions that are less noticeable, and the cut portions are the clothes texture map. The clothing texture data is configured so as to be positioned at the left and right ends. In accordance with this, the portion where the character's head enters is positioned at the center portion in the vertical direction of the clothing texture map so that the shoulder portions are connected. As long as the correspondence between the two-dimensional image and the three-dimensional image (the correspondence between the two-dimensional coordinates and the three-dimensional coordinates) is obtained, the clothing texture image may be developed in any way. For this reason, in general, the correspondence between the two-dimensional coordinates of the clothing texture map and the three-dimensional coordinates of the character surface often differs depending on the clothing to be expressed.

1つのキャラクタ(複数のキャラクタに共通でもよい)には、図3および図4に示すような複数の衣服テクスチャデータがゲームデータ30bとして記憶される。複数の衣服テクスチャデータにおいては、図3および図4に示すように、衣服の形状、長さなどが異なる。例えば前述した前身ごろが開いているか否かの他にも、立体部(ポケット)の有無、着丈の長さの違い、袖の有無およびその長さの違いなどの様々な相違点が存在する場合がある。   In one character (which may be common to a plurality of characters), a plurality of clothes texture data as shown in FIGS. 3 and 4 is stored as game data 30b. In a plurality of clothes texture data, as shown in FIGS. 3 and 4, the shape and length of clothes are different. For example, when there are various differences such as the presence or absence of a three-dimensional part (pocket), the difference in length, the presence or absence of a sleeve, and the difference in length in addition to whether or not the front body is open as described above There is.

次に、上述したような衣服テクスチャデータに適用されるエフェクト表現テクスチャデータについて説明する。本実施形態におけるエフェクト表現テクスチャ画像は、複数の基準テクスチャ画像(本実施形態においては、衣服テクスチャ画像)のいずれにも適用可能に構成されている。図5は本実施形態におけるエフェクト表現テクスチャデータを構成する二次元のエフェクト表現テクスチャマップおよびエフェクト表現テクスチャ画像の例を示す図である。図5(a)はアーミーベストへのエフェクト表現テクスチャマップを示し、図5(b)はタンクトップへのエフェクト表現テクスチャマップを示し、図5(c)は衣服に付着した血しぶきを表現するエフェクト表現テクスチャ画像の例を示す。   Next, effect expression texture data applied to the above-described clothing texture data will be described. The effect expression texture image in the present embodiment is configured to be applicable to any of a plurality of reference texture images (clothing texture images in the present embodiment). FIG. 5 is a diagram showing an example of a two-dimensional effect expression texture map and an effect expression texture image constituting the effect expression texture data in this embodiment. FIG. 5 (a) shows an effect expression texture map for the army vest, FIG. 5 (b) shows an effect expression texture map for the tank top, and FIG. 5 (c) shows an effect expressing blood splash attached to the clothes. The example of an expression texture image is shown.

図5(a)〜図5(c)に示すように、エフェクト表現テクスチャデータは、各衣服テクスチャデータごとに設けられた複数の二次元のエフェクト表現テクスチャマップと、複数の衣服テクスチャデータに共通するエフェクト表現テクスチャ画像とを含んでいる。エフェクト表現テクスチャマップは、図5(a)および図5(b)に示すように、当該衣服テクスチャ画像の三次元座標との相関関係が二次元座標(U,V)で表されている。衣服テクスチャデータごとに設けられたエフェクト表現テクスチャマップは、衣服テクスチャ画像の三次元座標との相関関係が共通するように構成されている。   As shown in FIGS. 5A to 5C, the effect expression texture data is common to a plurality of two-dimensional effect expression texture maps provided for each clothing texture data and a plurality of clothes texture data. Effect expression texture image. In the effect expression texture map, as shown in FIGS. 5A and 5B, the correlation with the three-dimensional coordinates of the clothing texture image is represented by two-dimensional coordinates (U, V). The effect expression texture map provided for each clothing texture data is configured to have a common correlation with the three-dimensional coordinates of the clothing texture image.

このように、衣服テクスチャデータにおける二次元の衣服テクスチャマップ(第1の二次元マップ)とは別に複数の衣服テクスチャデータで三次元座標との相関関係が共通するエフェクト表現テクスチャマップ(第2の二次元マップ)がゲームデータ30bとして記憶されている。このようなエフェクト表現テクスチャマップは、衣服テクスチャ画像の異同にかかわらず同じ部位が略同じ位置に位置するように構成される。例えば図5(a)に示すアーミーベストおよび図5(b)に示すタンクトップのそれぞれに対応するエフェクト表現テクスチャマップにおいては、いずれも前身ごろの右肩部分が左上隅(原点付近)に位置するように配置されている。   Thus, in addition to the two-dimensional clothes texture map (first two-dimensional map) in the clothes texture data, the effect expression texture map (second second map) having a common correlation with the three-dimensional coordinates in the plurality of clothes texture data. (Dimensional map) is stored as game data 30b. Such an effect expression texture map is configured such that the same part is located at substantially the same position regardless of the difference in clothing texture images. For example, in the effect expression texture maps corresponding to the army vest shown in FIG. 5A and the tank top shown in FIG. 5B, the right shoulder portion of the front body is located at the upper left corner (near the origin). Are arranged as follows.

このように、エフェクト表現のためのエフェクト表現テクスチャマップとして、異なる衣服テクスチャ画像間で三次元座標と二次元座標との相関関係が共通する二次元のテクスチャマップが用いられる。このため、図5(c)に示すような、衣服テクスチャ画像の異同に関係なく共通する二次元のエフェクト表現テクスチャ画像を用いることができる。また、このようなエフェクト表現テクスチャマップを衣服テクスチャデータごとに用意することにより、同じ衣服テクスチャ画像上に種類(現象)の異なるエフェクト表現(例えば、血しぶき表現および破れ表現)を行う場合であっても、エフェクト表現テクスチャマップは衣装テクスチャデータごとに1つですむ。すなわち、各衣服テクスチャデータごとに、1つのエフェクト表現テクスチャマップと、当該エフェクト表現テクスチャマップに対応する複数種類のエフェクト表現テクスチャ画像のデータとを用意することにより、複数種類のエフェクト表現を衣服テクスチャ画像上に付与することができる。   As described above, a two-dimensional texture map in which the correlation between the three-dimensional coordinates and the two-dimensional coordinates is common between different clothing texture images is used as the effect expression texture map for effect expression. Therefore, a common two-dimensional effect expression texture image as shown in FIG. 5C can be used regardless of the difference in clothing texture images. In addition, by preparing such an effect expression texture map for each clothing texture data, different types of effect expression (for example, blood spray expression and tear expression) are performed on the same clothes texture image. However, only one effect expression texture map is required for each costume texture data. That is, for each garment texture data, by preparing one effect expression texture map and data of a plurality of types of effect expression texture images corresponding to the effect expression texture map, a plurality of types of effect expressions can be converted into a garment texture image. Can be granted on top.

図5(c)に示すような複数の衣服テクスチャ画像に共通するエフェクト表現テクスチャ画像のデータは、複数の衣服テクスチャ画像上に当該エフェクト表現テクスチャ画像を重ね合わせるようにマッピングしても違和感がないように、複数の衣服テクスチャ画像のすべてに対応するような(最大公約数的な)二次元画像として構成される。例えば、上述のように、図3に示すようなアーミーベストにおいては前身ごろの中央部分が存在しないため、アーミーベスト上に表現するエフェクト表現は前身ごろの中央部分には本来必要ない。一方、図4に示すようなタンクトップにおいては前身ごろの中央部分が存在する。この場合であっても、1つのエフェクト表現テクスチャ画像でアーミーベスト上にもタンクトップ上にも違和感なくエフェクト表現を実現するために、前身ごろの中央部分にも(必要であれば)エフェクト表現が表されたエフェクト表現テクスチャ画像がアーミーベストにも適用される。このようなエフェクト表現テクスチャ画像がアーミーベストに適用される場合には、当該エフェクト表現テクスチャ画像における前身ごろの中央部分が部分的に切り出されるようにマッピングされる。   The effect expression texture image data common to the plurality of clothes texture images as shown in FIG. 5C does not feel uncomfortable even if the effect expression texture images are mapped on the plurality of clothes texture images. Further, it is configured as a two-dimensional image (the greatest common divisor) corresponding to all of the plurality of clothing texture images. For example, as described above, in the army vest as shown in FIG. 3, there is no central part of the front body, so that the effect expression expressed on the army vest is not originally required in the central part of the front body. On the other hand, the tank top as shown in FIG. Even in this case, in order to achieve an effect expression on the army vest and tank top with a single effect expression texture image, the effect expression is also displayed in the center part of the front (if necessary). The represented effect expression texture image is also applied to the army vest. When such an effect expression texture image is applied to the army vest, mapping is performed so that a central portion of the front part of the effect expression texture image is partially cut out.

図6〜図9は本実施形態のエフェクト表現テクスチャ画像をエフェクト表現テクスチャマップ上に表した図(各図(a))およびそれを衣服テクスチャ画像に重ね合わせるようにマッピングした際の三次元画像(各図(b))の例を示す図である。図6はアーミーベストに付着する血しぶきを表現する場合を示し、図7はタンクトップに付着する血しぶきを表現する場合を示し、図8はアーミーベストの破れを表現する場合を示し、図9はタンクトップの破れを表現する場合を示している。   6 to 9 are diagrams (each diagram (a)) showing the effect expression texture image of the present embodiment on the effect expression texture map, and a three-dimensional image when mapping the image so as to be superimposed on the clothing texture image ( It is a figure which shows the example of each figure (b)). FIG. 6 shows the case of expressing blood spray adhering to the army vest, FIG. 7 shows the case of expressing blood spatter adhering to the tank top, FIG. 8 shows the case of expressing the tear of the army vest, Indicates a case where the tank top is torn.

図6および図7は共通するエフェクト表現として衣服上に付着する血しぶき表現(出血痕や返り血など)のエフェクト表現テクスチャデータが用いられている。血しぶき表現のエフェクト表現テクスチャ画像のデータは、所定の部位において衣服上に付着した血しぶきを表現するために半透明の赤色で着色されるデータとして構成される。マッピング時において、図6(a)および図7(a)においてエフェクト表現テクスチャ画像のうちエフェクト表現テクスチャマップにおける内部領域(境界線の内側の領域)のみが切り出されるため、図6(b)および図7(b)に示すように、いずれの衣服テクスチャ画像上に重ね合わされた場合であっても、違和感のないエフェクト表現が実現できる。図8および図9も共通するエフェクト表現として衣服の部分的な破れを表すエフェクト表現テクスチャデータが用いられている。破れ表現のエフェクト表現テクスチャ画像のデータは、衣服テクスチャ画像の対応部分を透明化する透明化マスクとして構成される。本例においても図6および図7の例と同様に、いずれの衣服テクスチャ画像上においても衣服の破れ表現が違和感なく実現されている。   In FIG. 6 and FIG. 7, effect expression texture data of blood spray expression (such as bleeding marks and return blood) adhering on clothes is used as a common effect expression. The data of the effect expression texture image of the blood splash expression is configured as data colored in translucent red in order to express the blood splash attached on the clothes at a predetermined portion. 6A and 7A, only the internal area (area inside the boundary line) in the effect expression texture map is cut out from the effect expression texture image in FIGS. 6A and 7A. As shown in FIG. 7 (b), an effect expression without a sense of incongruity can be realized even when superimposed on any clothing texture image. FIG. 8 and FIG. 9 also use effect expression texture data representing partial tearing of clothes as the common effect expression. The data of the effect expression texture image of the tear expression is configured as a transparency mask that makes the corresponding part of the clothing texture image transparent. In this example as well, as in the examples of FIGS. 6 and 7, the clothing tearing expression is realized without any discomfort on any of the clothing texture images.

また、前述したように図6および図8に示すアーミーベストに適用されるエフェクト表現テクスチャマップならびに図7および図9に示すタンクトップに適用されるエフェクト表現テクスチャマップは、それぞれ共通となっており、エフェクト表現テクスチャ画像を1つ追加すれば、複数の衣服テクスチャデータのすべてに当該エフェクト表現を適用することができる。このように、複数の衣服テクスチャデータのそれぞれに応じたエフェクト表現テクスチャマップを1つ用意するだけで、すべての衣服テクスチャ画像に対して複数の様々なエフェクト表現を容易に適用することができる。したがって、データ量の増大を抑制しつつキャラクタに多様なエフェクト表現を付与することができる。   Further, as described above, the effect expression texture map applied to the army vest shown in FIG. 6 and FIG. 8 and the effect expression texture map applied to the tank top shown in FIG. 7 and FIG. If one effect expression texture image is added, the effect expression can be applied to all of the plurality of clothes texture data. Thus, a plurality of various effect expressions can be easily applied to all clothes texture images by preparing only one effect expression texture map corresponding to each of a plurality of clothes texture data. Therefore, various effect expressions can be given to the character while suppressing an increase in the data amount.

なお、本実施形態においては、衣服テクスチャ画像をマッピングするための衣服テクスチャマップと、エフェクト表現テクスチャ画像をマッピングするためのエフェクト表現テクスチャマップとは、異なるマップとして用いられているが、本発明はこれに限られない。すなわち、衣服テクスチャ画像をマッピングするための衣服テクスチャマップと、エフェクト表現テクスチャ画像をマッピングするためのエフェクト表現テクスチャマップとを共通の二次元マップとして構成してもよい。   In the present embodiment, the clothing texture map for mapping the clothing texture image and the effect expression texture map for mapping the effect expression texture image are used as different maps. Not limited to. That is, the clothing texture map for mapping the clothing texture image and the effect expression texture map for mapping the effect expression texture image may be configured as a common two-dimensional map.

なお、図6〜図9においては、1つのエフェクト表現のみを行った例を示しているが、複数のエフェクト表現を同時に行うこととしてもよい。すなわち、選択手段48は、複数のエフェクト表現テクスチャ画像を同時に選択することができる。例えば、後述する図11に示すように、図3に示すアーミーベスト上に、図6(a)に示す血しぶき表現用のエフェクト表現テクスチャ画像と、図8(a)に示す破れ表現用のエフェクト表現テクスチャ画像とを重ね合わせるようにマッピングすることによりアーミーベストの所定部位が破れ、当該破れ部分の周囲に血しぶきが飛んでいるというエフェクト表現を行うことができる。   Although FIGS. 6 to 9 show examples in which only one effect expression is performed, a plurality of effect expressions may be performed simultaneously. That is, the selection unit 48 can simultaneously select a plurality of effect expression texture images. For example, as shown in FIG. 11 to be described later, on the army vest shown in FIG. 3, an effect expression texture image for blood splash expression shown in FIG. 6A and an effect for tear expression shown in FIG. By mapping so as to overlap the expression texture image, it is possible to perform an effect expression that a predetermined portion of the army vest is torn and blood splashes around the torn portion.

また、エフェクト表現テクスチャデータは、エフェクト表現テクスチャマップが各エフェクト表現テクスチャ画像のデータに予め適用された状態(図6(a)、図7(a)、図8(a)、図9(a)に示すような状態)でゲームデータ30b内に格納されることとしてもよい。すなわち、エフェクト表現適用時において、エフェクト表現反映手段49は、エフェクト表現テクスチャマップがエフェクト表現テクスチャ画像に予め適用された状態のエフェクト表現テクスチャデータを読み出して実行することとしてもよい。また、この代わりに、エフェクト表現テクスチャマップと、各エフェクト表現テクスチャ画像のデータとが別々にかつ対応付けられてゲームデータ30b内に格納されることとしてもよい。すなわち、エフェクト表現適用時において、エフェクト表現反映手段49は、エフェクト表現テクスチャマップおよびエフェクト表現テクスチャ画像をそれぞれ読み出し、エフェクト表現を実行する際に、エフェクト表現テクスチャマップをエフェクト表現を行うエフェクト表現テクスチャ画像に適用させることとしてもよい。   The effect expression texture data is a state in which the effect expression texture map is applied in advance to the data of each effect expression texture image (FIGS. 6A, 7A, 8A, and 9A). In the game data 30b. That is, at the time of applying the effect expression, the effect expression reflecting means 49 may read and execute the effect expression texture data in a state where the effect expression texture map is applied in advance to the effect expression texture image. Alternatively, the effect expression texture map and the data of each effect expression texture image may be stored separately and associated with each other in the game data 30b. That is, when applying the effect expression, the effect expression reflecting means 49 reads the effect expression texture map and the effect expression texture image, respectively, and executes the effect expression to convert the effect expression texture map into an effect expression texture image for effect expression. It may be applied.

[エフェクト表現テクスチャ画像のデータ構造]
本実施形態においては、前述したように、キャラクタを構成する複数の部位ごとにダメージに関する当たり領域が設定されており、条件判定手段47は、キャラクタがダメージを受けたかどうかを部位ごとに判定する。そして、エフェクト表現反映手段49は、条件判定手段47が所定の条件を満たすと判断した場合に、ダメージを受けた部位に対応する衣服テクスチャ上に条件に応じたエフェクト表現テクスチャをマッピングすることにより、エフェクト表現を行う。
[Data structure of effect expression texture image]
In this embodiment, as described above, a hit area related to damage is set for each of a plurality of parts constituting the character, and the condition determination unit 47 determines whether or not the character has been damaged for each part. Then, the effect expression reflecting means 49, when the condition determining means 47 determines that the predetermined condition is satisfied, by mapping the effect expression texture according to the condition on the clothing texture corresponding to the damaged part, Perform effect expression.

この場合、ダメージを受けた部位にのみエフェクト表現を実行するためには、同じ種類(同じ現象)のエフェクト表現についても複数のエフェクト表現テクスチャ画像が必要となる。例えば、血しぶき表現を部位ごとに行う場合、右脇腹部位、左脇腹部位および胸部位の何れかにのみエフェクト表現を実行しようとする場合、右脇腹部位に血しぶき表現が施されたエフェクト表現テクスチャ画像と、左脇腹部位に血しぶき表現が施されたエフェクト表現テクスチャ画像と、胸部位に血しぶき表現が施されたエフェクト表現テクスチャ画像とが少なくとも必要となる。さらに、複数の部位のうちの2以上について同時にエフェクト表現が行われることを許容する場合、単純に考えれば2以上の部位について同時にエフェクト表現が行われた場合のエフェクト表現用の画像データがさらに必要となる。   In this case, in order to execute the effect expression only on the damaged part, a plurality of effect expression texture images are required for the same type (same phenomenon) of effect expression. For example, when blood spray expression is performed for each part, when effect expression is to be executed only on one of the right flank part, left flank part, and chest part, the effect expression texture with the blood spray expression applied to the right flank part At least an image, an effect expression texture image in which blood splash expression is applied to the left flank region, and an effect expression texture image in which blood expression is applied to the chest region are required. Furthermore, when it is allowed to perform effect expression simultaneously for two or more of a plurality of parts, if simply considered, image data for effect expression when effect expression is simultaneously performed for two or more parts is necessary. It becomes.

図14は本実施形態におけるエフェクト表現テクスチャデータのデータ構造の例を示す図であり、図15は、単純にエフェクト表現が行われる部位ごとおよび対象となる衣服テクスチャ画像ごとにエフェクト表現テクスチャデータを設けた場合のデータ構造(比較例)を示す図である。図14(a)および図15は、同一の現象表現(例えば血しぶき表現)に関して3つの部位のそれぞれに応じたエフェクト表現が設けられた例を示している。この場合、それぞれの部位のみでエフェクト表現がなされる場合に加えて、それらのエフェクト表現を複数組み合わせた場合を許容すると、エフェクト表現の組み合わせは、全部で7通り存在する。   FIG. 14 is a diagram showing an example of the data structure of effect expression texture data in the present embodiment, and FIG. 15 simply provides effect expression texture data for each part where effect expression is performed and for each clothing texture image to be processed. It is a figure which shows the data structure (comparative example) at the time of being. FIG. 14A and FIG. 15 show an example in which effect expressions corresponding to the three parts are provided for the same phenomenon expression (for example, blood spray expression). In this case, in addition to the case where the effect expression is made only in each part, if a combination of a plurality of these effect expressions is allowed, there are a total of seven combinations of effect expressions.

これを図15に示す比較例のようにそれぞれ別個の画像データとすると、エフェクト表現を適用する対象(衣服テクスチャ画像)、エフェクト表現を適用する部位および/またはエフェクト表現の種類(現象)が増えるほどデータ量が指数関数的に増大する。例えば、図15に示すように、3つの部位のそれぞれに応じたエフェクト表現を1つの衣服テクスチャ画像(例えばタンクトップ)のみに適用する場合、7個のデータ(7個ともデータ容量は大体同じ)が必要であるのに対し、エフェクト表現をベストおよびジャケットにも適用する(3つの衣服テクスチャ画像に適用する)ことにすると、21個のデータ(21個ともデータ容量は大体同じ)が必要となる。また、図示しないが、エフェクト表現を独立して行い得る部位を3つから4つに増やすと、1つの衣服テクスチャ画像でも15個のデータが必要となり、この場合にエフェクト表現の対象となる衣服テクスチャ画像を3つに増やすとなると、45個のデータが必要なる。さらに、例えば3つの衣服テクスチャ画像の4つの部位について、血しぶき表現に加えて破れの表現まで行うとなると(エフェクト表現の種類が2つに増えると)90個のデータが必要となってしまう。   If this is separate image data as in the comparative example shown in FIG. 15, the more the object to which the effect expression is applied (clothing texture image), the part to which the effect expression is applied, and / or the type (phenomenon) of the effect expression increases. Data volume increases exponentially. For example, as shown in FIG. 15, when the effect expression corresponding to each of the three parts is applied to only one clothing texture image (for example, tank top), seven data (seven data capacity is almost the same). However, if the effect expression is also applied to the vest and the jacket (applied to three clothing texture images), 21 data (21 data capacity is almost the same) is required. . Although not shown, if the number of parts where effect expression can be performed independently is increased from three to four, fifteen pieces of data are required even in one clothes texture image. If the number of images is increased to three, 45 pieces of data are required. Further, for example, if four parts of three clothes texture images are to be expressed in addition to the blood spray expression as well as tearing expression (when the number of effect expression types is increased to two), 90 pieces of data are required.

このようにデータ量が指数関数的に増加するのを抑制するために、本実施形態においては、エフェクト表現テクスチャ画像は、キャラクタを構成する複数の部位のうち少なくとも2つの部位に応じた少なくとも2つのベーステクスチャ画像を備えている。そして、エフェクト表現テクスチャマップは、当該少なくとも2つのベーステクスチャ画像が互いに重ね合わせられるように、構成される。   In order to prevent the data amount from increasing exponentially as described above, in the present embodiment, the effect expression texture image includes at least two parts corresponding to at least two parts among a plurality of parts constituting the character. It has a base texture image. The effect expression texture map is configured such that the at least two base texture images are superimposed on each other.

これにより、本実施形態においては、例えば、図14(a)に示すように、3つの部位のそれぞれに応じたエフェクト表現を1つの衣服テクスチャ画像のみに適用する場合には、3個のデータですむ。さらに、図14(b)に示すように、このようなエフェクト表現を3つの衣服テクスチャ画像に適用することとしても、9個のデータですむ。さらに、図示しないが、3つの衣服テクスチャ画像の4つの部位について、2種類のエフェクト表現を行うこととしても、比較例では上述の通り90個のデータが必要なところ12個のデータですむ。   Thus, in the present embodiment, for example, as shown in FIG. 14A, when the effect expression corresponding to each of the three parts is applied to only one clothing texture image, there are three data. Mu Furthermore, as shown in FIG. 14 (b), it is only necessary to use nine data to apply such effect expression to three clothes texture images. Furthermore, although not shown, even if two types of effect expression are performed for four parts of three clothes texture images, in the comparative example, only 90 pieces of data are needed as described above.

より詳しくは、本実施形態におけるエフェクト表現テクスチャ画像は、少なくとも2つの部位についてエフェクト表現を行う場合において、コンピュータで色を表現する際のRGBの3つのチャンネルのうちの少なくとも2つのチャンネルに、少なくとも2つのベーステクスチャ画像を格納することにより構成される。あるいは、エフェクト表現テクスチャ画像は、コンピュータで色の透明度を表現する際のαのチャンネルを加えた4つのチャンネルのうちの少なくとも2つのチャンネルに、少なくとも2つのベーステクスチャ画像を格納することにより構成されてもよい。その上で、エフェクト表現反映手段49は、条件に応じたエフェクト表現を行う際、対応するエフェクト表現テクスチャデータを読み出し、当該エフェクト表現テクスチャデータを構成する少なくとも2つのベーステクスチャ画像のうちエフェクト表現を行う部位に対応するベーステクスチャ画像をエフェクト表現テクスチャマップを用いて衣服テクスチャ画像に重ね合わせるようにマッピングする。   More specifically, the effect expression texture image according to the present embodiment includes at least two channels of at least two of the three RGB channels when the effect is expressed with respect to at least two parts. It is constructed by storing two base texture images. Alternatively, the effect expression texture image is configured by storing at least two base texture images in at least two of the four channels including the channel α when the color transparency is expressed by the computer. Also good. Then, the effect expression reflecting means 49 reads the corresponding effect expression texture data when performing the effect expression according to the condition, and performs the effect expression among at least two base texture images constituting the effect expression texture data. The base texture image corresponding to the part is mapped so as to be superimposed on the clothing texture image using the effect expression texture map.

図10は本実施形態におけるエフェクト表現テクスチャ画像を構成するベーステクスチャ画像の構成例を示す図である。図10(a)は右脇腹部位における血しぶき表現を示し、図10(b)は左脇腹部位における血しぶき表現を示し、図10(c)は胸部位における血しぶき表現を示し、図10(d)は図10(a)〜図10(c)をすべて重ね合わせたものを示す。   FIG. 10 is a diagram illustrating a configuration example of a base texture image that configures an effect expression texture image according to the present embodiment. FIG. 10 (a) shows the blood spray expression at the right flank site, FIG. 10 (b) shows the blood spray expression at the left flank site, FIG. 10 (c) shows the blood spray expression at the chest site, and FIG. FIG. 10 (d) shows a superposition of FIGS. 10 (a) to 10 (c).

図10(a)〜図10(c)に示すような3つの部位についてエフェクト表現を行う場合には、3つの部位に応じたベーステクスチャ画像をそれぞれ、例えば三原色(R,G,B)の何れか1つのチャンネルに割り当てて格納する。三原色(R,G,B)および透明度(α)を表すデータチャンネルにおける色または透明度はプログラマブルシェーダを用いて別途設定できる。エフェクト表現テクスチャ画像においては、ベーステクスチャ画像の組み合わせによらず単色または透明(破れ表現など)とすることが多い。このため、三原色(R,G,B)および透明度(α)を表すデータチャンネルのそれぞれを用いたベーステクスチャ画像においては個別の色の表現は必要ない場合が多い。したがって、三原色(R,G,B)および透明度(α)のような階調表現のみで構成されるデータチャンネルをエフェクト表現テクスチャ画像のベーステクスチャ画像として利用することができる。   When effect expression is performed for three parts as shown in FIG. 10A to FIG. 10C, base texture images corresponding to the three parts are respectively selected from, for example, three primary colors (R, G, B). Assigned to one channel and stored. The color or transparency in the data channel representing the three primary colors (R, G, B) and transparency (α) can be set separately using a programmable shader. The effect expression texture image is often monochromatic or transparent (breaking expression, etc.) regardless of the combination of the base texture images. For this reason, in the base texture image using each of the data channels representing the three primary colors (R, G, B) and the transparency (α), it is often unnecessary to express individual colors. Therefore, a data channel composed only of gradation representations such as the three primary colors (R, G, B) and transparency (α) can be used as the base texture image of the effect expression texture image.

なお、本実施形態においては、図5(a)および図5(b)に示した二次元のエフェクト表現テクスチャマップに対応するようにベーステクスチャ画像が描画されている。このため、図10(a)に示されるように、右脇腹部位の血しぶき表現は、二次元マップにおける右脇腹部位に相当する左端部および右端部に描画されている。また、図10(b)に示されるように、左脇腹部位の血しぶき表現は、二次元マップにおける左脇腹部位に相当する中央部に描画されている。また、図10(c)に示されるように、胸部位の血しぶき表現は、二次元マップにおける前身ごろの胸部位に相当する位置(中央部と左端部との間)に描画されている。   In the present embodiment, the base texture image is drawn so as to correspond to the two-dimensional effect expression texture map shown in FIGS. 5 (a) and 5 (b). For this reason, as shown in FIG. 10A, the blood splash expression of the right flank region is drawn at the left end and the right end corresponding to the right flank region in the two-dimensional map. Also, as shown in FIG. 10B, the blood splash expression of the left flank region is drawn at the center corresponding to the left flank region in the two-dimensional map. In addition, as shown in FIG. 10C, the blood spray expression of the chest part is drawn at a position (between the central part and the left end part) corresponding to the chest part of the front body in the two-dimensional map.

このような複数の(図10の例においては3つの)ベーステクスチャ画像は、図10(d)に示すように互いに重ね合わせて表現することが可能であり、かつ、各ベーステクスチャ画像を表示する(オンする)か否かをそれぞれ独立して切り替えて設定することができるように構成されている。この切り替え設定には、プログラマブルシェーダが用いられる。   Such a plurality of (three in the example of FIG. 10) base texture images can be expressed in a superimposed manner as shown in FIG. 10 (d), and each base texture image is displayed. (Turned on) or not can be independently switched and set. A programmable shader is used for this switching setting.

プログラマブルシェーダは、各ベーステクスチャ画像の衣服テクスチャ画像へのエフェクト効果強度を設定するよう構成されており、0(ベーステクスチャ画像を表示しない)〜1(ベーステクスチャ画像によるエフェクト表現効果が最大となるように表示する)の範囲で複数の値を入力設定可能となっている。プログラマブルシェーダにおいて、ベーステクスチャ画像を表示しない場合は0が入力設定され、ベーステクスチャ画像を表示する場合にはエフェクト表現の種類に応じて0以外の値(例えば、0.1〜1.0)が入力設定される。   The programmable shader is configured to set the effect effect strength of each base texture image to the clothing texture image, and 0 (does not display the base texture image) to 1 (the effect expression effect by the base texture image is maximized). Multiple values can be entered and set within the range of In the programmable shader, 0 is input and set when the base texture image is not displayed, and a value other than 0 (for example, 0.1 to 1.0) is set according to the type of effect expression when the base texture image is displayed. Input is set.

例えば、図10の例において、3つの部位のうち左脇腹部位のみ血しぶき表現を行う場合には、三原色における赤色(R)のデータチャンネルに格納されている右脇腹部位のベーステクスチャ画像をオン(例えばR=0.1に設定)し、かつ、三原色における緑色(G)のデータチャンネルに格納されている左脇腹部位のベーステクスチャ画像および三原色における青色(B)のデータチャンネルに格納されている胸部位のベーステクスチャ画像をオフ(G=B=0に設定)する。これにより、ベーステクスチャ画像を重ね合わせた結果として表されるエフェクト表現テクスチャ画像は、右脇腹部位のベーステクスチャ画像のみが表示されるものとして生成される。   For example, in the example of FIG. 10, when only the left flank portion of the three portions is to be expressed with blood splash, the base texture image of the right flank portion stored in the red (R) data channel in the three primary colors is turned on ( For example, R = 0.1), and the base texture image of the left flank region stored in the green (G) data channel in the three primary colors and the chest stored in the blue (B) data channel in the three primary colors Turn off the base texture image (set G = B = 0). Thereby, the effect expression texture image represented as a result of superimposing the base texture images is generated on the assumption that only the base texture image of the right flank region is displayed.

また、例えば、図10の例において、3つの部位のうち右脇腹部位および左脇腹部位に血しぶき表現を行う場合には、右脇腹部位のベーステクスチャ画像(R)および左脇腹部位のベーステクスチャ画像(G)をオン(R=G=0.1に設定)し、かつ、胸部位のベーステクスチャ画像(B)をオフ(B=0に設定)する。これにより、ベーステクスチャ画像を重ね合わせた結果として表されるエフェクト表現テクスチャ画像は、右脇腹部位および左脇腹部位のベーステクスチャ画像が重ね合わせられて表示されるものとして生成される。   For example, in the example of FIG. 10, when blood splash expression is performed on the right flank region and the left flank region among the three regions, the base texture image (R) of the right flank region and the base texture image of the left flank region are illustrated. (G) is turned on (R = G = 0.1 is set), and the base texture image (B) of the chest region is turned off (B = 0 is set). Thereby, the effect expression texture image represented as a result of superimposing the base texture images is generated as a display of the base texture images of the right flank region and the left flank region superimposed.

このように、各ベーステクスチャ画像をオンまたはオフに切り替えることにより簡単に各部位および複数の部位を組み合わせたエフェクト表現が可能となる。例えば、図10の例で示したようなRGBの3つのベーステクスチャ画像を用いたエフェクト表現テクスチャ画像においては、1つのエフェクト表現テクスチャ画像で3部位の組み合わせ、すなわち、7種類のエフェクト表現が可能となる(図14(a)も参照)。また、RGBαの4つのベーステクスチャ画像を用いたエフェクト表現テクスチャ画像においては、1つのエフェクト表現テクスチャ画像で4部位の組み合わせ、すなわち、15種類のエフェクト表現が可能となる。このように、1つのエフェクト表現テクスチャ画像のデータでより多くのエフェクト表現が可能となり、データ容量を効果的に低減させることができる。   In this way, by switching each base texture image on or off, it is possible to easily express the effect by combining each part and a plurality of parts. For example, in the effect expression texture image using the three base texture images of RGB as shown in the example of FIG. 10, a combination of three parts, that is, seven types of effect expression is possible with one effect expression texture image. (See also FIG. 14A). In addition, in an effect expression texture image using four base texture images of RGBα, a combination of four parts, that is, 15 types of effect expression can be performed with one effect expression texture image. In this way, more effect expression can be performed with the data of one effect expression texture image, and the data capacity can be effectively reduced.

しかも、オンするベーステクスチャ画像に応じてエフェクト効果強度を変化させることにより、衣服テクスチャ画像上に付与されるエフェクト表現を現実感のある表現とすることができる。例えば、上記のように血しぶき表現において設定されるエフェクト効果強度を適宜設定することにより、現実感が出る。また、破れ表現においてはエフェクト効果強度が透明化する衣服テクスチャ画像の階調のしきい値となる。例えば256階調で表現される衣服テクスチャ画像において破れ表現のエフェクト効果強度を128/256に設定すると、エフェクト表現テクスチャ画像が重ね合わせられた衣服テクスチャ画像の領域において、128階調以上の階調で表現される部分が透明化される。したがって、エフェクト効果強度を256/256=1とすると、エフェクト表現テクスチャが貸させ合わせれた衣服テクスチャ画像の領域すべてが透明化される。   In addition, by changing the effect effect intensity according to the base texture image to be turned on, the effect expression provided on the clothing texture image can be made a realistic expression. For example, a realistic feeling can be obtained by appropriately setting the effect effect intensity set in the blood splash expression as described above. Further, in the tearing expression, the effect effect strength becomes a threshold value of the gradation of the clothing texture image that makes it transparent. For example, if the effect effect strength of the tearing expression is set to 128/256 in the clothing texture image expressed in 256 gradations, the gradation of 128 gradations or more in the area of the clothing texture image in which the effect expression texture images are overlaid. The expressed part is made transparent. Therefore, if the effect effect intensity is 256/256 = 1, the entire region of the clothing texture image in which the effect expression texture is lent together is made transparent.

また、図6または図7に示した血しぶき表現および図8または図9に示した破れ表現をそれぞれ上記のような部位ごとに異なる複数のベーステクスチャ画像を用いたエフェクト表現テクスチャ画像として構成し、血しぶき表現のエフェクト表現テクスチャ画像と破れ表現のエフェクト表現テクスチャ画像とをそれぞれ衣服テクスチャ画像に重ね合わせるようにマッピングすることで重ねて表現することにより、よりリアルなエフェクト表現が可能となる。この際、同じ部位において血しぶき表現のベーステクスチャ画像が破れ表現のベーステクスチャ画像より範囲が大きくなるように各ベーステクスチャ画像を構成し、いずれの部位においても同じ部位が同時にオンするように設定する。すなわち、条件判定手段47における条件を血しぶき表現と破れ表現とで等しくする。これにより、ダメージによる衣服の破れの周囲が血で染まっているようなエフェクト表現を容易に実現することができる。   Further, the blood splash expression shown in FIG. 6 or FIG. 7 and the tear expression shown in FIG. 8 or FIG. 9 are each configured as an effect expression texture image using a plurality of base texture images different for each part as described above. By expressing the effect expression texture image of blood splash expression and the effect expression texture image of tearing expression so as to overlap each other on the clothing texture image, a more realistic effect expression can be realized. At this time, each base texture image is configured such that the base texture image of the blood spray expression is larger than the base texture image of the torn expression in the same part, and the same part is set to be turned on at the same time in any part. . That is, the condition in the condition determination means 47 is made equal between the blood splash expression and the tear expression. As a result, it is possible to easily realize an effect expression in which the surroundings of the torn clothes due to damage are stained with blood.

図11および図12は本実施形態におけるエフェクト表現が行われた衣服テクスチャ画像をキャラクタにマッピングした状態の例を示す図である。図11はアーミーベストの場合を示し、図12はタンクトップの場合を示す。図11および図12のいずれにおいても血しぶき表現および破れ表現の双方のエフェクト表現が行われている。図11および図12の例においても、図10で示したような血しぶき表現および破れ表現のそれぞれに3つの部位(右脇腹部位、左脇腹部位、胸部位)に対応するベーステクスチャ画像(右脇腹部位=R、左脇腹部位=G、胸部位=B)が設定されている。図11および図12の例を合わせても、必要なエフェクト表現テクスチャ画像は、血しぶき表現および破れ表現の2つだけである。   FIGS. 11 and 12 are diagrams illustrating an example of a state in which a clothing texture image on which an effect expression is performed in this embodiment is mapped to a character. FIG. 11 shows the case of army vest, and FIG. 12 shows the case of tank top. In both FIG. 11 and FIG. 12, effect expression of both blood splash expression and tear expression is performed. Also in the examples of FIGS. 11 and 12, base texture images (right flank) corresponding to three parts (right flank part, left flank part, chest part) for each of the blood splash expression and the tear expression as shown in FIG. Region = R, left flank region = G, chest region = B) are set. Even if the examples of FIG. 11 and FIG. 12 are combined, only two effect expression texture images are necessary: a blood expression and a tear expression.

図11(a)および図12(a)はエフェクト表現なしの場合を示している。この場合、エフェクト表現テクスチャ画像自体をマッピングしないこととしてもよいし、3つのベーステクスチャ画像をすべてオフにする(いずれのエフェクト表現テクスチャ画像についてもR=G=B=0に設定する)こととしてもよい。また、図11(b)および図12(b)は右脇腹部位にエフェクト表現が実施されている場合を示している。この場合、右脇腹部位のベーステクスチャ画像(R)のみがオンされたエフェクト表現テクスチャ画像を衣服テクスチャ画像に重ね合わせるようにマッピングすればよい。具体的には、血しぶき表現におけるベーステクスチャ画像は、R(血)=0.1,G(血)=B(血)=0に設定し、破れ表現におけるベーステクスチャ画像は、R(破れ)=1,G(破れ)=B(破れ)=0に設定する。図11(c)および図12(c)は左脇腹部位にエフェクト表現が実施されている場合を示している。この場合、左脇腹部位のベーステクスチャ画像(G)のみがオンされたエフェクト表現テクスチャ画像を衣服テクスチャ画像に重ね合わせるようにマッピングすればよい。具体的には、血しぶき表現におけるベーステクスチャ画像は、G(血)=0.1,R(血)=B(血)=0に設定し、破れ表現におけるベーステクスチャ画像は、G=1(破れ),R(破れ)=B(破れ)=0に設定する。図11(d)および図12(d)は胸部位にエフェクト表現が実施されている場合を示している。この場合、胸部位のベーステクスチャ画像(B)のみがオンされたエフェクト表現テクスチャ画像を衣服テクスチャ画像に重ね合わせるようにマッピングすればよい。具体的には、血しぶき表現におけるベーステクスチャ画像は、B(血)=0.1,R(血)=G(血)=0に設定し、破れ表現におけるベーステクスチャ画像は、B(破れ)=1,R(破れ)=G(破れ)=0に設定する。   FIG. 11 (a) and FIG. 12 (a) show a case without effect expression. In this case, the effect expression texture image itself may not be mapped, or all the three base texture images may be turned off (R = G = B = 0 is set for any effect expression texture image). Good. FIG. 11B and FIG. 12B show a case where effect expression is performed on the right flank region. In this case, the effect expression texture image in which only the base texture image (R) of the right flank region is turned on may be mapped so as to be superimposed on the clothing texture image. Specifically, the base texture image in the blood splash expression is set to R (blood) = 0.1, G (blood) = B (blood) = 0, and the base texture image in the tear expression is R (break). = 1, G (break) = B (break) = 0. FIG. 11C and FIG. 12C show a case where effect expression is performed on the left flank region. In this case, the effect expression texture image in which only the base texture image (G) of the left flank region is turned on may be mapped so as to be superimposed on the clothing texture image. Specifically, the base texture image in the blood splash expression is set to G (blood) = 0.1, R (blood) = B (blood) = 0, and the base texture image in the tear expression is G = 1 ( Torn), R (torn) = B (torn) = 0. FIG. 11D and FIG. 12D show a case where effect expression is performed on the chest region. In this case, the effect expression texture image in which only the base texture image (B) of the chest part is turned on may be mapped so as to be superimposed on the clothing texture image. Specifically, the base texture image in the blood splash expression is set to B (blood) = 0.1, R (blood) = G (blood) = 0, and the base texture image in the tear expression is B (break). = 1, R (break) = G (break) = 0.

図11(e)および図12(e)は右脇腹部位および左脇腹部位にエフェクト表現が実施されている場合を示している。この場合、右脇腹部位のベーステクスチャ画像(R)および左脇腹部位のベーステクスチャ画像(G)がオンされ、胸部位のベーステクスチャ画像(B)がオフされたエフェクト表現テクスチャ画像を衣服テクスチャ画像に重ね合わせるようにマッピングすればよい。具体的には、血しぶき表現におけるベーステクスチャ画像は、R(血)=G(血)=0.1,B(血)=0に設定し、破れ表現におけるベーステクスチャ画像は、R(破れ)=G(破れ)=1,B(破れ)=0に設定する。   FIG. 11 (e) and FIG. 12 (e) show the case where the effect expression is implemented in the right flank region and the left flank region. In this case, an effect expression texture image in which the base texture image (R) of the right flank region and the base texture image (G) of the left flank region are turned on and the base texture image (B) of the chest region is turned off is used as a clothing texture image. Mapping may be performed so as to overlap. Specifically, the base texture image in the blood splash expression is set to R (blood) = G (blood) = 0.1 and B (blood) = 0, and the base texture image in the tear expression is R (break). = G (break) = 1, B (break) = 0.

このように、エフェクト表現の種類ごとにエフェクト表現テクスチャ画像を1つ用意すれば、衣服テクスチャ画像の数によらず、エフェクト表現が行われる部位が異なる複数の態様を実現することができる。したがって、多様なエフェクト表現を行おうとするほど、すなわち、キャラクタ1体あたりの衣服テクスチャ画像の数が多いほど、および/または、エフェクト表現を行う部位が多いほど、データ量を効果的に節約することができる。   Thus, if one effect expression texture image is prepared for each type of effect expression, it is possible to realize a plurality of modes with different parts where the effect expression is performed regardless of the number of clothes texture images. Accordingly, the more the effect is expressed, that is, the more the number of clothing texture images per character and / or the more parts to be used for effect expression, the more effectively the data amount can be saved. Can do.

なお、本実施形態においては、複数の衣服テクスチャ画像に共通するエフェクト表現テクスチャ画像が種類ごとに格納される(1つのRGB(α)内に同じ種類かつ異なる部位のベーステクスチャ画像が格納される)例について主に説明したが、データの格納態様はこれに限られない。例えば、図14(c)に示すように、複数のキャラクタ(キャラクタデータ自体が基準テクスチャデータとなる)に共通するエフェクト表現テクスチャ画像が種類ごとに格納されることとしてもよい。すなわち、適用するキャラクタに関係なく、エフェクト表現の種類ごとにデータが格納されるデータ構造としてもよい。   In the present embodiment, an effect expression texture image common to a plurality of clothing texture images is stored for each type (base texture images of the same type and different parts are stored in one RGB (α)). Although the example has been mainly described, the data storage mode is not limited to this. For example, as shown in FIG. 14C, an effect expression texture image common to a plurality of characters (character data itself becomes reference texture data) may be stored for each type. That is, a data structure in which data is stored for each type of effect expression may be used regardless of the character to be applied.

[エフェクト表現処理]
ここで、エフェクト表現テクスチャ画像をマッピングするまでのエフェクト表現処理の流れについて説明する。図13は本実施形態におけるエフェクト表現処理の流れを示すフローチャートである。
[Effect expression processing]
Here, the flow of the effect expression process until the effect expression texture image is mapped will be described. FIG. 13 is a flowchart showing the flow of effect expression processing in this embodiment.

図13に示すように、ゲーム空間生成手段41は、キャラクタが動作する仮想のゲーム空間および当該ゲーム空間において表示するオブジェクトや背景のデータなどゲーム進行に必要なデータを取得する(ステップS1)。基準テクスチャデータ取得手段44は、基準テクスチャ画像である当該キャラクタの衣服テクスチャ画像をゲームデータ30bより取得し、オブジェクトマッピング手段46は、別途取得したキャラクタデータと衣服テクスチャ画像とを所定のメモリ(一般的にはテクスチャメモリと呼ばれる)上で描画(レンダリング)する(ステップS2)。さらに、オブジェクトマッピング手段46は、レンダリング後の画像をジオメトリ処理し、ゲーム空間内における所定の視点から見た二次元画像に変換する。変換後のキャラクタデータは、所定のメモリ(一般的にはメインメモリと呼ばれる)に記憶される。   As shown in FIG. 13, the game space generation means 41 acquires data necessary for the game progress, such as a virtual game space in which the character moves and objects and background data to be displayed in the game space (step S1). The reference texture data acquisition unit 44 acquires a clothing texture image of the character as a reference texture image from the game data 30b, and the object mapping unit 46 stores the character data and the clothing texture image acquired separately in a predetermined memory (general (Called a texture memory) is drawn (rendered) (step S2). Further, the object mapping unit 46 performs geometry processing on the rendered image and converts it into a two-dimensional image viewed from a predetermined viewpoint in the game space. The converted character data is stored in a predetermined memory (generally called main memory).

条件判定手段47は、ゲーム空間内のキャラクタが所定の条件を満たすかどうか判定する条件判定処理を行う(ステップS3)。条件判定処理は、所定の時間ごと(所定フレームごと)に行ってもよいし、所定の動作が行われた場合(例えばキャラクタダメージ判定手段43がダメージがあったと判定した場合等)に行ってもよい。   The condition determining means 47 performs a condition determining process for determining whether or not the character in the game space satisfies a predetermined condition (step S3). The condition determination process may be performed every predetermined time (every predetermined frame) or when a predetermined action is performed (for example, when the character damage determination unit 43 determines that there is damage). Good.

条件判定処理において、キャラクタが所定の条件を満たすと判定された場合(ステップS3でYes)、エフェクト表現テクスチャデータ取得手段45は、ゲームデータ30bより条件判定処理において満たすと判断された条件に応じたエフェクト表現テクスチャデータを取得する(ステップS4)。   In the condition determination process, when it is determined that the character satisfies the predetermined condition (Yes in step S3), the effect expression texture data acquisition unit 45 responds to the condition determined to be satisfied in the condition determination process from the game data 30b. Effect expression texture data is acquired (step S4).

そして、エフェクト表現反映手段49は、取得されたエフェクト表現テクスチャデータに対してマスク処理を行う(ステップS5)。マスク処理は、図11および図12の例で説明したように、複数のベーステクスチャ画像のうちの所定の条件を満たす部位をオンし、満たさない部位をオフすることで実現される。オブジェクトマッピング手段46は、キャラクタの表面上に、衣服テクスチャ画像を衣服テクスチャマップを用いてマッピングする。この際、エフェクト表現反映手段49は、マスク処理の結果として得られるエフェクト表現テクスチャ画像(複数のベーステクスチャ画像が重ね合わされたもの)をキャラクタの衣服テクスチャ画像に重ね合わせるようにマッピングすることにより、エフェクト表現を行う(ステップS6)。   Then, the effect expression reflecting means 49 performs a mask process on the acquired effect expression texture data (step S5). As described in the examples of FIGS. 11 and 12, the mask processing is realized by turning on a portion that satisfies a predetermined condition among a plurality of base texture images and turning off a portion that does not satisfy the predetermined condition. The object mapping means 46 maps the clothing texture image on the character surface using a clothing texture map. At this time, the effect expression reflecting means 49 performs an effect mapping by mapping the effect expression texture image obtained by the mask processing (a plurality of base texture images superimposed) so as to be superimposed on the character's clothing texture image. Expression is performed (step S6).

一方、条件判定処理において、キャラクタが所定の条件を満たさないと判定された場合(ステップS3でNo)、オブジェクトマッピング手段46は、キャラクタの表面上に、取得した衣服テクスチャ画像を衣服テクスチャマップを用いてそのままマッピングする(ステップS7)。   On the other hand, in the condition determination process, when it is determined that the character does not satisfy the predetermined condition (No in step S3), the object mapping unit 46 uses the acquired clothing texture image on the surface of the character as a clothing texture map. Mapping as it is (step S7).

このように、所定の条件を満すと判定された場合に、衣服テクスチャ画像上に条件に応じたエフェクト表現テクスチャ画像を重ねて表示させてエフェクト表現を実現することにより、エフェクト表現を衣服テクスチャ画像から独立して設定することができる。このため、衣服テクスチャ画像ごとにエフェクト表現が付加された場合のテクスチャ画像を別途用意する必要がなくなり、衣服テクスチャ画像の種類が増えてもエフェクト表現に関するデータ量の増大を抑制することができる。また、キャラクタに適用される複数の衣服テクスチャ画像に共通するエフェクト表現テクスチャマップを作成することにより、エフェクト表現テクスチャ画像の種類が増えても、すべての衣服テクスチャ画像に容易に適用することができるため、ゲーム作成の作業負担も軽減される。   In this way, when it is determined that the predetermined condition is satisfied, the effect expression is realized by superimposing the effect expression texture image corresponding to the condition on the clothes texture image to display the effect expression. Can be set independently. For this reason, there is no need to separately prepare a texture image when an effect expression is added for each clothing texture image, and an increase in the amount of data related to the effect expression can be suppressed even if the types of clothing texture images increase. In addition, by creating an effect expression texture map that is common to multiple clothing texture images applied to a character, even if the number of effect expression texture images increases, it can be easily applied to all clothing texture images. Also, the work burden of game creation is reduced.

以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない範囲内で種々の改良、変更、修正が可能である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various improvements, changes, and modifications can be made without departing from the spirit of the present invention.

例えば、上記実施形態においてはエフェクト表現テクスチャ画像が単色または透明である構成について説明したが、複数色が使用されたエフェクト表現テクスチャ画像を使用することとしてもよい。   For example, in the above-described embodiment, the configuration in which the effect expression texture image is single color or transparent has been described. However, an effect expression texture image in which a plurality of colors are used may be used.

また、上記実施形態においてはキャラクタの胴体部位におけるエフェクト表現テクスチャ画像について説明したが、衣服テクスチャ画像上であれば、腕部、足部、頭部などキャラクタのいずれの部位についても適用可能である。すなわち、例えばパンツやスカートなど下半身に纏う衣服を表す衣服テクスチャ画像にエフェクト表現を適用することとしてもよい。また、同じキャラクタであっても、全体的に衣服が異なっていてもよいし、上半身および下半身のいずれかの衣服が異なっていてもよい。上記構成によれば、キャラクタごとの衣服の相違にかかわらず同様のエフェクト表現をデータ量の増大を抑制しつつ適用することができる。   In the above-described embodiment, the effect expression texture image on the character's torso has been described. However, as long as it is on the clothing texture image, it can be applied to any part of the character such as the arm, foot, or head. That is, for example, the effect expression may be applied to a clothing texture image representing clothing worn on the lower body such as pants or a skirt. Moreover, even if it is the same character, clothes may differ as a whole, and one of the upper body and lower body clothes may be different. According to the above configuration, the same effect expression can be applied while suppressing an increase in the amount of data regardless of the difference in clothing for each character.

また、エフェクト表現を行うキャラクタは、敵キャラクタ(ノンプレイヤキャラクタ)であってもよいし、プレイヤキャラクタであってもよい。また、本発明は人型のキャラクタ以外のキャラクタ(例えば怪獣型、ロボット型など)にも適用可能である。衣服テクスチャの衣服には、例えば鎧、怪獣などの表皮、ロボットなどの外装なども含まれる。また、車や飛行機などの移動体もキャラクタに含まれる。   The character that expresses the effect may be an enemy character (non-player character) or a player character. The present invention can also be applied to characters other than human characters (for example, monster type, robot type, etc.). Examples of the clothing having clothing texture include an armor, a skin such as a monster, and an exterior such as a robot. In addition, moving objects such as cars and airplanes are also included in the character.

さらに、キャラクタ以外のオブジェクトである建物、路面、木、山、武器、盾などへも上記のようなエフェクト表現を行い得る。   Furthermore, the effect expression as described above can be performed on an object other than a character, such as a building, a road surface, a tree, a mountain, a weapon, or a shield.

また、エフェクト表現が適用される基準テクスチャ画像は、衣服テクスチャ画像に限られない。例えば、人型のキャラクタにおいては、皮膚(すなわちキャラクタの身体自体)であってもよい。この場合のエフェクト表現は、例えば、身体から赤い血が出る、青紫色の痣ができる、火傷によって皮膚が赤黒く変色するなどを身体表面上の変化をエフェクト表現テクスチャ画像として保持し、適用することができる。さらに、上述した衣服テクスチャ画像に適用されるエフェクト表現と皮膚のテクスチャ画像に適用されるエフェクト表現とを組み合せてもよい。これによれば、例えば、ダメージを受けた部位の衣服が破れるとともに、当該キャラクタの皮膚に傷ができたり、血が出るといったエフェクト表現が可能となる。   Further, the reference texture image to which the effect expression is applied is not limited to the clothing texture image. For example, in a humanoid character, it may be the skin (that is, the character's body itself). In this case, the effect expression can be applied by holding the change on the body surface as an effect expression texture image, such as red blood coming out of the body, bluish violet wrinkles, or skin changing to red and black due to burns. it can. Furthermore, the effect expression applied to the above-described clothing texture image may be combined with the effect expression applied to the skin texture image. According to this, for example, it is possible to express an effect that the clothes of the damaged part are torn and the skin of the character is damaged or blood is drawn.

さらに、この場合、エフェクト表現を行う条件を、攻撃の種類に応じて設定してもよい。例えば、選択手段48は、ナイフなどの鋭利な武器による攻撃の場合に、流血するエフェクト表現テクスチャ画像を選択し、ハンマーなどの鈍器による攻撃の場合には、痣を表現するエフェクト表現テクスチャ画像を選択し、火炎瓶などの火炎による攻撃の場合には、火傷を表現するエフェクト表現テクスチャ画像を選択する。   Further, in this case, the condition for effect expression may be set according to the type of attack. For example, the selection means 48 selects an effect expression texture image that sheds blood in the case of an attack with a sharp weapon such as a knife, and selects an effect expression texture image that expresses a spear in the case of an attack with a blunt instrument such as a hammer. In the case of an attack by a flame such as a flame bottle, an effect expression texture image that represents a burn is selected.

また、エフェクト表現は段階的に表現されるようにしてもよい。具体的には、エフェクト表現の条件として、例えばダメージを受けた回数または残りの体力などについて複数のしきい値を設定し、ダメージを受けた回数が多いほど、または残りの体力が少ないほど、より深刻なエフェクト表現(例えば流れ出る血の量がおおくなる、衣服の破れが大きくなるなど)を行うこととしてもよい。   The effect expression may be expressed in stages. Specifically, as the condition of effect expression, for example, multiple thresholds are set for the number of times of damage received or the remaining physical strength, etc., the more times the damage has been received or the lower the remaining physical strength, the more Serious effect expressions (for example, a large amount of blood flowing out, increased tearing of clothes, etc.) may be performed.

また、上記実施形態においては、エフェクト表現を行うための条件に、キャラクタがダメージを受けることが含まれる態様について説明したが、本発明はこれに限られない。例えば、キャラクタのいる環境の変化(例えば水がある場所に進入した場合のような位置の変化や、ゲーム空間内の時間の変化)に応じて当該キャラクタにエフェクト表現を行うこととしてもよい。   Moreover, although the said embodiment demonstrated the aspect in which the condition for performing an effect expression includes that a character receives damage, this invention is not limited to this. For example, the effect may be expressed on the character in accordance with a change in the environment where the character is present (for example, a change in position when water enters a place where there is water or a change in time in the game space).

このような環境の変化には、天候や場所などの変化に応じたエフェクト表現とすることも可能で有る。例えば、カーレースのゲームにおいて、車のボディの各部位への汚れの付着をエフェクト表現として実現することができる。例えば雨の状況でコースを1周することをエフェクト表現の条件として設定し、車がコースを1周するごとに汚れの付着部位を増やしたり、汚れの量を多くしたりすることができる。また、砂漠、泥、雪、海岸線など車が走行する路面状況に応じて異なるエフェクト表現(汚れの付着具合)とすることもできる。   Such changes in the environment can be expressed as an effect according to changes in the weather, location, and the like. For example, in a car racing game, the adhesion of dirt to each part of the car body can be realized as an effect expression. For example, one round of the course in the rainy condition can be set as a condition for effect expression, and each time the car goes around the course, the number of dirt can be increased or the amount of dirt can be increased. Also, different effect expressions (dirt adhesion) can be obtained depending on the road surface conditions such as desert, mud, snow, and coastline.

また、ゲーム空間内には、エフェクト表現が行われるキャラクタとエフェクト表現が行われないキャラクタとが並存してもよいし、キャラクタの種類に応じてエフェクト表現を行う部位を異ならせてもよい。また、同じ種類のキャラクタであっても、各キャラクタのエフェクト表現を行う部位を異ならせてもよい。この際、例えばゲーム空間にキャラクタを生成するときに当該キャラクタのエフェクト表現を行う部位をランダムに決定してもよいし、キャラクタごと、ステージごとに当該キャラクタのエフェクト表現を行う部位を予め設定することとしてもよい。   Further, in the game space, a character for which effect expression is performed and a character for which effect expression is not performed may coexist, or portions where effect expression is performed may be varied depending on the type of character. Moreover, even if it is the same kind of character, you may vary the site | part which performs the effect expression of each character. At this time, for example, when generating a character in the game space, a part for effect expression of the character may be determined at random, or a part for effect expression of the character for each character or stage may be set in advance. It is good.

また、上記実施形態においては、キャラクタを構成する複数の部位のうちの3つの部位(右脇腹部位、左脇腹部位および胸部位)においてエフェクト表現が行われるように設定されているが、本発明はこれに限られない。例えば、キャラクタを構成する複数の部位のうちの少なくとも1つの部位においてエフェクト表現を行えるように設定してもよいし、キャラクタを構成する複数の部位のすべてにおいてエフェクト表現を行えるように設定してもよいし、キャラクタを複数の部位に区分せずに、キャラクタ全体で部位によらず1つのエフェクト表現を行えるようにしてもよい。   In the above embodiment, the effect expression is set to be performed in three parts (a right flank part, a left flank part, and a chest part) among a plurality of parts constituting the character. It is not limited to this. For example, it may be set so that the effect expression can be performed in at least one part of the plurality of parts constituting the character, or the effect expression can be performed in all of the plurality of parts constituting the character. Alternatively, the character may be divided into a plurality of parts, and one effect expression may be performed regardless of the part throughout the character.

より多くの部位においてエフェクト表現を行う場合には、必要な数(異なるエフェクト表現が必要な部位の数)のベーステクスチャ画像を格納できる専用のデータ構造を構築することとしてもよい。また、上述したRGBαの4チャンネルのそれぞれにベーステクスチャ画像を格納する構成においても、データの格納態様を工夫することにより、5つ以上の部位に対して異なるエフェクト表現を行うことが可能である。例えば、RGBαのうちの1つのチャンネルに上腕部位および下腕部位の2箇所のベーステクスチャ画像を格納するとともに、基準テクスチャデータにおいては、当該上腕部位と下腕部位とを別部位(別パーツ)として構成し、エフェクト表現を行う条件を上腕部位と下腕部位とで分けることで、実現できる。。   When effect expression is performed in more parts, a dedicated data structure that can store a required number of base texture images (the number of parts that require different effect expressions) may be constructed. Even in the configuration in which the base texture image is stored in each of the four channels of RGBα described above, it is possible to express different effects for five or more parts by devising the data storage mode. For example, two base texture images of an upper arm part and a lower arm part are stored in one channel of RGBα, and in the reference texture data, the upper arm part and the lower arm part are set as different parts (separate parts). This is realized by dividing the condition for effect expression into the upper arm part and the lower arm part. .

なお、1つのキャラクタに対して部位によらず1つのエフェクト表現を行う場合においても、エフェクト表現の種類(現象)に応じて複数種類のエフェクト表現テクスチャデータを備えることとしてもよい。1つのキャラクタに対して部位によらず1つのエフェクト表現を行う場合には、複数のベーステクスチャ画像は不要であり、図13に示すフローチャートのうち、エフェクト表現テクスチャデータにマスク処理を行うステップS4は不要となる。   Note that even when one effect expression is performed for one character regardless of the part, a plurality of types of effect expression texture data may be provided according to the type (phenomenon) of the effect expression. When one effect expression is performed on one character regardless of the part, a plurality of base texture images are not necessary, and step S4 of performing mask processing on the effect expression texture data in the flowchart shown in FIG. It becomes unnecessary.

また、上述した説明では、一人のプレイヤがオフラインゲームを行う場合について例示したが、本発明は、複数のプレイヤが各自のプレイヤキャラクタを同一のゲーム空間内に登場させ、これらを協力させて行動させるオンラインゲームにおいても適用することができる。   In the above description, the case where one player plays an offline game has been exemplified. However, in the present invention, a plurality of players cause their player characters to appear in the same game space and act in cooperation with each other. It can also be applied to online games.

また、本実施形態では据え置き型のゲーム装置について説明したが、携帯型のゲーム装置、携帯電話機、およびパーソナルコンピュータなどのコンピュータについても、本発明を好適に適用することができる。   Further, although the stationary game apparatus has been described in the present embodiment, the present invention can be preferably applied to computers such as portable game apparatuses, mobile phones, and personal computers.

本発明は、ゲームプログラムおよびゲームシステムにおいて、データ量の増大を抑制しつつキャラクタに多様なエフェクト表現を付与するために有用である。   INDUSTRIAL APPLICABILITY The present invention is useful for giving a variety of effect expressions to a character while suppressing an increase in data amount in a game program and a game system.

2 ゲーム装置
30a ゲームプログラム
30b ゲームデータ
44 基準テクスチャデータ取得手段
45 エフェクト表現テクスチャデータ取得手段
46 オブジェクトマッピング手段
47 条件判定手段
48 選択手段
49 エフェクト表現反映手段
2 game device 30a game program 30b game data 44 reference texture data acquisition means 45 effect expression texture data acquisition means 46 object mapping means 47 condition determination means 48 selection means 49 effect expression reflection means

Claims (2)

コンピュータを、
三次元で表現されるオブジェクトのための当該オブジェクトの少なくとも一部の特性が互いに異なる複数の基準テクスチャ画像と、前記オブジェクト表面の三次元座標との相関関係を示す二次元の基準テクスチャマップとを含む基準テクスチャデータを取得する基準テクスチャデータ取得手段、
前記基準テクスチャ画像上に表現されるエフェクト表現テクスチャ画像と、前記基準テクスチャの三次元座標との相関関係を示す二次元のエフェクト表現テクスチャマップとを含むエフェクト表現テクスチャデータを取得するエフェクト表現テクスチャデータ取得手段、
前記基準テクスチャ画像を前記基準テクスチャマップを用いてマッピングするオブジェクトマッピング手段、
所定の場合に、前記エフェクト表現テクスチャマップを用いて、前記オブジェクトマッピング手段によりマッピングされた前記基準テクスチャ画像に前記エフェクト表現テクスチャ画像を合成するようにマッピングすることにより、エフェクト表現を行うエフェクト表現反映手段、として機能させ、
前記エフェクト表現テクスチャ画像は、前記複数の基準テクスチャ画像の少なくとも一部に共通して適用可能に構成され
前記複数の基準テクスチャ画像は、三次元で表現されるキャラクタのための複数の衣服テクスチャ画像であり、
前記エフェクト表現テクスチャ画像は、キャラクタを構成する複数の部位のうち少なくとも2つの部位に応じた少なくとも2つのベーステクスチャ画像を備え、
前記エフェクト表現テクスチャマップは、当該少なくとも2つのベーステクスチャ画像が互いに重ね合わせられるように、構成され、
前記コンピュータを、
前記キャラクタが前記所定の条件を満たすかどうかを判定する条件判定手段、および
前記条件判定手段が前記所定の条件を満たすと判断した場合に、前記条件に応じて、前記複数のベーステクスチャ画像のうちの少なくとも1つを選択する選択手段として機能させ、
前記エフェクト表現反映手段は、前記条件判定手段が前記所定の条件を満たすと判断した場合に、当該エフェクト表現テクスチャデータを構成する少なくとも2つのベーステクスチャ画像のうちエフェクト表現を行う部位に対応する前記ベーステクスチャ画像を前記エフェクト表現テクスチャマップを用いて前記衣服テクスチャ画像に重ね合わせるようにマッピングする、ゲームプログラム。
Computer
A plurality of reference texture images having different characteristics of at least a part of the object for the object expressed in three dimensions, and a two-dimensional reference texture map indicating a correlation between the three-dimensional coordinates of the object surface Reference texture data acquisition means for acquiring reference texture data;
Effect expression texture data acquisition for acquiring effect expression texture data including an effect expression texture image expressed on the reference texture image and a two-dimensional effect expression texture map indicating a correlation between the three-dimensional coordinates of the reference texture means,
Object mapping means for mapping the reference texture image using the reference texture map;
Effect expression reflecting means for performing effect expression by mapping the effect expression texture image to the reference texture image mapped by the object mapping means using the effect expression texture map in a predetermined case Function as,
The effect expression texture image is configured to be commonly applicable to at least a part of the plurality of reference texture images ,
The plurality of reference texture images are a plurality of clothing texture images for a character expressed in three dimensions,
The effect expression texture image includes at least two base texture images corresponding to at least two parts among a plurality of parts constituting the character,
The effect expression texture map is configured such that the at least two base texture images are superimposed on each other,
The computer,
Condition determining means for determining whether the character satisfies the predetermined condition; and
When the condition determining unit determines that the predetermined condition is satisfied, the condition determining unit functions as a selecting unit that selects at least one of the plurality of base texture images according to the condition,
The effect expression reflecting means, when the condition determining means determines that the predetermined condition is satisfied, the base corresponding to a portion where effect expression is performed among at least two base texture images constituting the effect expression texture data. it mapped as superimposed on the garment texture image texture image using the effect representation texture map, the game program.
請求項1に記載のゲームプログラムを記憶したプログラム記憶部と、
前記プログラム記憶部に記憶されたプログラムを実行するコンピュータとを備えた、ゲームシステム。
A program storage unit storing the game program according to claim 1 ;
A game system comprising: a computer that executes a program stored in the program storage unit.
JP2012081204A 2012-03-30 2012-03-30 Game program and game system Active JP5860329B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012081204A JP5860329B2 (en) 2012-03-30 2012-03-30 Game program and game system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012081204A JP5860329B2 (en) 2012-03-30 2012-03-30 Game program and game system

Publications (2)

Publication Number Publication Date
JP2013210881A JP2013210881A (en) 2013-10-10
JP5860329B2 true JP5860329B2 (en) 2016-02-16

Family

ID=49528638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012081204A Active JP5860329B2 (en) 2012-03-30 2012-03-30 Game program and game system

Country Status (1)

Country Link
JP (1) JP5860329B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109603151A (en) 2018-12-13 2019-04-12 腾讯科技(深圳)有限公司 Skin display methods, device and the equipment of virtual role

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3752081B2 (en) * 1994-08-22 2006-03-08 株式会社ナムコ 3D simulator apparatus and image composition method
JPH10198821A (en) * 1996-11-07 1998-07-31 Sega Enterp Ltd Image processor, image processing method, and recording medium
JP3292713B2 (en) * 1999-09-07 2002-06-17 株式会社ナムコ Image generation system and information storage medium
JP2010029398A (en) * 2008-07-28 2010-02-12 Namco Bandai Games Inc Program, information storage medium and image generation system

Also Published As

Publication number Publication date
JP2013210881A (en) 2013-10-10

Similar Documents

Publication Publication Date Title
JP4668655B2 (en) Program, information storage medium, and image generation system
JP5507893B2 (en) Program, information storage medium, and image generation system
JP4387429B2 (en) Image generating apparatus and method, program, and recording medium
JP4099434B2 (en) Image generation program and game device
JP4350773B2 (en) Image generating apparatus and method, program, and recording medium
EP1795245B1 (en) Storage medium having game program stored therein and game apparatus
JP4382117B2 (en) Image generating apparatus and method, program, and recording medium
CA2805101C (en) Computer networked multi-player character gaming system
JP2010029398A (en) Program, information storage medium and image generation system
JP5469516B2 (en) Image display program, image display system, image display method, and image display apparatus
WO2018124280A1 (en) Simulation system, image processing method, and information storage medium
JP2015116336A (en) Mixed-reality arena
EP2000189B1 (en) Video image generating device, character appearance changing method, information recording medium, and program
JP2019152899A (en) Simulation system and program
JP3990648B2 (en) Program, information storage medium, and image generation apparatus
JP5860329B2 (en) Game program and game system
JP2004073741A (en) Game program
JP5479686B2 (en) Game program and game system
US11369877B2 (en) Computer-readable non-transitory storage medium having game program stored therein, game apparatus, game system, and game processing method for providing user interface showing change in parameter corresponding to an additional item
JP2009201854A5 (en)
JP4553907B2 (en) Video game system and storage medium for video game
US10245511B2 (en) Non transitory computer-readable storage medium and method of controlling a computer
JP4349932B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP3921361B2 (en) Video game system and storage medium for video game
JP2005279133A (en) Game device and game program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151218

R150 Certificate of patent or registration of utility model

Ref document number: 5860329

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250