JP2012234441A - Program, information storage medium, image generation system and server system - Google Patents

Program, information storage medium, image generation system and server system Download PDF

Info

Publication number
JP2012234441A
JP2012234441A JP2011103730A JP2011103730A JP2012234441A JP 2012234441 A JP2012234441 A JP 2012234441A JP 2011103730 A JP2011103730 A JP 2011103730A JP 2011103730 A JP2011103730 A JP 2011103730A JP 2012234441 A JP2012234441 A JP 2012234441A
Authority
JP
Japan
Prior art keywords
color change
processing
color
effect
change processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011103730A
Other languages
Japanese (ja)
Inventor
Yoshiki Domae
嘉樹 堂前
Jun Nagase
潤 永瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2011103730A priority Critical patent/JP2012234441A/en
Publication of JP2012234441A publication Critical patent/JP2012234441A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a program, an information storage medium and an image generation system capable of reflecting a discoloration processing parameter of a first object on a second object.SOLUTION: An image generation system includes: an event determination unit for determining the occurrence of a contact event in which a first object comes into contact with a second object; a discoloration processing unit for obtaining a discoloration processing parameter set for the first object and performing discoloration processing in accordance with the obtained discoloration processing parameter on an area of the second object corresponding to a contact position of the first object when the contact event occurs between the first object and the second object; and an image generation unit for generating an image viewed from a virtual camera in an object space where plural objects including the first and second objects are arranged and set.

Description

本発明は、プログラム、情報記憶媒体、画像生成システム及びサーバシステム等に関する。   The present invention relates to a program, an information storage medium, an image generation system, a server system, and the like.

従来より、キャラクタ等のモデルオブジェクトが配置設定されるオブジェクト空間内(仮想的な3次元空間)において仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。格闘ゲームを楽しむことができる画像生成システムを例にとれば、プレーヤは、操作部(ゲームコントローラ)を用いてキャラクタ(モデルオブジェクト)を操作し、相手プレーヤやコンピュータが操作する他キャラクタ(敵キャラクタ)と対戦することでゲームを楽しむ。   Conventionally, there has been known an image generation system (game system) that generates an image that can be seen from a virtual camera (a given viewpoint) in an object space (virtual three-dimensional space) in which model objects such as characters are arranged and set. It is popular as a place to experience so-called virtual reality. Taking an image generation system capable of enjoying a fighting game as an example, a player operates a character (model object) using an operation unit (game controller), and another character (enemy character) operated by the opponent player or the computer. Enjoy the game by playing against.

このような画像生成システムでは、例えばモデルオブジェクトの表面の汚れについてもリアルに表現できることが望ましい。例えばモデルオブジェクトであるキャラクタの衣服や体の汚れについてもリアルに表現できれば、プレーヤの仮想現実感をより一層向上できる。このような汚れ処理を実現する従来技術としては、例えば特許文献1に開示される技術がある。   In such an image generation system, it is desirable that the surface of the model object can be realistically expressed, for example. For example, if the clothes and body dirt of a character that is a model object can be expressed realistically, the virtual reality of the player can be further improved. As a conventional technique for realizing such a dirt treatment, there is a technique disclosed in Patent Document 1, for example.

しかしながら、従来の汚れ処理では、キャラクタの衣服や体の汚れについては、ある程度リアルに表現できるが、キャラクタの衣服や体の汚れが他のオブジェクトに付着したり、キャラクタの汚れが水で流れ落ちるなどの画像表現を実現することはできなかった。   However, with the conventional dirt process, the character's clothes and body dirt can be expressed to some extent realistic, but the character's clothes and body dirt may adhere to other objects, and the character's dirt may be washed away by water. Image representation could not be realized.

特開2001−167291号公報JP 2001-167291 A

本発明の幾つかの態様によれば、第1のオブジェクトの変色処理用パラメータを第2のオブジェクトに反映させることができるプログラム、情報記憶媒体、画像生成システム及びサーバシステム等を提供できる。   According to some aspects of the present invention, it is possible to provide a program, an information storage medium, an image generation system, a server system, and the like that can reflect the color change processing parameter of the first object on the second object.

本発明の一態様は、第1のオブジェクトが第2のオブジェクトに接触する接触イベントの発生を判定するイベント判定部と、前記第1のオブジェクトと前記第2のオブジェクトの前記接触イベントが発生した場合に、前記第1のオブジェクトに対して設定された変色処理用パラメータを取得し、取得された前記変色処理用パラメータに応じた変色処理を、前記第1のオブジェクトの接触位置に対応する前記第2のオブジェクト上の領域に対して行う変色処理部と、前記第1、第2のオブジェクトを含む複数のオブジェクトが配置設定されるオブジェクト空間において、仮想カメラから見える画像を生成する画像生成部とを含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   According to one aspect of the present invention, an event determination unit that determines the occurrence of a contact event in which a first object contacts a second object, and the case where the contact event of the first object and the second object occurs In addition, the color change processing parameter set for the first object is acquired, and the color change processing corresponding to the acquired color change processing parameter is performed according to the second object corresponding to the contact position of the first object. A color change processing unit that performs an area on the object, and an image generation unit that generates an image viewed from a virtual camera in an object space in which a plurality of objects including the first and second objects are arranged and set. Related to image generation system. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、第1、第2のオブジェクトの接触イベントが発生すると、第1のオブジェクトに対して設定された変色処理用パラメータが取得される。そして取得された変色処理用パラメータに応じた変色処理が、接触位置に対応する第2のオブジェクト上の領域に対して行われて、オブジェクト空間において、仮想カメラから見える画像が生成される。このようにすれば、第1のオブジェクトの変色処理用パラメータを第2のオブジェクトに反映させて、第2のオブジェクト上の領域を変色させる処理等を実現できるようになり、よりリアルで仮想現実感の高い画像の生成が可能になる。   According to one aspect of the present invention, when a contact event of the first and second objects occurs, the parameter for color change processing set for the first object is acquired. Then, a color change process corresponding to the acquired color change process parameter is performed on the area on the second object corresponding to the contact position, and an image that can be seen from the virtual camera is generated in the object space. In this way, it is possible to realize a process of reflecting the color change processing parameter of the first object to the second object and changing the color of the area on the second object. A high-quality image can be generated.

また本発明の一態様では、前記変色処理部は、前記変色処理が行われる前記第2のオブジェクト上の変色領域の大きさを、前記接触位置から時間経過に伴い拡大する処理を行ってもよい。   In the aspect of the invention, the color change processing unit may perform a process of enlarging the size of the color change area on the second object on which the color change process is performed with the passage of time from the contact position. .

このようにすれば、接触イベントの発生後に変色領域が徐々に拡大して行くような画像が生成されるため、更にリアルな第2のオブジェクトの変色画像を生成できる。   In this way, an image in which the discoloration area gradually expands after the occurrence of the contact event is generated, so that a more realistic discoloration image of the second object can be generated.

また本発明の一態様では、前記変色処理用パラメータは、前記第1のオブジェクトの変色処理用のパラメータであり、前記変色処理部は、前記接触イベントが発生している期間において、前記変色処理が行われる前記第2のオブジェクト上の前記変色領域の大きさを、時間経過に伴い拡大する処理を行うと共に、前記変色処理用パラメータにより設定される前記第1のオブジェクトの変色の色を、時間経過に伴い減衰させる処理を行ってもよい。   In the aspect of the invention, the color change processing parameter is a parameter for color change processing of the first object, and the color change processing unit performs the color change processing in a period in which the contact event occurs. A process of enlarging the size of the color change region on the second object to be performed as time elapses is performed, and the color change color of the first object set by the parameter for color change processing is changed over time. Attenuating processing may be performed along with this.

このようにすれば、第1のオブジェクトの変色処理に使用する変色処理用パラメータを有効活用して、第2のオブジェクトの変色処理を実現できる。そして、第2のオブジェクトが変色する一方で、第1のオブジェクトについては変色の色が徐々に減衰するような画像表現を実現できるようになる。   In this way, the color change processing of the second object can be realized by effectively utilizing the color change processing parameters used for the color change processing of the first object. Then, while the second object changes color, it is possible to realize an image expression in which the color of the first object gradually attenuates.

また本発明の一態様では、前記変色処理部は、前記接触イベントが発生した場合に、前記第1のオブジェクトを構成する複数の頂点のうち、前記第2のオブジェクトと接触したと判定された頂点に対して設定された前記変色処理用パラメータに応じた変色処理を、前記接触位置に対応する前記第2のオブジェクト上の領域に対して行ってもよい。   In the aspect of the invention, the discoloration processing unit may be a vertex that is determined to be in contact with the second object among a plurality of vertices constituting the first object when the contact event occurs. The color change processing according to the color change processing parameters set for the image may be performed on the area on the second object corresponding to the contact position.

このようにすれば、第1のオブジェクトを構成する頂点に対して設定された変色処理用パラメータに応じた変色処理を、第2のオブジェクト上の領域に対して行うことが可能になる。   In this way, it is possible to perform the color change process according to the color change process parameters set for the vertices constituting the first object on the area on the second object.

また本発明の一態様では、前記イベント判定部は、前記第1のオブジェクトを構成する複数の頂点の代表点と前記第2のオブジェクトとの位置関係に基づいて、前記第1のオブジェクトと前記第2のオブジェクトの前記接触イベントが発生したか否かを判定してもよい。   In the aspect of the invention, the event determination unit may determine whether the first object and the first object are based on a positional relationship between a representative point of a plurality of vertices constituting the first object and the second object. It may be determined whether the contact event of the second object has occurred.

このように頂点の代表点を用いて接触イベントの発生を判定することで、処理負荷の軽減等を図れるようになる。   Thus, by determining the occurrence of the contact event using the representative point of the vertex, the processing load can be reduced.

また本発明の一態様では、前記変色処理部は、前記第1のオブジェクトを構成する複数の頂点の代表点の位置情報に基づいて、前記第2のオブジェクト上の変色領域を特定し、特定された前記変色領域に対して前記変色処理を行ってもよい。   In the aspect of the invention, the color change processing unit may specify and specify a color change region on the second object based on position information of representative points of a plurality of vertices constituting the first object. The color change process may be performed on the color change region.

このようにすれば、頂点の位置情報を用いて第2のオブジェクト上の変色領域を特定する場合に比べて、少ない処理負荷で変色領域を特定できるようになる。   In this way, the discoloration area can be identified with a smaller processing load than when the discoloration area on the second object is identified using the vertex position information.

また本発明の一態様では、前記第1のオブジェクトの前記複数の頂点の前記代表点は、前記第1のオブジェクトのモーション処理用のスケルトンの関節であってもよい。   In the aspect of the invention, the representative point of the plurality of vertices of the first object may be a skeleton joint for motion processing of the first object.

このようにすれば、第1のオブジェクトのモーション処理用のスケルトンを有効活用して、接触イベントの判定処理や変色領域の特定処理等を実現できるようになる。   In this way, it is possible to realize a contact event determination process, a discoloration area specifying process, and the like by effectively utilizing the skeleton for motion processing of the first object.

また本発明の一態様では、前記変色処理部は、前記接触イベントが発生している期間において、前記第2のオブジェクトと接触したと判定された頂点の前記変色処理用パラメータの値を、時間経過に伴い減衰させる処理を行ってもよい。   In the aspect of the invention, the color change processing unit may use the color change processing parameter value of the vertex determined to have contacted the second object during a period in which the contact event is generated as time elapses. Attenuating processing may be performed along with this.

このようにすれば、接触イベントが発生している期間において、第1のオブジェクトの頂点の変色処理用パラメータの値を減衰させて、変色の色が減衰して行くような画像表現を実現できるようになる。   In this way, it is possible to realize an image representation in which the color of the color change is attenuated by attenuating the value of the color change processing parameter at the vertex of the first object during the period in which the contact event occurs. become.

また本発明の一態様では、前記第1のオブジェクトの前記接触位置に対応する前記第2のオブジェクト上の領域に対して、前記変色処理とは異なるエフェクト処理を行うエフェクト処理部を含んでもよい(エフェクト処理部としてコンピュータを機能させてもよい)。   In one aspect of the present invention, an effect processing unit may be included that performs an effect process different from the color change process on an area on the second object corresponding to the contact position of the first object. The computer may function as an effect processing unit).

このようにすれば、第2のオブジェクトの変色処理と連動させて、この変色処理とは異なるエフェクト処理を第2のオブジェクトに対して行うことが可能になる。   In this way, in conjunction with the color change process of the second object, an effect process different from the color change process can be performed on the second object.

また本発明の一態様では、前記変色処理部は、前記変色処理が行われる前記第2のオブジェクト上の変色領域の大きさを、前記接触位置から時間経過に伴い拡大する処理を行い、前記エフェクト処理部は、前記エフェクト処理が行われる前記第2のオブジェクト上のエフェクト領域の大きさを、前記接触位置から時間経過に伴い拡大する処理を行ってもよい。   In the aspect of the invention, the color change processing unit performs a process of expanding the size of the color change area on the second object on which the color change process is performed with time from the contact position, and the effect. The processing unit may perform a process of expanding the size of the effect area on the second object on which the effect process is performed from the contact position as time passes.

このようにすれば、第2のオブジェクトの変色処理が行われる変色領域が徐々に拡大すると共に、第2のオブジェクトのエフェクト処理が行われるエフェクト領域も徐々に拡大するような画像を生成できるようになる。   In this way, it is possible to generate an image in which the discoloration area where the discoloration process of the second object is performed is gradually enlarged and the effect area where the effect process of the second object is performed is also gradually enlarged. Become.

また本発明の一態様では、前記第2のオブジェクトは、液体を表すオブジェクトであり、前記エフェクト処理部は、前記エフェクト処理として、前記液体の波紋のエフェクト処理を行ってもよい。   In the aspect of the invention, the second object may be an object representing a liquid, and the effect processing unit may perform the effect process of the ripples of the liquid as the effect process.

このようにすれば、第2のオブジェクトが液体である場合に、第1のオブジェクトが液体に接触することによる液体の変色処理と液体に発生する波紋のエフェクト処理とを連動して行うことが可能になる。   In this way, when the second object is a liquid, it is possible to perform the color change process of the liquid caused by the first object coming into contact with the liquid and the effect process of the ripples generated in the liquid in conjunction with each other. become.

また本発明の一態様では、前記エフェクト処理部は、前記波紋のエフェクト処理として、前記液体の屈折率の変化を表すエフェクト処理を行ってもよい。   In the aspect of the invention, the effect processing unit may perform an effect process representing a change in the refractive index of the liquid as the ripple effect process.

このようにすれば、液体の屈折率の変化を表すエフェクト処理を行うことで、液体の波紋を表す画像を生成できるようになる。   In this way, it is possible to generate an image representing the ripples of the liquid by performing the effect processing representing the change in the refractive index of the liquid.

また本発明の一態様では、エフェクト処理用テクスチャを記憶するテクスチャ記憶部を含み(テクスチャ記憶部としてコンピュータを機能させ)、前記エフェクト処理部は、前記エフェクト処理用テクスチャの所定チャンネル成分に対して設定されるエフェクト処理用パラメータを用いて、前記第2のオブジェクトの前記エフェクト処理を行い、前記変色処理部は、前記エフェクト処理用テクスチャの前記所定チャンネル成分とは異なる他のチャンネル成分に対して設定される変色処理用パラメータを用いて、前記第2のオブジェクトの前記変色処理を行ってもよい。   Further, according to one aspect of the present invention, a texture storage unit that stores the texture for effect processing is included (the computer is caused to function as the texture storage unit), and the effect processing unit is set for a predetermined channel component of the texture for effect processing The effect processing of the second object is performed using the effect processing parameter, and the discoloration processing unit is set for another channel component different from the predetermined channel component of the effect processing texture. The discoloration process of the second object may be performed using the discoloration process parameter.

このようにすれば、エフェクト処理用テクスチャを有効活用して、第2のオブジェクトのエフェクト処理のみならず、第2のオブジェクトの変色処理も実現できるようになり、テクスチャの使用記憶容量の節約等を図れるようになる。   In this way, it is possible to effectively use the texture for effect processing to realize not only the effect processing of the second object but also the color change processing of the second object, saving the storage capacity of the texture, etc. It will be able to plan.

また本発明の一態様では、前記エフェクト処理部は、前記エフェクト処理用テクスチャの前記所定チャンネル成分に対して設定されるエフェクト処理用法線情報パラメータを用いて、前記第2のオブジェクトの前記エフェクト処理を行ってもよい。   In the aspect of the invention, the effect processing unit may perform the effect processing of the second object using an effect processing normal information parameter set for the predetermined channel component of the effect processing texture. You may go.

このようにすれば、エフェクト処理用テクスチャに設定されたエフェクト処理用法線情報パラメータを用いて、第2のオブジェクトのエフェクト処理を実現できるようになる。   In this way, the effect processing of the second object can be realized using the effect processing normal information parameter set in the effect processing texture.

また本発明の一態様では、エフェクト処理用テクスチャと変色処理用テクスチャを記憶するテクスチャ記憶部を含み(テクスチャ記憶部としてコンピュータを機能させ)、前記エフェクト処理部は、前記エフェクト処理用テクスチャのチャンネル成分に対して設定されるエフェクト処理用パラメータを用いて、前記第2のオブジェクトの前記エフェクト処理を行い、前記変色処理部は、前記変色処理用テクスチャのチャネル成分に対して設定される変色処理用パラメータを用いて、前記第2のオブジェクトの前記変色処理を行ってもよい。   In one aspect of the present invention, the image processing apparatus includes a texture storage unit that stores the texture for effect processing and the texture for color change processing (the computer functions as the texture storage unit), and the effect processing unit includes channel components of the texture for effect processing. The effect processing of the second object is performed using the effect processing parameter set for the color change processing unit, and the color change processing unit sets the color change processing parameter set for the channel component of the color change processing texture The discoloration process of the second object may be performed using.

このようにすれば、エフェクト処理用テクスチャとは別個に用意された変色処理用テクスチャを用いて、第2のオブジェクトの変色処理を実現できるようになるため、より多彩で高精細な画像の生成が可能になる。   In this way, the discoloration processing of the second object can be realized using the discoloration processing texture prepared separately from the effect processing texture, so that more diverse and high-definition images can be generated. It becomes possible.

また本発明の一態様では、前記第1のオブジェクトは、ゲームに登場するキャラクタを表すオブジェクトであり、前記第2のオブジェクトは、液体を表すオブジェクトであり、前記変色処理部は、前記キャラクタの前記変色処理用パラメータに基づいて、前記キャラクタの表面を変色させる処理を行うと共に、前記キャラクタが前記液体に浸かる前記接触イベントが発生した場合に、前記キャラクタの各部分のうち、前記液体に浸かった部分の前記変色処理用パラメータに基づいて、前記液体を変色させる処理を行ってもよい。   In the aspect of the invention, the first object may be an object representing a character appearing in a game, the second object may be an object representing a liquid, and the color change processing unit may include the character of the character. The portion of the character that has been immersed in the liquid when the contact event that causes the character to be discolored and the character is immersed in the liquid is performed based on the color change processing parameter. A process for changing the color of the liquid may be performed based on the color change processing parameter.

このようにすれば、キャラクタが液体に浸かることで、液体が変色するような画像が生成されるようになり、従来にない画像表現が可能になる。   In this way, when the character is immersed in the liquid, an image in which the liquid changes color is generated, and an unprecedented image expression becomes possible.

また本発明の一態様では、前記変色処理部は、前記キャラクタの各部分のうち、前記液体に浸かった部分については、前記変色処理用パラメータによる変色の色を、減衰させる処理を行ってもよい。   In the aspect of the invention, the color change processing unit may perform a process of attenuating the color change by the color change processing parameter for each part of the character immersed in the liquid. .

このようにすれば、キャラクタが液体に浸かることで液体が変色すると共に、キャラクタの変色の色についても減衰するような表現の画像を生成できるようになる。   In this way, it is possible to generate an image having an expression in which the color of the character changes when the character is immersed in the liquid and the color of the character is attenuated.

また本発明の他の態様は、第1のオブジェクトが第2のオブジェクトに接触する接触イベントの発生を判定するイベント判定部と、前記第1のオブジェクトと前記第2のオブジェクトの前記接触イベントが発生した場合に、前記第1のオブジェクトに対して設定された変色処理用パラメータを取得し、取得された前記変色処理用パラメータに応じた変色処理を、前記第1のオブジェクトの接触位置に対応する前記第2のオブジェクト上の領域に対して行う変色処理部と、前記第1、第2のオブジェクトを含む複数のオブジェクトが配置設定されるオブジェクト空間において、仮想カメラから見える画像を生成するための画像生成用データを生成する画像生成用データ生成部とを含むサーバシステムに関係する。   According to another aspect of the present invention, there is provided an event determination unit that determines the occurrence of a contact event in which the first object contacts the second object, and the contact event of the first object and the second object is generated. In this case, the parameter for color change processing set for the first object is acquired, and the color change processing corresponding to the acquired parameter for color change processing is performed in accordance with the contact position of the first object. Image generation for generating an image that can be viewed from a virtual camera in an object space in which a plurality of objects including the first and second objects are arranged and set for an area on the second object. The present invention relates to a server system including an image generation data generation unit that generates image data.

本実施形態の画像生成システムの構成例。1 is a configuration example of an image generation system according to the present embodiment. 本実施形態のサーバシステムの構成例。The structural example of the server system of this embodiment. 図3(A)、図3(B)は本実施形態の変色処理手法の説明図。3A and 3B are explanatory diagrams of the color change processing method of the present embodiment. 図4(A)〜図4(C)も本実施形態の変色処理手法の説明図。FIG. 4A to FIG. 4C are also explanatory diagrams of the color change processing method of this embodiment. 図5(A)、図5(B)は本実施形態により生成されたゲーム画像の例。5A and 5B are examples of game images generated according to the present embodiment. 図6(A)、図6(B)も本実施形態により生成されたゲーム画像の例。FIG. 6A and FIG. 6B are also examples of game images generated by this embodiment. 図7(A)、図7(B)も本実施形態により生成されたゲーム画像の例。FIG. 7A and FIG. 7B are also examples of game images generated by this embodiment. 本実施形態により生成されたゲーム画像の例。The example of the game image produced | generated by this embodiment. 図9(A)、図9(B)は頂点データ等の説明図。FIGS. 9A and 9B are explanatory diagrams of vertex data and the like. 図10(A)、図10(B)は頂点の代表点として関節を用いる手法の説明図。FIG. 10A and FIG. 10B are explanatory diagrams of a method using a joint as a representative point of a vertex. 図11(A)、図11(B)は頂点の汚れ色の減衰処理等の説明図。FIG. 11A and FIG. 11B are explanatory diagrams such as a process for attenuating the stain color at the apex. キャラクタのモーションデータ(スケルトン情報)の説明図。Explanatory drawing of the motion data (skeleton information) of a character. 図13(A)、図13(B)は波紋処理用テクスチャや汚れ処理用テクスチャを用いる手法の説明図。FIGS. 13A and 13B are explanatory diagrams of a method using a ripple processing texture and a stain processing texture. 波紋領域や汚れ領域を時間経過に伴い拡大する手法の説明図。Explanatory drawing of the method of expanding a ripple area | region and a dirt area | region with progress of time. 図15(A)、図15(B)は法線情報パラメータの説明図。15A and 15B are explanatory diagrams of normal information parameters. 図16(A)〜図16(C)は法線情報パラメータを用いた水面の屈折画像や反射画像の生成手法の説明図。FIGS. 16A to 16C are explanatory diagrams of a method for generating a refraction image and a reflection image of a water surface using normal line information parameters. 本実施形態により生成された水面画像の例。The example of the water surface image produced | generated by this embodiment. 本実施形態の処理を説明するフローチャート。The flowchart explaining the process of this embodiment. 本実施形態の処理を説明するフローチャート。The flowchart explaining the process of this embodiment. 本実施形態の処理を説明するフローチャート。The flowchart explaining the process of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の画像生成システム(ゲーム装置)のブロック図の例を示す。なお、本実施形態の画像生成システムの構成は図1に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Configuration FIG. 1 shows an example of a block diagram of an image generation system (game device) of the present embodiment. Note that the configuration of the image generation system of the present embodiment is not limited to that shown in FIG. 1, and various modifications may be made such as omitting some of the components (each unit) or adding other components. .

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、方向指示キー、操作ボタン、アナログスティック、レバー、各種センサ(角速度センサ、加速度センサ等)、マイク、或いはタッチパネル型ディスプレイなどにより実現できる。   The operation unit 160 is for a player to input operation data, and functions thereof are direction instruction keys, operation buttons, analog sticks, levers, various sensors (such as an angular velocity sensor and an acceleration sensor), a microphone, or a touch panel type. This can be realized with a display.

また操作部160は、例えばカラー画像センサやデプスセンサなどにより実現される画像センサを含む。なお操作部160の機能を画像センサだけで実現してもよい。   The operation unit 160 includes an image sensor realized by, for example, a color image sensor or a depth sensor. Note that the function of the operation unit 160 may be realized only by the image sensor.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(DRAM、VRAM)などにより実現できる。そしてゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (DRAM, VRAM) or the like. Then, the game program and game data necessary for executing the game program are held in the storage unit 170.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、HDD(ハードディスクドライブ)、或いはメモリ(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   An information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and functions thereof by an optical disk (CD, DVD), HDD (hard disk drive), memory (ROM, etc.), and the like. realizable. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by an LCD, an organic EL display, a CRT, a touch panel display, an HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

補助記憶装置194(補助メモリ、2次メモリ)は、記憶部170の容量を補うために使用される記憶装置であり、SDメモリーカード、マルチメディアカードなどのメモリーカードなどにより実現できる。   The auxiliary storage device 194 (auxiliary memory, secondary memory) is a storage device used to supplement the capacity of the storage unit 170, and can be realized by a memory card such as an SD memory card or a multimedia card.

通信部196は、有線や無線のネットワークを介して外部(例えば他の画像生成システム、サーバ、ホスト装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (for example, another image generation system, a server, or a host device) via a wired or wireless network, and functions as a communication ASIC, a communication processor, or the like. It can be realized by hardware and communication firmware.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170、補助記憶装置194)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is obtained from an information storage medium of a server (host device) via an information storage medium 180 (or storage unit 170, auxiliary storage) via a network and communication unit 196. May be distributed to the device 194). Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs game processing, image generation processing, sound generation processing, and the like based on operation data from the operation unit 160, a program, and the like. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, GPU, etc.), ASIC (gate array, etc.), and programs.

処理部100は、ゲーム演算部102、オブジェクト空間設定部104、移動体演算部106、仮想カメラ制御部108、イベント判定部110、変色処理部112、エフェクト処理部114、画像生成部120、音生成部130を含む。なおこれらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 100 includes a game calculation unit 102, an object space setting unit 104, a moving body calculation unit 106, a virtual camera control unit 108, an event determination unit 110, a color change processing unit 112, an effect processing unit 114, an image generation unit 120, and sound generation. Part 130. Various modifications may be made such as omitting some of these components (each unit) or adding other components.

ゲーム演算部102はゲーム演算処理を行う。ここでゲーム演算としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The game calculation unit 102 performs game calculation processing. Here, as a game calculation, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for calculating a game result, or a process for ending a game when a game end condition is satisfied and so on.

オブジェクト空間設定部104は、複数のオブジェクトが配置されるオブジェクト空間の設定処理を行う。例えば、キャラクタ(人、動物、ロボット、車、船舶、飛行機等)、マップ(地形)、建物、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクトデータ記憶部172には、オブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等のデータであるオブジェクトデータがオブジェクト番号に対応づけて記憶される。オブジェクト空間設定部104は、例えば各フレーム毎にこのオブジェクトデータを更新する処理などを行う。   The object space setting unit 104 performs an object space setting process in which a plurality of objects are arranged. For example, various objects (polygon, free-form surface or sub-surface) representing display objects such as characters (people, animals, robots, cars, ships, airplanes, etc.), maps (terrain), buildings, courses (roads), trees, walls, water surfaces, etc. The object is configured to place and set objects (objects composed of primitive surfaces such as division surfaces) in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, the object data storage unit 172 of the storage unit 170 stores object data such as the position, rotation angle, moving speed, moving direction, etc. of the object (part object) in association with the object number. . The object space setting unit 104 performs a process of updating the object data for each frame, for example.

移動体演算部106は、キャラクタ、車等の移動体(移動体オブジェクト)を移動させるための制御処理を行う。また移動体を動作させるための制御処理を行う。即ち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(オブジェクト、モデルオブジェクト)をオブジェクト空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The moving body calculation unit 106 performs control processing for moving a moving body (moving body object) such as a character or a car. Also, control processing for operating the moving body is performed. That is, based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), etc., a moving body (object, model object) is moved in the object space, Performs control processing to move the moving body (motion, animation). Specifically, a simulation process for sequentially obtaining movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) of a moving body for each frame (1/60 second). I do. A frame is a unit of time for performing a moving / movement process (simulation process) and an image generation process of a moving object.

例えば移動体演算部106は、キャラクタ等のモデルオブジェクトにモーション(アニメーション)を行わせるモーション処理(モーション再生、モーション生成)を行う。このモーション処理は、モデルオブジェクトのモーションを、モーションデータ記憶部174に記憶されているモーションデータに基づいて再生することなどで実現できる。   For example, the moving body computing unit 106 performs motion processing (motion reproduction, motion generation) for causing a model object such as a character to perform motion (animation). This motion processing can be realized by reproducing the motion of the model object based on the motion data stored in the motion data storage unit 174.

仮想カメラ制御部108は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   The virtual camera control unit 108 performs control processing of a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.

例えば仮想カメラによりキャラクタを後方から撮影する場合には、キャラクタの位置又は方向の変化に仮想カメラが追従するように、仮想カメラの位置(視点位置)や方向(視線方向)を制御する。この場合には、移動体演算部106で得られたキャラクタの位置、方向又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は方向を特定するための仮想カメラデータに基づいて仮想カメラを制御する。   For example, when a character is photographed from behind using a virtual camera, the position (viewpoint position) and direction (gaze direction) of the virtual camera are controlled so that the virtual camera follows changes in the position or direction of the character. In this case, the virtual camera can be controlled based on information such as the position, direction, or speed of the character obtained by the moving body computing unit 106. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on virtual camera data for specifying the position (movement path) or direction of the virtual camera.

イベント判定部110は、ゲーム中の各種イベントの発生の判定処理を行う。変色処理部112は、オブジェクトの色を変色させるための処理を行う。エフェクト処理部114は、オブジェクトのエフェクト処理を行う。これらのイベント判定部110、変色処理部12、エフェクト処理部114の処理の詳細については後述する。   The event determination unit 110 performs a determination process of occurrence of various events during the game. The color change processing unit 112 performs processing for changing the color of an object. The effect processing unit 114 performs object effect processing. Details of the processes of the event determination unit 110, the color change processing unit 12, and the effect processing unit 114 will be described later.

画像生成部120は、処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ179(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   The image generation unit 120 performs drawing processing based on the results of various processing (game processing and simulation processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Then, based on this drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 179 (frame buffer, work buffer, etc. Draw in a buffer that can be stored. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

なお、画像生成部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。   Note that the drawing processing performed by the image generation unit 120 can be realized by vertex shader processing, pixel shader processing, or the like.

例えば頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、あるいは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。   For example, in vertex processing, geometry processing such as vertex movement processing, coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, or perspective transformation is performed in accordance with a vertex processing program (vertex shader program, first shader program). Based on the processing result, the vertex data given to the vertex group constituting the object is changed (updated or adjusted). Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel.

またピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャ記憶部176からのテクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ179に出力(描画)する。即ち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading from the texture storage unit 176 (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. Processing is performed to determine the final drawing color of the pixels constituting the image, and the drawing color of the perspective-transformed object is output (drawn) to the drawing buffer 179. That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現できる。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   The vertex processing and the pixel processing can be realized by hardware that enables a polygon (primitive) drawing process to be programmed by a shader program described in a shading language, that is, a so-called programmable shader (vertex shader or pixel shader). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

そして本実施形態ではイベント判定部(ヒット判定部)110は、第1のオブジェクトが第2のオブジェクトに接触する接触イベント(ヒットイベント)の発生を判定する。例えば第1のオブジェクトが第2のオブジェクトに接触してヒットしたか否かを判定する。具体的にはイベント判定部110は、第1のオブジェクトを構成する複数の頂点の代表点と、第2のオブジェクトとの位置関係に基づいて、第1のオブジェクトと第2のオブジェクトの接触イベントが発生したか否かを判定する。例えば第1のオブジェクトの頂点の代表点が、第2のオブジェクトに内包された場合に、第1、第2のオブジェクトの接触イベントが発生したと判定する。   In this embodiment, the event determination unit (hit determination unit) 110 determines the occurrence of a contact event (hit event) in which the first object contacts the second object. For example, it is determined whether or not the first object hits the second object. Specifically, the event determination unit 110 generates a contact event between the first object and the second object based on a positional relationship between the representative points of a plurality of vertices constituting the first object and the second object. It is determined whether or not it has occurred. For example, when the representative point of the vertex of the first object is included in the second object, it is determined that the contact event of the first and second objects has occurred.

ここで第1のオブジェクトは例えばキャラクタなどのモデルオブジェクトである。そして、第2のオブジェクトは、この第1のオブジェクトの接触対象となるオブジェクトであり、例えば水(水面)等の液体(液体面)を表すオブジェクトや、床、壁(床面、壁面)等などの固体物(固体面)を表すオブジェクトである。或いは第2のオブジェクトが、キャラクタなどのモデルオブジェクトであってもよい。なお、第2のオブジェクトは、実際に表示されるオブジェクトであってもよいし、接触イベント判定のために用いられる非表示のオブジェクトであってもよい。また、接触イベントにおける接触は、例えば第1のオブジェクトの表面と第2のオブジェクトの表面の接触であってもよいし、第1のオブジェクトの一部が第2のオブジェクトに入り込むような接触であってもよい。   Here, the first object is a model object such as a character. The second object is an object to be contacted with the first object. For example, an object representing a liquid (liquid surface) such as water (water surface), a floor, a wall (floor surface, wall surface), or the like. This is an object representing a solid object (solid surface). Alternatively, the second object may be a model object such as a character. Note that the second object may be an actually displayed object or a non-displayed object used for contact event determination. The contact in the contact event may be, for example, a contact between the surface of the first object and the surface of the second object, or a contact in which a part of the first object enters the second object. May be.

また、第1のオブジェクトの複数の頂点の代表点は、例えば第1のオブジェクトのモーション処理用のスケルトンの関節(関節点)である。即ち、モーションデータ記憶部174には、キャラクタなどの第1のオブジェクトのモーションデータが記憶されており、このモーションデータの再生処理を行うことで、第1のオブジェクトのモーション処理が行われる。そして、このモーション処理においては、第1のオブジェクトのスケルトンの情報が用いられ、スケルトンは、複数の骨(アーク)と、骨の間を接続する関節により構成され、この関節が頂点の代表点として用いられる。但し、代表点は、スケルトンの関節には限定されず、例えば複数の頂点のうちの1つをそれらの頂点の代表点として設定してもよい。   The representative points of the plurality of vertices of the first object are, for example, skeleton joints (joint points) for motion processing of the first object. In other words, the motion data storage unit 174 stores motion data of a first object such as a character, and the motion processing of the first object is performed by performing playback processing of the motion data. In this motion processing, information on the skeleton of the first object is used, and the skeleton is composed of a plurality of bones (arcs) and joints connecting the bones, and these joints are used as representative points of the vertices. Used. However, the representative point is not limited to the skeleton joint, and for example, one of a plurality of vertices may be set as the representative point of the vertices.

また変色処理部112は、第1のオブジェクトと第2のオブジェクトの接触イベントが発生した場合に、第1のオブジェクトに対して設定された変色処理用パラメータを取得(特定)する。そして、取得された変色処理用パラメータに応じた変色処理を、第1のオブジェクトの接触位置に対応する前記第2のオブジェクト上の領域(変色領域)に対して行う。具体的には変色処理部112は、接触イベントが発生した場合に、第1のオブジェクトを構成する複数の頂点のうち、第2のオブジェクトと接触したと判定された頂点に対して設定された変色処理用パラメータに応じた変色処理を、接触位置に対応する第2のオブジェクト上の領域(変色処理領域)に対して行う。また変色処理部112は、例えば第1のオブジェクトの頂点の代表点の位置情報に基づいて、第2のオブジェクト上の変色領域を特定し、特定された変色領域に対して変色処理を行う。例えば第1のオブジェクトの関節等の代表点が第2のオブジェクトと接触(内包)したか否かを判定し、接触(内包)したと判定された場合に、その代表点の位置情報(関節の位置情報)に基づいて、接触位置を特定して、変色領域を設定する。そして、設定された変色領域において第2のオブジェクトの色が変色する変色処理を行う。   Further, the color change processing unit 112 acquires (specifies) a color change processing parameter set for the first object when a contact event between the first object and the second object occurs. Then, the color change process corresponding to the acquired color change process parameter is performed on the area (color change area) on the second object corresponding to the contact position of the first object. Specifically, the color change processing unit 112 changes the color set for a vertex determined to have contacted the second object among a plurality of vertices constituting the first object when a contact event occurs. The color change process corresponding to the processing parameter is performed on the area (color change process area) on the second object corresponding to the contact position. In addition, the color change processing unit 112 specifies a color change area on the second object based on, for example, the position information of the representative point of the vertex of the first object, and performs the color change process on the specified color change area. For example, it is determined whether or not a representative point such as a joint of the first object has contacted (included) the second object. Based on the position information), the contact position is specified and the discoloration area is set. Then, a color change process for changing the color of the second object in the set color change area is performed.

ここで変色処理用パラメータは、変色処理を行うために使用されるパラメータであり、変色の色(狭義には汚れの色)を表す色パラメータ(例えばRGBの色データ)であってもよいし、変色の度合い(狭義には汚れ度合い)を表す変色度合いパラメータ(汚れ度合いパラメータ)であってもよい。また、第2のオブジェクトの変色処理を行う場合には、第1のオブジェクトの部分のうち、接触位置に対応する部分に設定された変色処理用パラメータを取得する。具体的には、第2のオブジェクトと接触したと判定された頂点(接触位置に対応する部分の頂点)に設定された第1のオブジェクト用の変色処理用パラメータを取得する。そして、取得された第1のオブジェクト用の変色処理用パラメータを用いて、第2のオブジェクトの変色処理(狭義には汚れ処理)を行う。例えば接触位置に対応する第2のオブジェクト上の領域を変色領域に設定して、第2のオブジェクトの変色処理を行う。   Here, the parameter for the color change process is a parameter used for performing the color change process, and may be a color parameter (for example, RGB color data) representing the color of the color change (dirt color in a narrow sense), It may be a color change degree parameter (dirt degree parameter) representing the degree of color change (dirt degree in a narrow sense). Further, when the color change process of the second object is performed, the parameter for the color change process set in the part corresponding to the contact position among the parts of the first object is acquired. Specifically, the color change processing parameters for the first object set at the vertex determined to be in contact with the second object (the vertex of the portion corresponding to the contact position) are acquired. Then, using the acquired parameter for color change processing for the first object, color change processing (dirt processing in a narrow sense) of the second object is performed. For example, an area on the second object corresponding to the contact position is set as a color change area, and the color change processing of the second object is performed.

そして画像生成部120は、第1、第2のオブジェクトを含む複数のオブジェクトが配置設定されるオブジェクト空間において、仮想カメラから見える画像を生成する。即ち、変色処理が施された第1、第2のオブジェクトが表示される画像(ゲーム画像)を生成する。   Then, the image generation unit 120 generates an image that can be seen from the virtual camera in an object space in which a plurality of objects including the first and second objects are arranged and set. That is, an image (game image) on which the first and second objects subjected to the color change process are displayed is generated.

このようにすれば、第1のオブジェクトに設定された変色処理用パラメータを有効利用して、第1のオブジェクトに接触した第2のオブジェクトの変色処理を行うことが可能になる。従って、あたかも第1のオブジェクトの変色の色で、第2のオブジェクトが変色したかのように見える画像表現が可能になり、これまでにないリアルな画像を生成できるようになる。   In this way, it is possible to perform the color change process of the second object that has contacted the first object by effectively using the parameter for the color change process set for the first object. Therefore, it is possible to express an image that looks as if the second object has been discolored with the color of the first object, and an unprecedented real image can be generated.

また変色処理部112は、変色処理が行われる第2のオブジェクト上の変色領域の大きさを、時間経過に伴い拡大する処理を行う。例えば第1、第2のオブジェクトの接触位置から(接触位置を中心として)、変色領域が、時間経過に伴い徐々に大きくなるような変色処理を行う。例えば変色処理用パラメータは、第1のオブジェクトの変色処理用のパラメータである。即ち第1のオブジェクトを変色させる処理に使用されるパラメータである。そして変色処理部112は、接触イベントが発生している期間において、変色処理が行われる第2のオブジェクト上の変色領域の大きさを、時間経過に伴い拡大する処理を行うと共に、変色処理用パラメータにより設定される第1のオブジェクトの変色の色を、時間経過に伴い減衰させる処理を行う。具体的には変色処理部112は、接触イベントが発生している期間において、第2のオブジェクトと接触したと判定された頂点の変色処理用パラメータの値を、時間経過に伴い減衰させる処理を行う。これにより、第2のオブジェクトにおいては、第1のオブジェクトが接触したことによる変色の領域が、時間経過に伴い徐々に大きくなる一方で、第1のオブジェクトの変色の色(濃度、輝度)が、時間経過に伴い徐々に減衰する(色が薄くなる)。従って、第1、第2のオブジェクトの接触により、第1のオブジェクトの変色の色が、例えば液体等を表す第2のオブジェクトに徐々に拡散して広がって行くと共に、液体等により第1のオブジェクトの変色の色が洗い流されて行くような画像表現を実現できる。   Further, the color change processing unit 112 performs a process of enlarging the size of the color change area on the second object on which the color change process is performed as time passes. For example, a color change process is performed so that the color change area gradually increases with time from the contact position of the first and second objects (centered on the contact position). For example, the color change processing parameter is a parameter for the color change processing of the first object. That is, it is a parameter used for the process of changing the color of the first object. Then, the color change processing unit 112 performs a process of enlarging the size of the color change area on the second object on which the color change process is performed in a period in which the contact event occurs, and a parameter for the color change process. A process of attenuating the discoloration color of the first object set by the step with time is performed. Specifically, the color change processing unit 112 performs a process of attenuating the value of the color change processing parameter of the vertex determined to have contacted the second object with the passage of time during the period in which the contact event occurs. . As a result, in the second object, the discoloration area due to the contact of the first object gradually increases with time, while the discoloration color (density and luminance) of the first object becomes Decreases gradually over time (color fades). Accordingly, when the first and second objects touch, the discolored color of the first object gradually diffuses and spreads to the second object representing, for example, a liquid or the like, and the first object due to the liquid or the like. It is possible to realize an image expression in which the discolored color is washed away.

また、エフェクト処理部114は、第1のオブジェクトの接触位置に対応する第2のオブジェクト上の領域に対して、変色処理とは異なるエフェクト処理を行う。具体的には、第2のオブジェクトが、液体(狭義には水)を表すオブジェクトである場合に、エフェクト処理部114は、エフェクト処理として、液体の波紋のエフェクト処理を行う。即ち液体の表面に波紋が生じているように見える画像を生成するためのエフェクト処理を行う。なお、エフェクト処理部114が行うエフェクト処理は、このような波紋のエフェクト処理には限定されず、例えば第1のオブジェクトと第2のオブジェクトの接触により、第2のオブジェクトの表面等に発生させる種々のエフェクト処理を想定できる。例えばエフェクト処理は、床や壁等を表す第2のオブジェクトの地割れやひび割れ等を表現するためのエフェクト処理であってもよい。   The effect processing unit 114 performs an effect process different from the color change process on the area on the second object corresponding to the contact position of the first object. Specifically, when the second object is an object representing a liquid (water in a narrow sense), the effect processing unit 114 performs an effect process of a liquid ripple as the effect process. That is, effect processing is performed to generate an image that appears to have ripples on the surface of the liquid. Note that the effect processing performed by the effect processing unit 114 is not limited to such ripple effect processing. For example, various effects are generated on the surface of the second object by the contact between the first object and the second object. Can be assumed. For example, the effect process may be an effect process for expressing a ground crack or a crack of a second object representing a floor or a wall.

また変色処理部112が、変色処理が行われる第2のオブジェクト上の変色領域の大きさを、接触位置から時間経過に伴い拡大する処理を行う一方で、エフェクト処理部114も、エフェクト処理が行われる第2のオブジェクト上のエフェクト領域の大きさを、接触位置から時間経過に伴い拡大する処理を行う。このようにすれば、接触イベントの発生後に、第2のオブジェクトの変色領域が、時間経過にしたがって徐々に大きくなると共に、第2のオブジェクトのエフェクト領域(波紋領域等)についても、時間経過にしたがって徐々に大きくなる。即ち、変色領域とエフェクト領域が連動して大きくなるような画像を生成できるようになり、よりリアルで多様な画像表現が可能になる。   In addition, the color change processing unit 112 performs a process of expanding the size of the color change area on the second object on which the color change process is performed as time elapses from the contact position, while the effect processing unit 114 also performs the effect process. The size of the effect area on the second object is increased with the passage of time from the contact position. In this way, after the occurrence of the contact event, the discoloration area of the second object gradually increases with time, and the effect area (ripple area, etc.) of the second object also increases with time. Gradually grows. In other words, it becomes possible to generate an image in which the discoloration area and the effect area are enlarged in association with each other, thereby enabling more realistic and diverse image expression.

またエフェクト処理部114は、波紋のエフェクト処理として、液体の屈折率の変化を表すエフェクト処理を行う。例えば液体の屈折率の変化により、液体の内部や奥側に見える物体の画像が歪んで見えるような屈折画像を生成するためのエフェクト処理を行う。或いは、波紋のエフェクト処理として、液体の表面の反射率の変化を表すエフェクト処理を行ってもよい。例えば液体の表面の反射率の変化により、液体の表面に映る物体の画像が歪んで見えるような反射画像を生成するためのエフェクト処理を行う。   Further, the effect processing unit 114 performs effect processing representing a change in the refractive index of the liquid as ripple effect processing. For example, an effect process is performed to generate a refraction image in which an image of an object that is visible inside or inside the liquid appears to be distorted due to a change in the refractive index of the liquid. Alternatively, as the ripple effect process, an effect process representing a change in the reflectance of the liquid surface may be performed. For example, effect processing is performed to generate a reflection image in which an image of an object reflected on the surface of the liquid looks distorted due to a change in the reflectance of the surface of the liquid.

またテクスチャ記憶部176は、テクスチャマッピングに使用されるテクスチャとして、例えばエフェクト処理用(例えば波紋処理用)のテクスチャを記憶する。   The texture storage unit 176 stores, for example, a texture for effect processing (for example, ripple processing) as a texture used for texture mapping.

そしてエフェクト処理部114は、エフェクト処理用テクスチャの所定チャンネル成分(例えば第1、第2の色成分)に対して設定されたエフェクト処理用パラメータを用いて、第2のオブジェクトのエフェクト処理(波紋処理等)を行う。一方、変色処理部112は、エフェクト処理用テクスチャの所定チャンネル成分とは異なる他のチャンネル成分(例えば第3の色成分)に対して設定された変色処理用パラメータを用いて、第2のオブジェクトの変色処理を行う。   Then, the effect processing unit 114 uses the effect processing parameters set for the predetermined channel components (for example, the first and second color components) of the effect processing texture to perform the effect processing (ripple processing) of the second object. Etc.). On the other hand, the color change processing unit 112 uses the color change processing parameter set for another channel component (for example, the third color component) different from the predetermined channel component of the effect processing texture, and uses the color change processing parameter. Perform discoloration processing.

具体的には、エフェクト処理部114は、エフェクト処理用テクスチャの所定チャンネル成分(第1、第2の色成分)に対して設定されたエフェクト処理用法線情報パラメータ(法線の第1、第2の座標成分)を用いて、第2のオブジェクトのエフェクト処理を行う。一方、変色処理部112は、エフェクト処理用テクスチャの他のチャンネル成分(第3の色成分)に対して設定された変色処理用パラメータ(単色の色データ)を用いて、第2のオブジェクトの変色処理を行う。   Specifically, the effect processing unit 114 sets the effect processing normal information parameters (first and second normal lines) set for predetermined channel components (first and second color components) of the texture for effect processing. The effect processing of the second object is performed using the coordinate component. On the other hand, the color change processing unit 112 uses the color change processing parameter (monochromatic color data) set for the other channel component (third color component) of the texture for effect processing to change the color of the second object. Process.

このようにすれば、エフェクト処理用テクスチャを有効活用して、第2のオブジェクトのエフェクト処理と第2のオブジェクトの変色処理の両方を実行できるようになる。   In this way, it is possible to execute both the effect processing of the second object and the color change processing of the second object by effectively utilizing the effect processing texture.

なお、テクスチャ記憶部176は、エフェクト処理用テクスチャと変色処理用テクスチャを別々に記憶してもよい。この場合にはエフェクト処理部114は、テクスチャ記憶部176のエフェクト処理用テクスチャのチャンネル成分に対して設定されたエフェクト処理用パラメータ(例えば法線情報パラメータ)を用いて、第2のオブジェクトのエフェクト処理を行う。一方、変色処理部112は、変色処理用テクスチャのチャネル成分(例えば第1〜第3の色成分)に対して設定された変色処理用パラメータ(例えばRGBの色データ)を用いて、第2のオブジェクトの変色処理を行う。   The texture storage unit 176 may store the effect processing texture and the discoloration processing texture separately. In this case, the effect processing unit 114 uses the effect processing parameter (for example, the normal line information parameter) set for the channel component of the effect processing texture in the texture storage unit 176 to perform the effect processing of the second object. I do. On the other hand, the color change processing unit 112 uses the color change processing parameters (for example, RGB color data) set for the channel components (for example, the first to third color components) of the color change processing texture, Perform object discoloration processing.

このようにすれば、エフェクト処理用テクスチャを用いたエフェクト処理を行いながら、変色処理用テクスチャを用いて、単色でない色の変色処理を実現できるようになり、より高品質な画像を生成できるようになる。   In this way, while performing effect processing using the texture for effect processing, it is possible to realize discoloration processing for a non-monochromatic color using the texture for discoloration processing, so that a higher quality image can be generated. Become.

また、第1のオブジェクトが、ゲームに登場するキャラクタを表すオブジェクトであり、第2のオブジェクトが、液体を表すオブジェクトである場合に、変色処理部112は、キャラクタの変色処理用パラメータに基づいて、キャラクタの表面を変色させる処理を行う。例えばキャラクタの衣服や皮膚が汚れで変色する処理を行う。そして変色処理部112は、キャラクタが液体に浸かる接触イベント(水に浸かるイベント)が発生した場合に、キャラクタの各部分のうち、液体に浸かった部分(頂点)の変色処理用パラメータに基づいて、液体を変色させる処理を行う。   Further, when the first object is an object representing a character appearing in the game and the second object is an object representing a liquid, the discoloration processing unit 112 is based on the character discoloration processing parameter, Processing to change the surface of the character is performed. For example, a process for changing the character's clothes and skin due to dirt is performed. Then, when a contact event in which the character is immersed in the liquid (an event in which the character is immersed in water) occurs, the color-changing processing unit 112 is based on the parameter for color-changing processing of the portion (vertex) immersed in the liquid among the respective portions of the character. A process for changing the color of the liquid is performed.

このようにすれば、キャラクタに付着した汚れが液体に流れ、これにより液体が汚れて変色するように見える画像を生成できるようになり、これまでにないリアルな画像表現が可能になる。   In this way, the dirt adhering to the character flows into the liquid, which makes it possible to generate an image that looks like the liquid is dirty and discolored, enabling a realistic image expression unprecedented.

この場合に、変色処理部112は、キャラクタの各部分のうち、液体に浸かった部分については、変色処理用パラメータによる変色の色(濃度、輝度)を、減衰させる処理を行う。このようにすれば、キャラクタに付着した汚れが液体に流れることで、キャラクタの汚れが徐々に無くなり、キャラクタの衣服や皮膚の汚れが液体により洗い流されて行くように見える画像を生成できるようになり、更にリアルな画像表現が可能になる。   In this case, the color change processing unit 112 performs a process of attenuating the color (density and luminance) of the color change by the color change processing parameter for each part of the character that has been immersed in the liquid. In this way, the dirt attached to the character flows into the liquid, so that the character's dirt gradually disappears, and it becomes possible to generate an image that looks like the character's clothes and skin dirt are washed away by the liquid. In addition, more realistic image expression becomes possible.

なお本実施形態の手法はサーバシステムにより実現してもよい。図2にサーバシステムにより実現する場合の構成例を示す。   Note that the method of this embodiment may be realized by a server system. FIG. 2 shows a configuration example in the case of being realized by a server system.

サーバシステム500は、端末装置TM1〜TMnとネットワーク510を介して通信接続される。例えばサーバシステム500はホストであり、端末装置TM1〜TMnはクライアントである。サーバシステム500は例えば1又は複数のサーバ(認証サーバ、ゲームサーバ、通信サーバ、課金サーバ等)により実現できる。ネットワーク510(配信網、通信回線)は、例えばインターネットや無線LAN等を利用した通信路であり、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網や無線LAN等の通信網を含むことができる。また通信方法については有線/無線を問わない。   Server system 500 is communicatively connected to terminal apparatuses TM1 to TMn via network 510. For example, the server system 500 is a host, and the terminal devices TM1 to TMn are clients. The server system 500 can be realized by, for example, one or a plurality of servers (authentication server, game server, communication server, billing server, etc.). The network 510 (distribution network, communication line) is a communication path using, for example, the Internet or a wireless LAN. In addition to a LAN using a dedicated line (dedicated cable) or Ethernet (registered trademark) for direct connection, telephone communication A communication network such as a network, a cable network, or a wireless LAN can be included. The communication method may be wired / wireless.

端末装置TM1〜TMnは、例えば据え置き型の家庭用ゲーム装置、携帯型ゲーム装置、或いは業務用ゲーム装置等により実現される。据え置き型の家庭用ゲーム装置は、家庭に設置されて使用されることが想定されるゲーム装置であり、業務用ゲーム装置は、ゲーム施設等に設置されて使用されること想定されるゲーム装置である。また携帯型ゲーム装置は専用のゲーム装置であってもよいし、携帯電話機や携帯型情報端末などのゲームプログラムの実行が可能な汎用の装置であってもよい。   The terminal devices TM1 to TMn are realized by, for example, a stationary home game device, a portable game device, an arcade game device, or the like. A stationary home game device is a game device that is assumed to be installed and used at home, and an arcade game device is a game device that is assumed to be installed and used in a game facility or the like. is there. The portable game device may be a dedicated game device or a general-purpose device capable of executing a game program such as a mobile phone or a portable information terminal.

サーバシステム500は、処理部600、記憶部670、情報記憶媒体680、通信部696を含む。処理部600は、ゲーム演算部602、オブジェクト空間設定部604、移動体演算部606、仮想カメラ制御部608、イベント判定部610、変色処理部612、エフェクト処理部614、画像生成用データ生成部620、音生成用データ生成部630を含む。なおこれらの各部(各ブロック)の機能、動作等は、図1の各部(各ブロック)と同様である。   The server system 500 includes a processing unit 600, a storage unit 670, an information storage medium 680, and a communication unit 696. The processing unit 600 includes a game calculation unit 602, an object space setting unit 604, a moving object calculation unit 606, a virtual camera control unit 608, an event determination unit 610, a color change processing unit 612, an effect processing unit 614, and an image generation data generation unit 620. The sound generation data generation unit 630 is included. The functions, operations, etc. of these units (blocks) are the same as those of the units (blocks) in FIG.

例えばサーバシステム500のイベント判定部610は、第1のオブジェクトが第2のオブジェクトに接触する接触イベントの発生を判定する。変色処理部612は、第1のオブジェクトと第2のオブジェクトの接触イベントが発生した場合に、第1のオブジェクトに対して設定された変色処理用パラメータを取得する。そして、取得された変色処理用パラメータに応じた変色処理を、第1のオブジェクトの接触位置に対応する第2のオブジェクト上の領域に対して行う。また変色処理部612は、変色処理が行われる2のオブジェクト上の変色領域の大きさを、接触位置から時間経過に伴い拡大する処理なども行う。またエフェクト処理部614は、第1のオブジェクトの接触位置に対応する第2のオブジェクト上の領域に対して、変色処理とは異なるエフェクト処理を行う。そして画像生成用データ生成部620は、第1、第2のオブジェクトを含む複数のオブジェクトが配置設定されるオブジェクト空間において、仮想カメラから見える画像を生成するための画像生成用データを生成する。   For example, the event determination unit 610 of the server system 500 determines the occurrence of a contact event in which the first object contacts the second object. The color change processing unit 612 acquires a color change processing parameter set for the first object when a contact event between the first object and the second object occurs. Then, the color change process corresponding to the acquired color change process parameter is performed on the area on the second object corresponding to the contact position of the first object. In addition, the color change processing unit 612 also performs processing for enlarging the size of the color change area on the second object on which the color change processing is performed, with the passage of time from the contact position. The effect processing unit 614 performs effect processing different from the color change processing on the area on the second object corresponding to the contact position of the first object. Then, the image generation data generation unit 620 generates image generation data for generating an image that can be viewed from the virtual camera in an object space in which a plurality of objects including the first and second objects are arranged and set.

なお、画像を生成するための画像生成用データとは、本実施形態の手法により生成された画像をTM1〜TMnの各端末装置において表示するためのデータであり、画像データそのものであってもよいし、各端末装置が画像を生成するために使用する各種データ(オブジェクトデータ、制御結果データ、判定結果データ又は表示画面の設定データ等)であってもよい。例えばサーバシステム500が、各端末装置の操作部からの操作情報を取得し、各種の制御処理や各種の判定処理を行い、画像を生成して、TM1〜TMnの各端末装置に配信(ストリーム配信等)する場合には、上述の画像生成用データは画像データそのものになる。一方、サーバシステム500が、各端末装置の操作部からの操作情報を取得し、各種の制御処理や各種の判定処理を行い、その制御結果や判定結果に基づいてTM1〜TMnの各端末装置が画像を生成する場合には、上述の画像生成用データは、制御結果データや判定結果データやオブジェクトデータなどになる。音生成用データ生成部630が生成する音生成用データについても同様である。   Note that the image generation data for generating the image is data for displaying the image generated by the method of the present embodiment on each of the terminal devices TM1 to TMn, and may be the image data itself. In addition, various data (object data, control result data, determination result data, display screen setting data, etc.) used by each terminal device to generate an image may be used. For example, the server system 500 acquires operation information from the operation unit of each terminal device, performs various control processes and various determination processes, generates images, and distributes them to the terminal devices TM1 to TMn (stream distribution) Etc.), the image generation data described above is the image data itself. On the other hand, the server system 500 acquires operation information from the operation unit of each terminal device, performs various control processes and various determination processes, and the terminal devices TM1 to TMn are based on the control results and determination results. When an image is generated, the above-described image generation data is control result data, determination result data, object data, or the like. The same applies to the sound generation data generated by the sound generation data generation unit 630.

なお、ゲーム演算部602、オブジェクト空間設定部604、移動体演算部606、仮想カメラ制御部608、イベント判定部610、変色処理部612、エフェクト処理部614、画像生成用データ生成部620、音生成用データ生成部630、記憶部670、情報記憶媒体680、通信部696等の詳細な機能、動作は、図1で上述に説明したものと同様であるため、詳細な説明は省略する。   The game calculation unit 602, the object space setting unit 604, the moving body calculation unit 606, the virtual camera control unit 608, the event determination unit 610, the color change processing unit 612, the effect processing unit 614, the image generation data generation unit 620, and sound generation Detailed functions and operations of the data generation unit 630, the storage unit 670, the information storage medium 680, the communication unit 696, and the like are the same as those described above with reference to FIG.

2.本実施形態の手法
次に本実施形態の手法について具体的に説明する。
2. Next, the method of this embodiment will be described in detail.

2.1 変色処理
まず、本実施形態の変色処理(汚れ処理)の概要について説明する。図3(A)において第1のオブジェクトOB1には変色処理用パラメータが設定されており、この変色処理用パラメータにより第1のオブジェクトOB1の表面が変色する画像が生成されている。変色処理用パラメータとしては、例えば変色の色を表す色パラメータ(RGBデータ)や、変色度合いを表す変色度合いパラメータなどを想定でき、この変色処理用パラメータは、第1のオブジェクトOB1の例えば頂点データとして設定されている。
2.1 Color Change Processing First, an outline of the color change processing (dirt processing) of this embodiment will be described. In FIG. 3A, a color change processing parameter is set for the first object OB1, and an image in which the surface of the first object OB1 is changed by the color change processing parameter is generated. As the color change processing parameter, for example, a color parameter (RGB data) representing the color of the color change, a color change degree parameter representing the degree of color change, and the like can be assumed. The color change processing parameter is, for example, vertex data of the first object OB1. Is set.

図3(B)では、第1のオブジェクトOB1と第2のオブジェクトOB2の接触イベントが発生している。この接触イベントの発生は、例えば第1のオブジェクトOB1の頂点又は頂点の代表点と第2のオブジェクトOB2との位置関係等に基づいて判定できる。例えば第1のオブジェクトOB1の頂点又は代表点が、第2のオブジェクトOB2の内部に内包されていると判断された場合には、第1のオブジェクトOB1が第2のオブジェクトOB2に接触したと判定できる。   In FIG. 3B, a contact event between the first object OB1 and the second object OB2 occurs. The occurrence of this contact event can be determined based on, for example, the positional relationship between the vertex of the first object OB1 or the representative point of the vertex and the second object OB2. For example, when it is determined that the vertex or representative point of the first object OB1 is included in the second object OB2, it can be determined that the first object OB1 has contacted the second object OB2. .

そして本実施形態では、このような接触イベントが発生すると、第1のオブジェクトOB1に対して設定された変色処理用パラメータが取得される。例えば第1のオブジェクトOB1の頂点に対して設定された変色処理用パラメータが取得される。そして、取得された変色処理用パラメータに応じた変色処理が、第2のオブジェクトOB2に対して行われる。例えば図3(B)に示すように第1のオブジェクトOB1の接触位置に対応する第2のオブジェクトOB2上の領域(変色領域)に対して、変色処理が行われる。   In this embodiment, when such a contact event occurs, the color change processing parameters set for the first object OB1 are acquired. For example, a parameter for color change processing set for the vertex of the first object OB1 is acquired. Then, a color change process corresponding to the acquired color change process parameter is performed on the second object OB2. For example, as shown in FIG. 3B, a color change process is performed on an area (color change area) on the second object OB2 corresponding to the contact position of the first object OB1.

これにより、第2のオブジェクトOB2が変色して汚れる等の画像を生成できるようになる。即ち第1のオブジェクトOB1の変色状態が、第2のオブジェクトOB2に伝わって、第2のオブジェクトOB2が変色する画像を生成できるようになる。   As a result, it is possible to generate an image in which the second object OB2 changes color and becomes dirty. That is, the discoloration state of the first object OB1 is transmitted to the second object OB2, and an image in which the second object OB2 is discolored can be generated.

そして本実施形態では図4(A)、図4(B)に示すように、変色処理が行われる第2のオブジェクトOB2上の変色領域の大きさが、時間経過に伴い徐々に拡大する。例えば図3(B)の第1、第2のオブジェクトOB1、OB2の接触位置を中心として広がるように、変色領域が徐々に拡大する。   In this embodiment, as shown in FIGS. 4A and 4B, the size of the color change area on the second object OB2 on which the color change process is performed gradually increases with time. For example, the discoloration region gradually expands so as to spread around the contact position of the first and second objects OB1 and OB2 in FIG.

そして、このように接触イベントが発生している期間においては、変色処理が行われる第2のオブジェクトOB2上の変色領域の大きさが、時間経過に伴い徐々に拡大すると共に、変色処理用パラメータにより設定される第1のオブジェクトOB1の変色の色は、時間経過に伴い徐々に減衰する。   In the period in which the contact event occurs in this way, the size of the color change area on the second object OB2 on which the color change process is performed gradually increases with time, and the color change processing parameter The discolored color of the set first object OB1 gradually attenuates with time.

これにより、例えば図4(C)に示すように、接触イベントが終了して、第1のオブジェクトOB1が第2のオブジェクトOB2から離れると、第1のオブジェクトOB1の変色領域での変色の色が減衰して薄くなる画像が生成されるようになる。   Thus, for example, as shown in FIG. 4C, when the contact event ends and the first object OB1 moves away from the second object OB2, the color of the color change in the color change region of the first object OB1 is changed. An image that is attenuated and thinned is generated.

例えば第1のオブジェクトOB1が、ゲームに登場するキャラクタを表すオブジェクトであり、第2のオブジェクトOB2が、液体を表すオブジェクトであったとする。   For example, it is assumed that the first object OB1 is an object representing a character appearing in the game, and the second object OB2 is an object representing a liquid.

この場合には本実施形態では図3(A)に示すように、キャラクタ(OB1)の変色処理用パラメータに基づいて、キャラクタの表面が変色して汚れる処理が行われる。   In this case, in the present embodiment, as shown in FIG. 3A, the character surface is discolored and stained based on the discoloration processing parameters of the character (OB1).

次に、図3(B)に示すように、キャラクタ(OB1)が液体(OB2)に浸かる接触イベントが発生すると、キャラクタ(OB1)の各部分のうち、液体に浸かった部分の変色処理用パラメータに基づいて、液体(OB2)を変色させる処理が行われる。これにより、キャラクタの汚れが液体に伝わって、液体が変色して汚れる画像が生成されるようになる。   Next, as shown in FIG. 3B, when a contact event occurs in which the character (OB1) is immersed in the liquid (OB2), a color change processing parameter for a portion of the character (OB1) that is immersed in the liquid. Based on the above, a process for changing the color of the liquid (OB2) is performed. As a result, the dirt of the character is transmitted to the liquid, and an image in which the liquid is discolored and dirty is generated.

そして図4(A)、図4(B)に示すように、キャラクタの汚れによる液体の変色領域は徐々に拡大する。即ち、キャラクタの汚れによる変色が液体に伝わって、その変色の領域が液体側において徐々に広がって行く。   As shown in FIGS. 4A and 4B, the liquid discoloration region due to the dirt of the character gradually expands. That is, the discoloration due to the dirt of the character is transmitted to the liquid, and the discoloration area gradually spreads on the liquid side.

この時に、キャラクタの各部分のうち、液体に浸かった部分については、変色処理用パラメータによる変色の色が、徐々に減衰する。従って、図4(C)に示すように、接触イベントが終了して、キャラクタが液体から出ると、キャラクタの汚れの変色は減衰しており、あたかもキャラクタの汚れが液体により流されたかのように見える画像表現を実現できる。   At this time, among the portions of the character that are immersed in the liquid, the color of the discoloration due to the discoloration processing parameter gradually attenuates. Therefore, as shown in FIG. 4C, when the contact event ends and the character leaves the liquid, the discoloration of the character's dirt is attenuated, and it appears as if the character's dirt has been washed away by the liquid. Image representation can be realized.

なお、以下では、上述のように第1のオブジェクトがキャラクタを表すオブジェクトであり、第2のオブジェクトが水(液体)を表すオブジェクトであり、キャラクタの汚れが水に落ちて水が汚れるような画像表現に、本実施形態の手法を適用した場合を主に例にとり説明する。但し、本実施形態の第1、第2のオブジェクトや変色処理は、これに限定されるものではなく、種々の変形実施が可能である。例えばキャラクタ(第1のオブジェクト)の汚れ(例えば血のり)が、壁や床(第2のオブジェクト)に付着するような変色処理に本実施形態の手法を適用してもよい。   In the following, as described above, the first object is an object representing a character, the second object is an object representing water (liquid), and an image in which the dirt of the character falls into the water and the water becomes dirty. A case where the method of the present embodiment is applied to the expression will be mainly described as an example. However, the first and second objects and the color change processing of the present embodiment are not limited to this, and various modifications can be made. For example, the method of this embodiment may be applied to a color change process in which dirt (for example, blood glue) of a character (first object) adheres to a wall or a floor (second object).

図5(A)〜図8に、本実施形態の手法により生成されたゲーム画像の例を示す。   FIG. 5A to FIG. 8 show examples of game images generated by the method of this embodiment.

図5(A)では、キャラクタOBC(広義には第1のオブジェクト)が水OBW(広義には第2のオブジェクト)に浸かる接触イベントが発生している。この時、キャラクタOBCは、例えばその頂点に設定された変色処理用パラメータ(汚れ処理用パラメータ)により、その表面に対して汚れ処理(変色処理)が施されており、A1に示すように、キャラクタOBCの衣服や皮膚の汚れが表現されている。   In FIG. 5A, a contact event occurs in which the character OBC (first object in a broad sense) is immersed in water OBW (second object in a broad sense). At this time, for example, the character OBC has been subjected to stain processing (discoloration processing) on its surface by a color change processing parameter (dirt processing parameter) set at the vertex, and as shown in A1, the character OBC OBC clothes and skin stains are expressed.

図5(B)では水面に浸かっていたキャラクタOBCがヒザを曲げており、A2に示すようにキャラクタOBCの足に付着した汚れが流れて、水OBWが汚れにより変色する画像が生成されている。   In FIG. 5B, the character OBC that has been immersed in the water surface is bending the knee, and dirt adhering to the legs of the character OBC flows as shown in A2, and an image in which the water OBW changes color due to the dirt is generated. .

そして図6(A)のA3、図6(B)のA4、図7(A)のA5では、汚れによる水OBWの変色領域が時間経過に伴い徐々に広がっている。この時、例えば図6(B)のA6では、キャラクタOBCの足に付着していた汚れが、水OBWにより洗い流されている様子が表現されている。   In A3 in FIG. 6A, A4 in FIG. 6B, and A5 in FIG. 7A, the discolored region of the water OBW due to dirt gradually spreads over time. At this time, for example, A6 in FIG. 6B represents a state in which dirt attached to the legs of the character OBC is washed away by the water OBW.

図7(B)では、水OBWに浸かっていたキャラクタOBCが立ち上がっている。この時、A7に示すようにキャラクタOBCの背中等に付着していた汚れも、水OBWにより洗い流されている様子が表現されている。   In FIG. 7B, the character OBC that has been immersed in the water OBW stands up. At this time, as shown in A7, the dirt attached to the back of the character OBC is also washed away by the water OBW.

図8では、キャラクタOBCが完全に立ち上がっている。そして図5(A)と図8を比較すれば明らかなように、図8では、図5(A)においてキャラクタOBCに付着していた汚れが、水OBWにより完全に洗い流されて、汚れが落ちている様子が表現されている。   In FIG. 8, the character OBC is completely up. 8A and 8B, the dirt attached to the character OBC in FIG. 5A is completely washed away by the water OBW, and the dirt is removed. The state of being is expressed.

以上のように本実施形態の手法によれば、第1のオブジェクトであるキャラクタ等の表面の汚れによる変色を表現できるのみならず、この汚れが、第2のオブジェクトである水等に流れて伝わって行く様子を表現できる。即ち、キャラクタの変色処理のために使用した変色処理用パラメータを有効活用して、キャラクタに付着していた汚れが、水に洗い流され、水が汚れて行く様子も表現できるようになる。更に、水に伝わった汚れの領域が時間経過に伴い徐々に広がって行くと共に、水に洗い流されることで、キャラクタの汚れが時間経過に伴い徐々に少なくなって行く様子も表現できる。従って、従来の汚れ処理では表現できなかったリアルな映像表現を実現することができ、プレーヤの仮想現実感を更に向上すること可能になる。   As described above, according to the method of the present embodiment, not only the color change caused by the dirt on the surface of the character or the like as the first object can be expressed, but also the dirt flows to the water or the like as the second object. You can express how you are going. That is, it is possible to express how the dirt attached to the character is washed away by water and the water gets dirty by effectively utilizing the parameters for color change processing used for the color change processing of the character. Furthermore, it is possible to express a state in which the dirt area transmitted to the water gradually spreads with time and is washed away with water so that the dirt of the character gradually decreases with time. Therefore, it is possible to realize a realistic video expression that could not be expressed by the conventional dirt processing, and to further improve the virtual reality of the player.

2.2 変色処理の詳細
次に本実施形態の変色処理(汚れ処理)の詳細例について説明する。なお本実施形態の変色処理手法は以下に説明する手法に限定されるものではなく、種々の変形実施が可能である。
2.2 Details of Color Change Processing Next, a detailed example of color change processing (dirt processing) according to the present embodiment will be described. The color change processing method of the present embodiment is not limited to the method described below, and various modifications can be made.

図9(A)に、キャラクタ(広義には第1のオブジェクト)の頂点に設定される頂点データの例を示す。この頂点データは図1の頂点データ記憶部178に記憶される。図9(A)の頂点データでは、各頂点(V1、V2、V3・・・)に対して、その頂点の位置、汚れ色(広義には変色の色)、汚れ度合い(広義には変色度合い)のパラメータが対応づけられて記憶される。   FIG. 9A shows an example of vertex data set at the vertex of a character (first object in a broad sense). This vertex data is stored in the vertex data storage unit 178 of FIG. In the vertex data of FIG. 9A, for each vertex (V1, V2, V3...), The position of the vertex, the stain color (color of discoloration in a broad sense), and the degree of stain (degree of discoloration in a broad sense). ) Are associated and stored.

ここで、汚れ色パラメータは、汚れの色(RGB)を表すデータである。また、汚れ度合いパラメータは、汚れの程度(変色の程度)を表すパラメータである。例えばキャラクタの各部分においてその色が異なるような汚れを表現する場合には、汚れ処理用パラメータ(広義には変色処理用パラメータ)として、汚れ色パラメータを用いる。一方、キャラクタの各部分で単色の同じ色になる汚れについては、汚れ処理用パラメータとして、汚れ度合いパラメータを用いる。   Here, the stain color parameter is data representing the stain color (RGB). The stain degree parameter is a parameter representing the degree of stain (the degree of discoloration). For example, in the case where a stain having a different color is expressed in each part of the character, a stain color parameter is used as a stain processing parameter (color change processing parameter in a broad sense). On the other hand, for dirt that becomes the same single color in each part of the character, a dirt degree parameter is used as a dirt processing parameter.

例えば、相手キャラクタ(変色源)から吹きかけられた毒によりキャラクタの衣服や皮膚が汚れるような画像表現を行う場合には、毒の種類(変色源の種類)に依って汚れの色が異なるため、汚れ処理用パラメータとして、汚れ色パラメータを用いる。具体的には、キャラクタのオブジェクトを構成する頂点のうち、毒を吹きかけられた部分の頂点に対して、その毒の種類に応じた色を、汚れ色パラメータとして設定する。こうすることで、相手キャラクタにより毒が吹きかけられた部分が、毒の色により変色して汚れる画像表現を実現できる。   For example, when performing an image expression that stains the clothes and skin of the character due to the poison sprayed from the opponent character (color change source), the stain color varies depending on the type of poison (type of color change source). A stain color parameter is used as a stain processing parameter. Specifically, among the vertices constituting the character object, the color corresponding to the poison type is set as the stain color parameter for the vertex of the portion sprayed with poison. By doing so, it is possible to realize an image expression in which the portion sprayed with poison by the opponent character is discolored due to the color of the poison.

また、例えば砂の地面のゲームステージで対戦を行う場合には、砂ぼこりの色を単色の汚れ色として、そのゲームステージに対応づけておく。そして、キャラクタを構成する頂点に設定された汚れ度合いパラメータの大きさに応じて、砂ぼこりの色の濃度(強さ)を変化させる。例えば砂の地面に近いキャラクタの足の部分の頂点に対しては、汚れ度合いパラメータを大きな値に設定する。このようにすれば、キャラクタがそのゲームステージの地面に立つと、地面の砂ぼこりがキャラクタの足に付着したかのように見える汚れ表現を実現できる。また、キャラクタの手等の部位が地面に近づいたと判定された場合には、その手等の部位の頂点に対しては、汚れ度合いパラメータを大きな値に設定する。このようにすれば、キャラクタの手等の部位が地面に近づくことで、地面の砂ぼこりがその部位に付着したかのように見える汚れ表現を実現できる。   Further, for example, when a battle is performed on a game stage on the sand ground, the color of the sand dust is set as a single stain color and is associated with the game stage. Then, the density (intensity) of the dust dust color is changed according to the size of the dirt degree parameter set at the vertex constituting the character. For example, the dirt level parameter is set to a large value for the apex of the foot portion of the character close to the sand ground. In this way, when the character stands on the ground of the game stage, it is possible to realize a dirty expression that looks as if the dust on the ground has adhered to the feet of the character. If it is determined that the part of the character's hand or the like has approached the ground, the stain degree parameter is set to a large value for the vertex of the part of the hand or the like. In this way, when the part of the character's hand or the like approaches the ground, it is possible to realize a stain expression that looks as if the dust on the ground has adhered to the part.

図9(B)は、頂点データに設定された汚れ色パラメータや汚れ度合いパラメータなどの汚れ処理用パラメータを用いた汚れ画像の生成手法を説明する図である。   FIG. 9B is a diagram for explaining a method for generating a stain image using a stain processing parameter such as a stain color parameter and a stain degree parameter set in the vertex data.

例えば図9(B)の頂点V1〜V4に対して図9(A)の汚れ色パラメータが設定されていた場合には、頂点V1〜V4の汚れ色パラメータにより表される汚れ色(広義には変色の色)を補間(ラスタライズ)することで、各ピクセルPXの汚れ色を求める。また頂点V1〜V4に対して図9(A)の汚れ度合いパラメータが設定されていた場合には、この汚れ度合いパラメータと、ゲームステージ等に対応づけて設定された設定色(例えば砂ぼこりの色)とに基づいて、各頂点V1〜V4の汚れ色を求める。そして頂点V1〜V4の汚れ色を補間することで、各ピクセルPXの汚れ色を求める。   For example, when the stain color parameter of FIG. 9A is set for the vertices V1 to V4 of FIG. 9B, the stain color (in a broad sense, represented by the stain color parameters of the vertices V1 to V4). By interpolating (rasterizing) the discolored color), the stain color of each pixel PX is obtained. If the dirt level parameter shown in FIG. 9A is set for the vertices V1 to V4, the dirt degree parameter and a set color (for example, dust color) set in association with the game stage or the like. Based on the above, the stain color of each vertex V1 to V4 is obtained. Then, the stain color of each pixel PX is obtained by interpolating the stain colors of the vertices V1 to V4.

そして、このように頂点の汚れ色の補間により求められた汚れ色と、キャラクタの元絵テクスチャ(衣服や皮膚の色・模様を表すテクスチャ)の色とを、ピクセル単位で合成(例えばαブレンディング)することで、各ピクセルの最終的な色を求める。このようにすることで、キャラクタの衣服や色に汚れが付着した画像を生成できるようになる。なお、頂点データ等を用いた頂点単位での処理は、頂点シェーダにより実現することができ、ピクセル単位での処理は、ピクセルシェーダにより実現することができる。   Then, the stain color obtained by interpolation of the stain color of the vertex and the color of the character's original picture texture (texture representing clothes or skin color / pattern) are synthesized in units of pixels (for example, α blending). By doing so, the final color of each pixel is obtained. By doing so, it is possible to generate an image in which the clothes and colors of the character are stained. Note that processing in units of vertices using vertex data and the like can be realized by a vertex shader, and processing in units of pixels can be realized by a pixel shader.

また、本実施形態では、図5(A)〜図8のようにキャラクタの汚れが落ちて水面に広がって行く画像表現を、図9(A)のようにキャラクタの頂点データとして設定される汚れ処理用パラメータ(汚れ色パラメータ、汚れ度合いパラメータ等)を有効利用して実現している。   Further, in the present embodiment, the image representation in which the dirt of the character is dropped and spreads on the water surface as shown in FIGS. 5A to 8 is set as the vertex data of the character as shown in FIG. 9A. This is realized by effectively using the processing parameters (dirt color parameter, stain degree parameter, etc.).

即ち、キャラクタが水に浸る接触イベントが発生した場合に、キャラクタを構成する複数の頂点のうち、水に浸った(水に接触した)と判定された頂点に対して設定された汚れ処理用パラメータに応じた汚れ処理を、キャラクタと水の接触位置に対応する水面上の領域に対して行う。即ち、水に浸ったと判定された頂点から図9(A)の汚れ処理用パラメータを取得して、水面に汚れが落ちて広がる汚れ処理を行う。   That is, when a contact event in which the character is immersed in water occurs, a dirt processing parameter set for a vertex determined to be immersed in water (contacted with water) among a plurality of vertices constituting the character. The soiling process corresponding to is performed on the area on the water surface corresponding to the contact position of the character and the water. That is, the dirt processing parameters shown in FIG. 9A are acquired from the apex determined to have been immersed in water, and the dirt processing is performed on the water surface to spread and spread.

このようにすれば、図5(A)のA1に示すようにキャラクタの汚れ処理に使用されている汚れ処理用パラメータを有効活用して、キャラクタの汚れが落ちて水面に汚れが広がる汚れ処理についても実現できる。   In this way, as shown by A1 in FIG. 5A, the dirt processing parameters used for the character dirt processing are effectively used to perform the dirt processing in which the character dirt is removed and the water surface is spread. Can also be realized.

例えば図10(A)に示すように、本実施形態では、キャラクタOBCを構成する複数の頂点の代表点である関節J1、J2、J3と、水(水面)OBWとの位置関係に基づいて、キャラクタOBCが水OBWに浸かる接触イベントが発生したか否かを判定する。即ち水面よりも下に位置する関節(J1、J2)がある場合には、キャラクタは水に浸かっていると判定する。   For example, as shown in FIG. 10A, in the present embodiment, based on the positional relationship between joints J1, J2, and J3 that are representative points of a plurality of vertices constituting the character OBC and water (water surface) OBW, It is determined whether or not a contact event in which the character OBC is immersed in the water OBW has occurred. That is, when there are joints (J1, J2) located below the water surface, it is determined that the character is immersed in water.

そして本実施形態では、キャラクタの関節(広義には頂点の代表点)の位置情報に基づいて、水面の汚れ領域(変色領域)を特定し、特定された汚れ領域に対して汚れ処理(変色処理)を行う。例えば図10(A)では関節J1、J2が水に浸かっているため、関節J1、J2の位置から汚れを発生させる汚れ処理を行うことになる。   In the present embodiment, based on the position information of the joints of the character (the representative point of the vertex in a broad sense), a dirt area (discoloration area) on the water surface is specified, and a dirt process (discoloration process) is performed on the specified dirt area. )I do. For example, in FIG. 10A, since the joints J1 and J2 are soaked in water, a dirt process for generating dirt from the positions of the joints J1 and J2 is performed.

図10(B)に、キャラクタの関節に設定される関節データの例を示す。図10(B)の関節データでは、キャラクタの各関節(J1、J2、J3・・・)に対して、その関節の位置、汚れ処理フラグ(FL1、FL2、FL3・・・)が対応づけられている。ここで、汚れ処理フラグは、汚れ処理を行う場合にオン(例えば「1」)に設定されるフラグである。   FIG. 10B shows an example of joint data set for a character's joint. In the joint data of FIG. 10B, the position of the joint and the dirt processing flag (FL1, FL2, FL3...) Are associated with each joint (J1, J2, J3...) Of the character. ing. Here, the stain processing flag is a flag that is set to ON (for example, “1”) when performing the stain processing.

例えば図11(A)では、関節J1は頂点V1〜V8の代表点となっている。例えば頂点V1〜V8に対して距離的に最も近い関節がJ1になっている。そして頂点V1が水面よりも下に位置していると判定されると、頂点V1から、頂点V1に最も近い関節J1に対して、水に浸かっている旨を知らせる通知が行われる。これにより図10(B)の関節J1の汚れ処理フラグFL1がオンになり、関節J1の位置から汚れを発生させる汚れ処理が開始される。即ち、関節J1の位置(XJ1、YJ1、ZJ1)に基づいて、水面上で汚れを発生させる位置を特定し、特定された位置から、図5(A)〜図7(B)に示すように汚れが徐々に広がって行く様子を表現する汚れ処理が実行される。具体的には、後述するように、関節J1の位置から、汚れ処理に使用されるテクスチャ(波紋処理用テクスチャ、汚れ処理用テクスチャ)上での汚れ発生位置を特定する。そして、特定された汚れ発生位置から汚れが徐々に広がって行く様子を表すテクスチャの書き換え処理(汚れ処理用パラメータの書き換え処理)を行うことで、汚れ処理が実現される。   For example, in FIG. 11A, the joint J1 is a representative point of the vertices V1 to V8. For example, the joint closest in distance to the vertices V1 to V8 is J1. When it is determined that the vertex V1 is located below the water surface, the vertex V1 notifies the joint J1 closest to the vertex V1 that it is immersed in water. As a result, the stain processing flag FL1 of the joint J1 in FIG. 10B is turned on, and the stain processing for generating the stain from the position of the joint J1 is started. That is, based on the position of the joint J1 (XJ1, YJ1, ZJ1), the position where dirt is generated on the water surface is specified, and from the specified position, as shown in FIGS. 5 (A) to 7 (B). Dirt processing that expresses how the dirt gradually spreads is executed. Specifically, as will be described later, the position of occurrence of dirt on the texture (the ripple processing texture and the dirt processing texture) used for the dirt processing is specified from the position of the joint J1. Then, by performing a texture rewriting process (dirt processing parameter rewriting process) representing a state where the dirt gradually spreads from the specified dirt occurrence position, the dirt process is realized.

そしてこの場合に、図11(B)に示すように、水に浸かったと判定された頂点V1の汚れの色(濃度、輝度)を徐々に減衰させる処理が行われる。即ち、接触イベントが発生している期間において、水と接触したと判定されたキャラクタの頂点の汚れ処理用パラメータの値を、時間経過に伴い減衰させる処理を行う。例えば図11(B)ではキャラクタの頂点V1の汚れ色パラメータとして、(R1、G1、B1)のRGBデータが設定されている。そして、頂点V1が水に浸かっていると判定されると、その時点から、汚れ色パラメータのRGBデータであるR1、G1、B1の値が、図11(B)に示すように徐々に小さくなって減衰して行く。   In this case, as shown in FIG. 11B, a process of gradually attenuating the stain color (density and luminance) of the vertex V1 determined to have been immersed in water is performed. In other words, during the period in which the contact event occurs, processing is performed to attenuate the dirt processing parameter value at the vertex of the character determined to have contacted with water as time passes. For example, in FIG. 11B, RGB data of (R1, G1, B1) is set as the dirt color parameter of the vertex V1 of the character. When it is determined that the vertex V1 is immersed in water, the values of R1, G1, and B1, which are the RGB data of the dirt color parameter, gradually decrease from that point in time as shown in FIG. And then decays.

このようにすれば、キャラクタが水に浸かることで、あたかも水に浸かった部分の汚れが流れ落ちて綺麗になって行く映像表現を実現することができ、従来の汚れ処理では実現できなかったリアルな画像を生成できるようになる。   In this way, when the character is immersed in water, it is possible to realize a video expression in which the dirt in the part soaked in water flows down and becomes beautiful, which was not possible with conventional dirt processing. An image can be generated.

なお図12に、キャラクタ等を表すモデルオブジェクトMOBのスケルトンの情報であるモーションデータの例を示す。図12に示すように、モデルオブジェクトMOBは、複数のパーツオブジェクトPB0〜PB15により構成される。そして、これらのパーツオブジェクト(部位)の位置や回転角度(方向)は、モデルオブジェクトMOBのスケルトンモデルを構成する骨B0〜B19の位置(関節J0〜J15の位置)や回転角度(親の骨に対する子の骨の相対的な回転角度)により特定される。なお、これらの骨、関節は仮想的なものであり、現実に表示されるオブジェクトではない。   FIG. 12 shows an example of motion data that is skeleton information of a model object MOB representing a character or the like. As shown in FIG. 12, the model object MOB includes a plurality of part objects PB0 to PB15. The positions and rotation angles (directions) of these part objects (parts) are the positions of the bones B0 to B19 (the positions of the joints J0 to J15) and the rotation angles (the positions relative to the parent bones) constituting the skeleton model of the model object MOB. Relative rotation angle of the child's bone). Note that these bones and joints are virtual and are not actually displayed objects.

モデルオブジェクトMOBのスケルトンを構成する骨(モーション骨、関節、パーツオブジェクト)は、親子(階層)構造を有している。例えば、手の骨B7、B11の親は前腕の骨B6、B10になり、B6、B10の親は上腕の骨B5、B9になり、B5、B9の親は肩の骨B4、B8になる。足、脛(すね)、大腿、腰、胸、頭の骨も同様である。   The bones (motion bones, joints, part objects) constituting the skeleton of the model object MOB have a parent-child (hierarchical) structure. For example, the parents of the hand bones B7 and B11 become the forearm bones B6 and B10, the parents of B6 and B10 become the upper arm bones B5 and B9, and the parents of B5 and B9 become the shoulder bones B4 and B8. The same applies to the legs, shins, thighs, hips, chest, and head bones.

図1のモーションデータ記憶部174には、これらの骨(パーツオブジェクト、関節)の位置、回転角度が、モーションデータとして記憶されている。なお骨の回転角度だけをモーションデータに含ませて、骨(アーク)の位置(関節の位置)についてはモデルオブジェクトのモデルデータの中に含ませてもよい。   The motion data storage unit 174 in FIG. 1 stores the positions and rotation angles of these bones (part objects, joints) as motion data. Only the rotation angle of the bone may be included in the motion data, and the position of the bone (arc) (the position of the joint) may be included in the model data of the model object.

例えば、歩きモーションが、M0、M1、M2・・・・MNという基準モーション(各フレームでのモーション)により構成されているとする。するとこれらの各基準モーションM0、M1、M2・・・・MNでの各骨の位置又は回転角度が、モーションデータとして予め記憶されている。そして、例えば基準モーションM0の各骨(各パーツオブジェクト)の位置、回転角度を読み出し、次に基準モーションM1の各骨の位置、回転角度を読み出すというように、基準モーションのモーションデータを時間経過に伴い順次読み出すことで、モーション処理(モーション再生)が実現される。   For example, it is assumed that the walking motion is composed of reference motions (motions in each frame) M0, M1, M2,. Then, the position or rotation angle of each bone in each of these reference motions M0, M1, M2,... MN is stored in advance as motion data. Then, for example, the position and rotation angle of each bone (each part object) of the reference motion M0 are read, and then the position and rotation angle of each bone of the reference motion M1 are read. By sequentially reading the data, motion processing (motion reproduction) is realized.

なお、モーションデータ記憶部174に記憶するモーションデータは、一般的には、モーションキャプチャにより取得したり、デザイナが作成する。またモーションデータは、親の骨の位置、回転角度に対する子の骨の相対的な位置、相対的な回転角度(3軸周りの回転角度)で表される。具体的には、親の骨に対する子の骨のX軸、Y軸、Z軸回りの回転角度(相対的な回転角度)が、モーションデータとして記憶される。なお親の骨に対する子の骨の相対的な位置(相対距離)は、例えばモデルオブジェクト(キャラクタ)のモデルデータに含ませてもよい。   The motion data stored in the motion data storage unit 174 is generally obtained by motion capture or created by a designer. The motion data is represented by the position of the parent bone, the relative position of the child bone with respect to the rotation angle, and the relative rotation angle (rotation angle around three axes). Specifically, rotation angles (relative rotation angles) around the X axis, Y axis, and Z axis of the child bone with respect to the parent bone are stored as motion data. The relative position (relative distance) of the child bone relative to the parent bone may be included in the model data of the model object (character), for example.

本実施形態では、キャラクタ(第1のオブジェクト)の複数の頂点の代表点として、図12に示されるようなキャラクタのモーション処理用のスケルトンの関節を採用している。このようにすれば、モーションデータのスケルトンの関節を有効利用して、接触判定処理や水面の汚れ処理等を実現することが可能になり、処理を効率化できる。   In this embodiment, a skeleton joint for character motion processing as shown in FIG. 12 is adopted as a representative point of a plurality of vertices of the character (first object). By doing so, it is possible to effectively use the skeleton joint of the motion data to realize a contact determination process, a water surface contamination process, and the like, and the process can be made more efficient.

例えば、キャラクタの全ての頂点を、汚れの発生点に設定して汚れ処理を行うと、汚れ処理の処理負荷が重くなってしまうおそれがある。   For example, if dirt processing is performed with all the vertices of a character set as dirt generation points, the processing load of the dirt processing may increase.

この点、頂点ではなくて、頂点の代表点である関節を汚れの発生点に設定して汚れ処理を行えば、関節の数は頂点の数よりも格段に少ないため、汚れ処理の処理負荷を低減することができ、処理の効率化を図れるようになる。   In this respect, if the joint that is the representative point of the vertex instead of the vertex is set as the stain occurrence point and the stain processing is performed, the number of joints is much smaller than the number of the vertex, so the processing load of the stain processing is reduced. It is possible to reduce the processing efficiency.

2.3 汚れ処理、波紋処理
次に、本実施形態の水面の汚れ処理や波紋処理の具体例について、図13(A)〜図17を用いて詳細に説明する。
2.3 Dirt Processing and Ripple Processing Next, specific examples of the water surface smear processing and the ripple processing according to the present embodiment will be described in detail with reference to FIGS.

本実施形態では、キャラクタの接触位置に対応する水面上の領域に対して、汚れ処理(変色処理)とは異なるエフェクト処理を行っている。具体的には、エフェクト処理として、水面(液体)の波紋を表現するエフェクト処理を行っている。例えば図6(A)において、キャラクタが水に浸ると、水に浸った位置(接触位置)を中心に、A3に示すように汚れが広がると共に、キャラクタが水に入ることにより生じる波紋(水の波)についても広がる処理を行う。具体的には、キャラクタが水に浸った位置から、汚れ領域の大きさが時間経過に伴い徐々に広がると共に、波紋のエフェクト領域の大きさについても時間経過に伴い徐々に広がるような画像表現を行う。このようにすれば、キャラクタが水に浸かると、水に浸かった部分から汚れと波紋の両方が広がるような画像を生成することができ、よりリアルな画像を生成できるようになる。   In this embodiment, an effect process different from the dirt process (discoloration process) is performed on the area on the water surface corresponding to the contact position of the character. Specifically, effect processing for expressing ripples on the water surface (liquid) is performed as effect processing. For example, in FIG. 6A, when the character is immersed in water, dirt spreads around the position immersed in water (contact position) as shown in A3, and ripples (water) generated when the character enters the water. (Wave) is also expanded. Specifically, from the position where the character is immersed in water, the size of the dirty area gradually spreads over time, and the ripple effect area size also gradually spreads over time. Do. In this way, when the character is immersed in water, an image in which both dirt and ripples spread from the portion immersed in water can be generated, and a more realistic image can be generated.

具体的には本実施形態では図13(A)に示すような波紋処理用テクスチャ(広義にはエフェクト処理用テクスチャ)が用意され、図1のテクスチャ記憶部176に記憶される。この波紋処理用テクスチャでは、例えばそのR成分、B成分(広義には所定のチャンネル成分)に対して、水(第2のオブジェクト)のエフェクト処理用のパラメータが設定される。具体的には、波紋処理用テクスチャのR成分、B成分に対して、水の波紋処理用法線情報パラメータ(エフェクト処理用法線情報パラメータ)が設定され、この波紋処理用法線情報パラメータを用いて、波紋のエフェクト処理が行われる。   Specifically, in the present embodiment, a ripple processing texture (effect processing texture in a broad sense) as shown in FIG. 13A is prepared and stored in the texture storage unit 176 in FIG. In the ripple processing texture, parameters for effect processing of water (second object) are set for the R component and B component (predetermined channel component in a broad sense), for example. Specifically, a water ripple processing normal information parameter (effect processing normal information parameter) is set for the R component and B component of the ripple processing texture, and using this ripple processing normal information parameter, Ripple effect processing is performed.

一方、図13(A)に示すように、波紋処理用テクスチャでは、例えばそのG成分(広義には所定チャンネル成分とは異なる他のチャンネル成分)に対して、水の汚れ処理用パラメータ(変色処理用パラメータ)が設定される。そして、この汚れ処理用パラメータを用いて、水の汚れ処理(変色処理)が行われる。例えば、濃い汚れについては、G成分に設定される汚れ処理用パラメータを大きな値に設定することで表現し、薄い汚れについては、G成分に設定される汚れ処理用パラメータを小さな値に設定することで表現する。   On the other hand, as shown in FIG. 13A, in the ripple processing texture, for example, for the G component (in a broad sense, another channel component different from the predetermined channel component), a water stain processing parameter (discoloration processing) is used. Parameter) is set. Then, using this stain processing parameter, water stain processing (discoloration processing) is performed. For example, for a dark stain, the stain processing parameter set for the G component is set to a large value, and for a light stain, the stain processing parameter set for the G component is set to a small value. It expresses with.

このようにすれば、水の波紋を表現するための波紋処理用テクスチャを有効活用して、水の汚れ処理についても実現できるようになり、テクスチャの使用記憶容量の節約等を図れる。   In this way, it is possible to effectively use the ripple processing texture for expressing the ripples of the water, and to realize the water stain processing, thereby saving the storage capacity of the texture.

なお図13(B)に示すように、波紋処理用テクスチャ(エフェクト処理用テクスチャ)と汚れ処理用テクスチャ(変色処理用テクスチャ)の両方を用意して、テクスチャ記憶部176に記憶するようにしてもよい。   As shown in FIG. 13B, both a ripple processing texture (effect processing texture) and a stain processing texture (discoloration processing texture) are prepared and stored in the texture storage unit 176. Good.

この場合には、波紋処理用テクスチャ(エフェクト処理用テクスチャ)のチャンネル成分(例えばR、G、B成分の少なくとも2つのチャンネル成分)に対して、水の波紋処理用パラメータ(エフェクト処理用パラメータ)を設定する。具体的には波紋処理用の法線情報パラメータを設定して、水の波紋処理(エフェクト処理)を行う。   In this case, the water ripple processing parameter (effect processing parameter) is set for the channel component of the ripple processing texture (effect processing texture) (for example, at least two channel components of R, G, and B components). Set. Specifically, a normal line information parameter for ripple processing is set, and water ripple processing (effect processing) is performed.

一方、図13(B)に示すように、汚れ処理用テクスチャ(変色処理用テクスチャ)のチャネル成分(例えばR、G、B成分)に対して、水の汚れ処理用パラメータ(変色処理用パラメータ)を設定する。具体的には、水の汚れ色パラメータを設定して、水の汚れ処理(変色処理)を行う。   On the other hand, as shown in FIG. 13B, for the channel components (for example, R, G, B components) of the stain processing texture (color change processing texture), the water stain processing parameters (color change processing parameters). Set. Specifically, a water stain color parameter is set, and water stain processing (discoloration processing) is performed.

例えば図13(A)の手法では、テクスチャの使用記憶容量は節約できるものの、汚れ色として1つの色成分しか使用できないため、単色の汚れしか表現できないという不利点がある。例えば図6(A)のA3において、全面が黒色や赤色等の単色になる汚れ画像しか生成できない。   For example, the technique shown in FIG. 13A has a disadvantage that although only one color component can be used as a stain color, only a single color stain can be expressed, although the use storage capacity of the texture can be saved. For example, in A3 of FIG. 6A, only a smear image in which the entire surface is a single color such as black or red can be generated.

これに対して図13(B)の手法では、汚れ処理用テクスチャが別途必要になるものの、汚れ色として複数の色成分を使用できるため、単色ではない汚れも表現できるようになる。例えば図6(A)のA3において、水面の各場所において色が異なるような汚れ画像も生成できるようになる。従って、多様な汚れ画像を生成することができ、多彩な画像表現を実現できるようになる。   On the other hand, in the method of FIG. 13B, although a stain processing texture is separately required, a plurality of color components can be used as the stain color, so that stains other than a single color can be expressed. For example, at A3 in FIG. 6A, it is possible to generate a smear image having a different color at each location on the water surface. Therefore, various dirt images can be generated, and various image expressions can be realized.

図13(A)、図13(B)に示すような波紋処理用テクスチャや汚れ処理用テクスチャを用いれば、図14に示すような波紋や汚れのアニメーション処理を実現できる。即ち図14では、波紋処理が行われるエフェクト領域の大きさが、B1に示すキャラクタと水の接触位置(キャラクタの足等の部位が水に浸かった位置)から、時間経過に伴い徐々に拡大している。また汚れ処理が行われる領域の大きさも、B2に示すキャラクタと水の接触位置から、時間経過に伴い徐々に拡大している。これは、図13(A)、図13(B)に示すような波紋処理用テクスチャや汚れ処理用テクスチャのテクセル値を時間経過に伴い書き換えるテクスチャアニメーション処理を行うことで実現できる。即ち、波紋については図14のB1の位置から同心円状に波紋が広がるようなテクセル値の書き換え処理を行うことで、波紋が徐々に広がる画像を生成できる。また汚れ色については、図14のB2の位置を中心にして汚れが広がるようなテクセル値の書き換え処理を行うことで、汚れが徐々に広がる画像を生成できる。   If the ripple processing texture and the stain processing texture as shown in FIGS. 13A and 13B are used, the ripple and stain animation processing as shown in FIG. 14 can be realized. That is, in FIG. 14, the size of the effect area on which the ripple processing is performed gradually increases with the passage of time from the contact position of the character shown in B <b> 1 (the position where the character's feet or the like are immersed in water). ing. In addition, the size of the area where the smearing process is performed gradually increases with the passage of time from the contact position of the character and water shown in B2. This can be realized by performing texture animation processing that rewrites the texel values of the ripple processing texture and the stain processing texture as time passes as shown in FIGS. 13 (A) and 13 (B). That is, for the ripples, an image in which the ripples gradually spread can be generated by performing a texel value rewriting process so that the ripples spread concentrically from the position B1 in FIG. As for the stain color, an image in which the stain gradually spreads can be generated by performing a texel value rewriting process in which the stain spreads around the position B2 in FIG.

ここで、図14のB1、B2に示す波紋や汚れの発生位置は、図10(A)、図10(B)で説明した関節(広義には頂点の代表点)の位置情報に基づき特定する。例えばキャラクタの足が水に浸かった場合には、その足の関節の位置により、図14のB1、B2に示す波紋や汚れのテクスチャ上での発生位置を特定する。そして特定された発生位置を中心に波紋や汚れが広がって行くテクスチャのアニメーション処理を行う。このようにすることで、水に浸かったキャラクタの足の関節に対応する位置から波紋や汚れが広がって行くような処理が可能になる。従って、あたかも、キャラクタの足が水に浸かることで波紋が周囲に広がると共に、キャラクタの足等の汚れが水で流れ落ちて周囲に広がるような画像表現が可能になり、よりリアルで仮想現実感の高い画像を生成できるようになる。   Here, the occurrence positions of ripples and stains shown in B1 and B2 of FIG. 14 are specified based on the position information of the joints (representative points of vertices in a broad sense) described in FIGS. 10A and 10B. . For example, when the foot of the character is immersed in water, the generation position on the texture of ripples and dirt shown in B1 and B2 of FIG. 14 is specified by the position of the joint of the foot. Then, an animation process is performed on the texture in which ripples and dirt spread around the specified occurrence position. In this way, it is possible to perform processing in which ripples and dirt spread from a position corresponding to the joint of the character's foot immersed in water. Therefore, as the character's feet are immersed in water, the ripples spread around and the image of the character's feet, etc. flowing out of the water and spreading around it becomes possible, making it more realistic and virtual reality. A high image can be generated.

なお、以上では、水面の汚れ処理として、汚れ色パラメータを用いる場合について主に説明したが、本実施形態はこれに限定されない。例えば水面のピクセルシェーダー等により、各ピクセルでの汚れ度合いパラメータを取得し、取得された汚れ度合いパラメータに基づいて、水面の透明度(α値)を変化させたり、水面の色を変化させることで、汚れ処理を実現してもよい。   In the above description, the case where the stain color parameter is used as the stain treatment on the water surface has been mainly described, but the present embodiment is not limited to this. For example, by acquiring a contamination level parameter at each pixel by a pixel shader on the water surface, and changing the transparency (α value) of the water surface or changing the color of the water surface based on the acquired contamination level parameter, A dirt treatment may be realized.

図15(A)、図15(B)に、図13(A)の波紋処理用テクスチャのR成分、B成分に設定される法線情報パラメータの例を示す。図15(A)、図15(B)では、R成分、B成分の各成分の数値範囲は0.0〜1.0となっており、R成分を法線(法線ベクトル)のX成分に対応させ、B成分を法線のZ成分に対応させる。そして図15(A)の法線N1のX成分(R成分)、Z成分(B成分)は(0.5、0.5)となり、この場合には法線N1は図15(A)において上向きの法線になる。また法線N2のX成分、Z成分は(1.0、0.5)となり、この場合には法線N2は図15(A)において右向きの法線になる。また法線N3のX成分、Z成分は(0.0、0.5)となり、この場合には法線N3は図15(A)において左向きの法線になる。図15(B)の法線N4、N5についても同様である。   FIGS. 15A and 15B show examples of normal information parameters set in the R component and the B component of the ripple processing texture of FIG. 13A. In FIG. 15A and FIG. 15B, the numerical range of each component of the R component and the B component is 0.0 to 1.0, and the R component is the X component of the normal line (normal vector). And the B component corresponds to the normal Z component. The X component (R component) and the Z component (B component) of the normal line N1 in FIG. 15A are (0.5, 0.5). In this case, the normal line N1 is the same as that in FIG. It becomes an upward normal. Further, the X component and the Z component of the normal line N2 are (1.0, 0.5). In this case, the normal line N2 is a normal line facing right in FIG. Further, the X component and the Z component of the normal line N3 are (0.0, 0.5). In this case, the normal line N3 is a leftward normal line in FIG. The same applies to the normal lines N4 and N5 in FIG.

本実施形態では、このような法線情報パラメータを用いて、水(液体)の屈折率の変化を表すエフェクト処理等を行うことで、波紋のエフェクト処理を実現している。   In the present embodiment, ripple effect processing is realized by performing effect processing that represents a change in the refractive index of water (liquid) using such normal information parameters.

例えば図16(A)では、キャラクタOBCの足が水OBWに浸かっている。この場合には図16(A)のC1、C2に示す位置を、キャラクタOBCの足の関節の位置から特定し、このC1、C2から波紋や汚れが広がる画像を生成する。   For example, in FIG. 16A, the foot of the character OBC is immersed in the water OBW. In this case, the positions indicated by C1 and C2 in FIG. 16A are specified from the positions of the joints of the legs of the character OBC, and an image in which ripples and dirt spread is generated from these C1 and C2.

具体的には、図16(A)の場面を仮想カメラの視点(プレーヤの視点)で見た画像でとして、図16(B)に示すような画像を生成する。そして、生成された図16(B)の画像を、図13(A)〜図15(B)で説明した波紋処理用テクスチャの法線情報パラメータを用いて歪ませる画像処理を行うことで、水(液体)の屈折率が変化したかのように見える屈折画像を生成する。   Specifically, an image as shown in FIG. 16B is generated as an image obtained by viewing the scene of FIG. 16A from the viewpoint of the virtual camera (the viewpoint of the player). Then, the generated image of FIG. 16B is subjected to image processing that distorts the image using the normal line information parameter of the ripple processing texture described with reference to FIGS. A refraction image that looks as if the refractive index of (liquid) has changed is generated.

例えば図16(B)の画像を屈折画像のテクスチャとし、水面を表すオブジェクト(1又は複数のポリゴンにより構成されるオブジェクト)にマッピングする。その際に、屈折画像のテクスチャの参照位置であるテクスチャ座標(U、V座標)を、図15(A)、図15(B)で説明した波紋処理用テクスチャの法線情報パラメータを用いて変動させることで、水(液体)の屈折率が変化したかのように見える画像を生成する。   For example, the image shown in FIG. 16B is used as the texture of the refraction image, and is mapped to an object representing the water surface (an object composed of one or a plurality of polygons). At that time, the texture coordinates (U, V coordinates), which are the reference positions of the texture of the refraction image, are changed using the normal line information parameter of the ripple processing texture described with reference to FIGS. 15 (A) and 15 (B). By doing so, an image that looks as if the refractive index of water (liquid) has changed is generated.

例えば図17は、このような水の屈折率を変化させるエフェクト処理により生成された画像の例である。図17のD1、D2では、法線情報パラメータによりテクスチャの参照位置が変動することで、水面の下の足が、波紋による水の屈折率の変化により歪んだかのように見える画像を生成できるようになる。   For example, FIG. 17 shows an example of an image generated by effect processing for changing the refractive index of water. In D1 and D2 of FIG. 17, the texture reference position varies depending on the normal information parameter, so that an image can be generated in which the feet below the water surface appear to be distorted by a change in the refractive index of water due to ripples. become.

また図16(C)は、図16(B)の画像等を、水面のラインを基準に上下に反転させた画像である。そして図16(C)の画像を、波紋処理用テクスチャの法線情報パラメータを用いて歪ませる画像処理を行うことで、水(液体)の反射率が変化したかのように見える反射画像を生成する。   FIG. 16C is an image obtained by inverting the image of FIG. 16B and the like up and down with reference to the water surface line. Then, by performing image processing that distorts the image of FIG. 16C using the normal information parameter of the ripple processing texture, a reflection image that looks as if the reflectance of water (liquid) has changed is generated. To do.

例えば図16(C)の画像を反射画像のテクスチャとし、水面を表すオブジェクトにマッピングする。その際に、反射画像のテクスチャの参照位置であるテクスチャ座標(U、V座標)を、波紋処理用テクスチャの法線情報パラメータを用いて変動させることで、水の反射率が変化したかのように見える画像を生成する。このようにすれば、水面に映る反射画像(例えば、キャラクタの、水に浸かってない部分が水面に反射した画像)が、波紋による水の反射率の変化により歪んだかのように見える画像を生成できるようになる。   For example, the image of FIG. 16C is used as the texture of the reflected image and mapped to an object representing the water surface. At that time, it is as if the reflectance of water has changed by changing the texture coordinates (U, V coordinates) which are the reference positions of the texture of the reflected image using the normal information parameter of the ripple processing texture. Generate an image that looks like In this way, a reflected image that appears on the water surface (for example, an image in which a portion of the character that has not been immersed in water is reflected on the water surface) is generated as if it is distorted due to a change in the reflectance of water due to ripples. become able to.

以上のようにすることで、本実施形態によれば、キャラクタの足等が水に浸かることで、足等についた汚れが水面に広がると共に、足等が浸かることによる波紋についても水面に広がるような画像を生成できるようになる。従って、従来の汚れ処理では実現できなかった画像表現を実現することが可能になり、高品質で仮想現実感の高い画像の生成が可能になる。   As described above, according to the present embodiment, when the feet of the character are soaked in water, dirt on the feet spreads on the water surface, and ripples caused by soaking the feet spread on the water surface. It becomes possible to generate a simple image. Therefore, it is possible to realize an image expression that could not be realized by the conventional stain processing, and it is possible to generate an image with high quality and high virtual reality.

2.4 詳細な処理例
次に本実施形態の詳細な処理例について図18〜図20のフローチャートを用いて説明する。図18は、図10(A)、図10(B)等で説明した関節の処理についてのフローチャートである。
2.4 Detailed Processing Example Next, a detailed processing example of the present embodiment will be described with reference to the flowcharts of FIGS. FIG. 18 is a flowchart of the joint processing described in FIGS. 10A and 10B.

まず、キャラクタの全ての関節を処理したか否かを判断し(ステップS1)、全ての関節を処理した場合には、関節の処理を終了する。一方、全ての関節を処理していない場合には、未処理関節を選択する(ステップS2)。そして、選択された関節の汚れ処理フラグをクリア(例えば「0」)する(ステップS3)。この汚れ処理フラグは図10(B)で説明したフラグであり、後述する図19のステップS15でオン(例えば「1」)にされるフラグである。そして、図10(A)で説明したように、選択された関節の位置が、水に浸っているか否かを判断する(ステップS4)。そして、水に浸かっている場合には、選択された関節を汚れ処理対象関節として登録する(ステップS5)。即ち図1の記憶部170に登録して保存する。   First, it is determined whether or not all the joints of the character have been processed (step S1). If all the joints have been processed, the joint processing is terminated. On the other hand, when all the joints are not processed, an unprocessed joint is selected (step S2). Then, the stain processing flag of the selected joint is cleared (for example, “0”) (step S3). This dirt processing flag is the flag described with reference to FIG. 10B, and is a flag that is turned on (for example, “1”) in step S15 of FIG. 19 described later. Then, as described with reference to FIG. 10A, it is determined whether or not the position of the selected joint is immersed in water (step S4). And when it is immersed in water, the selected joint is registered as a stain | pollution | contamination process target joint (step S5). That is, it is registered and stored in the storage unit 170 of FIG.

図19は、図9(A)、図9(B)、図11(A)、図11(B)等で説明した頂点の処理についてのフローチャートである。   FIG. 19 is a flowchart of the vertex processing described in FIGS. 9A, 9B, 11A, 11B, and the like.

まず、キャラクタの全ての頂点を処理したか否かを判断し(ステップS11)、全ての頂点を処理した場合には、頂点の処理を終了する。一方、全ての頂点を処理していない場合には、未処理の頂点を選択する(ステップS12)。そして、選択された頂点の変色処理用パラメータである汚れ色パラメータを取得する(ステップS13)。即ち、図9(A)において頂点データとして設定された汚れ色パラメータを取得する。   First, it is determined whether or not all vertices of the character have been processed (step S11). If all vertices have been processed, the vertex processing is terminated. On the other hand, if not all vertices are processed, unprocessed vertices are selected (step S12). Then, a stain color parameter that is a parameter for color change processing of the selected vertex is acquired (step S13). That is, the stain color parameter set as vertex data in FIG. 9A is acquired.

次に、選択された頂点は汚れで変色しているか否かを、取得された汚れ色パラメータに基づいて判断する(ステップS14)。例えば、汚れ色パラ−メータのR、G、B成分の少なくとも1つの成分が0よりも大きかった場合(所定しきい値よりも大きかった場合)には、その頂点は汚れで変色していると判断される。そして、汚れで変色していると判断された場合には、選択された頂点に最も近い汚れ処理対象関節(図18のステップS5で登録された関節)を検索して、汚れ処理フラグをオンにする(ステップS15)。   Next, it is determined whether or not the selected vertex is discolored due to dirt based on the obtained dirt color parameter (step S14). For example, when at least one of the R, G, and B components of the stain color parameter is greater than 0 (when greater than a predetermined threshold), the vertex is discolored due to stain. To be judged. If it is determined that the color is changed due to dirt, the dirt processing target joint (joint registered in step S5 in FIG. 18) closest to the selected vertex is searched, and the dirt processing flag is turned on. (Step S15).

例えば図11(A)において、頂点V1の汚れ色パラメータに基づいて、頂点V1が汚れで変色されたと判断されたとする。また関節J1が、汚れ処理対象関節として登録されていたとする。この場合には、頂点V1に最も近い関節であるJ1が検索されて、この関節J1の汚れ処理フラグ(図10(B)参照)がオン(例えば「1」)に設定される。この汚れ処理フラグは、例えばフレームの更新ごとに前述の図18のステップS3に示すようにクリアされる。そして、当該関節が汚れ処理対象関節として登録されて、当該関節の近くの頂点が汚れで変色していると判定されると、図19のステップS5に示すように当該関節の汚れ処理フラグはオンになり、当該関節から汚れが発生する汚れ処理が行われるようになる。   For example, in FIG. 11A, suppose that it is determined that the vertex V1 has been changed in color by the stain based on the stain color parameter of the vertex V1. Assume that the joint J1 is registered as a stain processing target joint. In this case, J1 which is the joint closest to the vertex V1 is searched, and the stain processing flag (see FIG. 10B) of the joint J1 is set to ON (eg, “1”). This stain processing flag is cleared, for example, as shown in step S3 of FIG. When it is determined that the joint is registered as a stain processing target joint and the apex near the joint is discolored due to the stain, the stain processing flag of the joint is turned on as shown in step S5 of FIG. As a result, a stain process for producing stain from the joint is performed.

次に、図11(B)で説明したように、選択された頂点の汚れ色パラメータの汚れ色を減衰させる処理を行う(ステップS16)。例えば汚れ色パラメータのR、G、B成分を一定値ずつ減衰させる処理を行う。これにより、キャラクタの汚れが落ちて水に流れたかのように見える画像を生成できるようになる。   Next, as described with reference to FIG. 11B, processing for attenuating the stain color of the stain color parameter of the selected vertex is performed (step S16). For example, processing for attenuating the R, G, and B components of the stain color parameter by a certain value is performed. As a result, it is possible to generate an image that looks as if the character is dirty and flows into the water.

図20は、波紋処理用テクスチャを用いた波紋処理や汚れ処理の詳細例を示すフローチャートである。   FIG. 20 is a flowchart illustrating a detailed example of ripple processing and stain processing using a ripple processing texture.

まず、フレーム更新か否かを判断する(ステップS21)。そして、フレーム更新のタイミングであると判断された場合には、図13(A)〜図14で説明したように、波紋処理用テクスチャのR、B成分である法線情報パラメータのアニメーション処理を行って、波紋領域を拡大させる処理を行う(ステップS22)。また、波紋処理用テクスチャのG成分である汚れ色パラメータのアニメーション処理を行って、汚れ領域を拡大させる処理を行う(ステップS23)。   First, it is determined whether or not it is a frame update (step S21). If it is determined that the frame update timing is reached, as described with reference to FIGS. 13A to 14, animation processing is performed on the normal information parameters that are the R and B components of the ripple processing texture. Then, a process for enlarging the ripple area is performed (step S22). Also, the process of enlarging the dirt region is performed by performing the animation process of the dirt color parameter which is the G component of the ripple processing texture (step S23).

次に、図16(A)〜図17で説明したように、ステップS22でアニメーション処理が行われた法線情報パラメータに基づいて、水面の屈折画像と反射画像を生成する(ステップS24)。また、ステップS23でアニメーション処理を行われた汚れ色パラメータに基づいて、水面の汚れ画像を生成する(ステップS25)。そして、生成された水面の屈折画像、反射画像、汚れ画像を水面オブジェクトにマッピングする(ステップS26)。例えばこれらの屈折画像、反射画像、汚れ画像を、所与のα値でαブレンドする画像合成を行う。このようにすることで、キャラクタの水に浸かった部分から波紋と汚れが広がるような水面の画像を生成できるようになる。   Next, as described with reference to FIGS. 16A to 17, a refraction image and a reflection image of the water surface are generated based on the normal information parameter subjected to the animation process in step S22 (step S24). Further, based on the stain color parameter subjected to the animation process in step S23, a stain image of the water surface is generated (step S25). Then, the generated refraction image, reflection image, and dirt image of the water surface are mapped to the water surface object (step S26). For example, image synthesis is performed in which these refraction images, reflection images, and dirt images are α-blended at a given α value. By doing so, it is possible to generate an image of the water surface in which ripples and dirt spread from the portion of the character immersed in water.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(変色処理、エフェクト処理、第1のオブジェクト、第2のオブジェクト等)と共に記載された用語(汚れ処理、波紋処理、キャラクタ、水等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、第1、第2のオブジェクトの接触イベントの判定処理、オブジェクトの変色処理、オブジェクトのエフェクト処理等も本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, in the specification or the drawings, terms (dirt processing, ripple processing, character, character) described together with different terms (discoloration processing, effect processing, first object, second object, etc.) that are broader or synonymous at least once. Water, etc.) may be replaced with the different terms anywhere in the specification or drawings. Further, the contact event determination process of the first and second objects, the object color change process, the object effect process, and the like are not limited to those described in this embodiment, and techniques equivalent to these are also within the scope of the present invention. included. The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. it can.

OB1 第1のオブジェクト、OB2 第2のオブジェクト、OBC キャラクタ、
OBW 水、J1〜J3 関節、V1〜V8 頂点、
100 処理部、102 ゲーム演算部、104 オブジェクト空間設定部、
106 移動体演算部、108 仮想カメラ制御部、110 イベント判定部、
112 変色処理部、114 エフェクト処理部、
120 画像生成部、130 音生成部、160 操作部、
170 記憶部、172 オブジェクトデータ記憶部、
174 モーションデータ記憶部、176 テクスチャ記憶部、
178 頂点データ記憶部、179 描画バッファ、
180 情報記憶媒体、190 表示部、192 音出力部、194 補助記憶装置、
196 通信部、
500 サーバシステム、510 ネットワーク、TM1〜TMn 端末装置、
600 処理部、602 ゲーム演算部、604 オブジェクト空間設定部、
606 移動体演算部、608 仮想カメラ制御部、610 イベント判定部、
612 変色処理部、614 エフェクト処理部、
620 画像生成用データ生成部、630 音生成用データ生成部
OB1 first object, OB2 second object, OBC character,
OBW water, J1-J3 joint, V1-V8 apex,
100 processing unit, 102 game calculation unit, 104 object space setting unit,
106 moving body calculation unit, 108 virtual camera control unit, 110 event determination unit,
112 color change processing unit, 114 effect processing unit,
120 image generation unit, 130 sound generation unit, 160 operation unit,
170 storage unit, 172 object data storage unit,
174 motion data storage unit, 176 texture storage unit,
178 vertex data storage unit, 179 drawing buffer,
180 information storage medium, 190 display unit, 192 sound output unit, 194 auxiliary storage device,
196 Communication Department,
500 server system, 510 network, TM1-TMn terminal device,
600 processing unit, 602 game calculation unit, 604 object space setting unit,
606 moving body calculation unit, 608 virtual camera control unit, 610 event determination unit,
612 color change processing unit, 614 effect processing unit,
620 Image generation data generation unit, 630 Sound generation data generation unit

Claims (20)

第1のオブジェクトが第2のオブジェクトに接触する接触イベントの発生を判定するイベント判定部と、
前記第1のオブジェクトと前記第2のオブジェクトの前記接触イベントが発生した場合に、前記第1のオブジェクトに対して設定された変色処理用パラメータを取得し、取得された前記変色処理用パラメータに応じた変色処理を、前記第1のオブジェクトの接触位置に対応する前記第2のオブジェクト上の領域に対して行う変色処理部と、
前記第1、第2のオブジェクトを含む複数のオブジェクトが配置設定されるオブジェクト空間において、仮想カメラから見える画像を生成する画像生成部として、
コンピュータを機能させることを特徴とするプログラム。
An event determination unit that determines the occurrence of a contact event in which the first object contacts the second object;
When the contact event of the first object and the second object occurs, the color change processing parameter set for the first object is acquired, and the color change processing parameter is obtained according to the acquired color change processing parameter A color change processing unit that performs the color change processing on a region on the second object corresponding to the contact position of the first object;
In an object space where a plurality of objects including the first and second objects are arranged and set, as an image generation unit that generates an image seen from a virtual camera,
A program characterized by causing a computer to function.
請求項1において、
前記変色処理部は、
前記変色処理が行われる前記第2のオブジェクト上の変色領域の大きさを、前記接触位置から時間経過に伴い拡大する処理を行うことを特徴とするプログラム。
In claim 1,
The color change processing unit
The program which performs the process which expands the magnitude | size of the color-change area | region on the said 2nd object in which the said color-change process is performed with progress of time from the said contact position.
請求項2において、
前記変色処理用パラメータは、前記第1のオブジェクトの変色処理用のパラメータであり、
前記変色処理部は、
前記接触イベントが発生している期間において、前記変色処理が行われる前記第2のオブジェクト上の前記変色領域の大きさを、時間経過に伴い拡大する処理を行うと共に、前記変色処理用パラメータにより設定される前記第1のオブジェクトの変色の色を、時間経過に伴い減衰させる処理を行うこと特徴とするプログラム。
In claim 2,
The discoloration processing parameter is a discoloration processing parameter for the first object,
The color change processing unit
In the period in which the touch event occurs, the size of the color change area on the second object on which the color change process is performed is enlarged with time, and set by the parameter for the color change process A program for performing a process of attenuating the discolored color of the first object as time passes.
請求項1乃至3のいずれかにおいて、
前記変色処理部は、
前記接触イベントが発生した場合に、前記第1のオブジェクトを構成する複数の頂点のうち、前記第2のオブジェクトと接触したと判定された頂点に対して設定された前記変色処理用パラメータに応じた変色処理を、前記接触位置に対応する前記第2のオブジェクト上の領域に対して行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 3,
The color change processing unit
When the contact event occurs, according to the discoloration processing parameter set for the vertex determined to have contacted the second object among the plurality of vertices constituting the first object A program for performing a color change process on an area on the second object corresponding to the contact position.
請求項4において、
前記イベント判定部は、
前記第1のオブジェクトを構成する複数の頂点の代表点と前記第2のオブジェクトとの位置関係に基づいて、前記第1のオブジェクトと前記第2のオブジェクトの前記接触イベントが発生したか否かを判定することを特徴とするプログラム。
In claim 4,
The event determination unit
Whether or not the contact event of the first object and the second object has occurred based on the positional relationship between the representative points of a plurality of vertices constituting the first object and the second object. A program characterized by judging.
請求項4又は5において、
前記変色処理部は、
前記第1のオブジェクトを構成する複数の頂点の代表点の位置情報に基づいて、前記第2のオブジェクト上の変色領域を特定し、特定された前記変色領域に対して前記変色処理を行うことを特徴とするプログラム。
In claim 4 or 5,
The color change processing unit
Based on position information of representative points of a plurality of vertices constituting the first object, a color change area on the second object is specified, and the color change process is performed on the specified color change area. A featured program.
請求項5又は6において、
前記第1のオブジェクトの前記複数の頂点の前記代表点は、前記第1のオブジェクトのモーション処理用のスケルトンの関節であることを特徴とするプログラム。
In claim 5 or 6,
The program characterized in that the representative points of the plurality of vertices of the first object are skeleton joints for motion processing of the first object.
請求項4乃至7のいずれかにおいて、
前記変色処理部は、
前記接触イベントが発生している期間において、前記第2のオブジェクトと接触したと判定された頂点の前記変色処理用パラメータの値を、時間経過に伴い減衰させる処理を行うこと特徴とするプログラム。
In any of claims 4 to 7,
The color change processing unit
A program for performing a process of attenuating with time the value of the parameter for color change processing at a vertex determined to have contacted the second object during a period in which the contact event occurs.
請求項1乃至8のいずれかにおいて、
前記第1のオブジェクトの前記接触位置に対応する前記第2のオブジェクト上の領域に対して、前記変色処理とは異なるエフェクト処理を行うエフェクト処理部として、
コンピュータを機能させることを特徴とするプログラム。
In any one of Claims 1 thru | or 8.
As an effect processing unit that performs an effect process different from the color change process on an area on the second object corresponding to the contact position of the first object,
A program characterized by causing a computer to function.
請求項9において、
前記変色処理部は、
前記変色処理が行われる前記第2のオブジェクト上の変色領域の大きさを、前記接触位置から時間経過に伴い拡大する処理を行い、
前記エフェクト処理部は、
前記エフェクト処理が行われる前記第2のオブジェクト上のエフェクト領域の大きさを、前記接触位置から時間経過に伴い拡大する処理を行うことを特徴とするプログラム。
In claim 9,
The color change processing unit
Performing a process of enlarging the size of the discoloration area on the second object on which the discoloration process is performed with the passage of time from the contact position;
The effect processing unit
A program for performing a process of enlarging the size of an effect area on the second object on which the effect process is performed with the passage of time from the contact position.
請求項9又は10において、
前記第2のオブジェクトは、液体を表すオブジェクトであり、
前記エフェクト処理部は、
前記エフェクト処理として、前記液体の波紋のエフェクト処理を行うことを特徴とするプログラム。
In claim 9 or 10,
The second object is an object representing a liquid;
The effect processing unit
A program for performing an effect process on the ripples of the liquid as the effect process.
請求項11において、
前記エフェクト処理部は、
前記波紋のエフェクト処理として、前記液体の屈折率の変化を表すエフェクト処理を行うことを特徴とするプログラム。
In claim 11,
The effect processing unit
A program characterized by performing an effect process representing a change in the refractive index of the liquid as the ripple effect process.
請求項9乃至12のいずれかにおいて、
エフェクト処理用テクスチャを記憶するテクスチャ記憶部として、
コンピュータを機能させ、
前記エフェクト処理部は、
前記エフェクト処理用テクスチャの所定チャンネル成分に対して設定されるエフェクト処理用パラメータを用いて、前記第2のオブジェクトの前記エフェクト処理を行い、
前記変色処理部は、
前記エフェクト処理用テクスチャの前記所定チャンネル成分とは異なる他のチャンネル成分に対して設定される変色処理用パラメータを用いて、前記第2のオブジェクトの前記変色処理を行うことを特徴とするプログラム。
In any of claims 9 to 12,
As a texture storage unit that stores textures for effect processing,
Make the computer work,
The effect processing unit
The effect processing of the second object is performed using an effect processing parameter set for a predetermined channel component of the effect processing texture,
The color change processing unit
A program for performing the color change processing of the second object using a color change processing parameter set for another channel component different from the predetermined channel component of the effect processing texture.
請求項13おいて、
前記エフェクト処理部は、
前記エフェクト処理用テクスチャの前記所定チャンネル成分に対して設定されるエフェクト処理用法線情報パラメータを用いて、前記第2のオブジェクトの前記エフェクト処理を行うことを特徴とするプログラム。
In claim 13,
The effect processing unit
A program for performing the effect processing of the second object using an effect processing normal information parameter set for the predetermined channel component of the effect processing texture.
請求項9乃至12のいずれかにおいて、
エフェクト処理用テクスチャと変色処理用テクスチャを記憶するテクスチャ記憶部として、
コンピュータを機能させ、
前記エフェクト処理部は、
前記エフェクト処理用テクスチャのチャンネル成分に対して設定されるエフェクト処理用パラメータを用いて、前記第2のオブジェクトの前記エフェクト処理を行い、
前記変色処理部は、
前記変色処理用テクスチャのチャネル成分に対して設定される変色処理用パラメータを用いて、前記第2のオブジェクトの前記変色処理を行うことを特徴とするプログラム。
In any of claims 9 to 12,
As a texture storage unit that stores texture for effect processing and texture for discoloration processing,
Make the computer work,
The effect processing unit
The effect processing of the second object is performed using the effect processing parameter set for the channel component of the effect processing texture,
The color change processing unit
A program for performing the color change processing of the second object using a color change processing parameter set for a channel component of the color change processing texture.
請求項1乃至15のいずれかにおいて、
前記第1のオブジェクトは、ゲームに登場するキャラクタを表すオブジェクトであり、前記第2のオブジェクトは、液体を表すオブジェクトであり、
前記変色処理部は、
前記キャラクタの前記変色処理用パラメータに基づいて、前記キャラクタの表面を変色させる処理を行うと共に、
前記キャラクタが前記液体に浸かる前記接触イベントが発生した場合に、前記キャラクタの各部分のうち、前記液体に浸かった部分の前記変色処理用パラメータに基づいて、前記液体を変色させる処理を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 15,
The first object is an object representing a character appearing in a game, the second object is an object representing a liquid,
The color change processing unit
Based on the color change processing parameters of the character, a process for changing the color of the character surface,
When the contact event in which the character is immersed in the liquid occurs, a process for changing the color of the liquid is performed based on the parameter for the color change process of the portion of the character immersed in the liquid. A featured program.
請求項16において、
前記変色処理部は、
前記キャラクタの各部分のうち、前記液体に浸かった部分については、前記変色処理用パラメータによる変色の色を、減衰させる処理を行うことを特徴とするプログラム。
In claim 16,
The color change processing unit
A program for performing a process of attenuating the color of the discoloration according to the discoloration processing parameter for each part of the character immersed in the liquid.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至17のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 17 is stored. 第1のオブジェクトが第2のオブジェクトに接触する接触イベントの発生を判定するイベント判定部と、
前記第1のオブジェクトと前記第2のオブジェクトの前記接触イベントが発生した場合に、前記第1のオブジェクトに対して設定された変色処理用パラメータを取得し、取得された前記変色処理用パラメータに応じた変色処理を、前記第1のオブジェクトの接触位置に対応する前記第2のオブジェクト上の領域に対して行う変色処理部と、
前記第1、第2のオブジェクトを含む複数のオブジェクトが配置設定されるオブジェクト空間において、仮想カメラから見える画像を生成する画像生成部と、
を含むことを特徴とする画像生成システム。
An event determination unit that determines the occurrence of a contact event in which the first object contacts the second object;
When the contact event of the first object and the second object occurs, the color change processing parameter set for the first object is acquired, and the color change processing parameter is obtained according to the acquired color change processing parameter A color change processing unit that performs the color change processing on a region on the second object corresponding to the contact position of the first object;
An image generation unit configured to generate an image viewed from a virtual camera in an object space in which a plurality of objects including the first and second objects are arranged and set;
An image generation system comprising:
第1のオブジェクトが第2のオブジェクトに接触する接触イベントの発生を判定するイベント判定部と、
前記第1のオブジェクトと前記第2のオブジェクトの前記接触イベントが発生した場合に、前記第1のオブジェクトに対して設定された変色処理用パラメータを取得し、取得された前記変色処理用パラメータに応じた変色処理を、前記第1のオブジェクトの接触位置に対応する前記第2のオブジェクト上の領域に対して行う変色処理部と、
前記第1、第2のオブジェクトを含む複数のオブジェクトが配置設定されるオブジェクト空間において、仮想カメラから見える画像を生成するための画像生成用データを生成する画像生成用データ生成部と、
を含むことを特徴とするサーバシステム。
An event determination unit that determines the occurrence of a contact event in which the first object contacts the second object;
When the contact event of the first object and the second object occurs, the color change processing parameter set for the first object is acquired, and the color change processing parameter is obtained according to the acquired color change processing parameter A color change processing unit that performs the color change processing on a region on the second object corresponding to the contact position of the first object;
An image generation data generation unit for generating image generation data for generating an image viewed from a virtual camera in an object space in which a plurality of objects including the first and second objects are arranged and set;
A server system comprising:
JP2011103730A 2011-05-06 2011-05-06 Program, information storage medium, image generation system and server system Withdrawn JP2012234441A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011103730A JP2012234441A (en) 2011-05-06 2011-05-06 Program, information storage medium, image generation system and server system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011103730A JP2012234441A (en) 2011-05-06 2011-05-06 Program, information storage medium, image generation system and server system

Publications (1)

Publication Number Publication Date
JP2012234441A true JP2012234441A (en) 2012-11-29

Family

ID=47434687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011103730A Withdrawn JP2012234441A (en) 2011-05-06 2011-05-06 Program, information storage medium, image generation system and server system

Country Status (1)

Country Link
JP (1) JP2012234441A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015051119A (en) * 2013-09-06 2015-03-19 株式会社カプコン Game program and game apparatus
JP2017097926A (en) * 2017-02-23 2017-06-01 株式会社スクウェア・エニックス Program, computer device, and execution method
JP2018029969A (en) * 2016-08-26 2018-03-01 株式会社コロプラ Information processing method, and program for allowing computer to execute the information processing method
US10621761B2 (en) 2015-11-20 2020-04-14 Square Enix Co., Ltd. Computer-readable recording medium, computer apparatus, and computer processing method for placing object in virtual space and displaying placed object according to display mode
CN111135575A (en) * 2019-12-27 2020-05-12 珠海金山网络游戏科技有限公司 Game role moving method and device
EP4005651A4 (en) * 2020-01-20 2022-11-30 Tencent Technology (Shenzhen) Company Limited Method and apparatus for virtual character control in virtual environment, and device and medium
CN116883584A (en) * 2023-05-29 2023-10-13 东莞市捷圣智能科技有限公司 Track generation method and device based on digital-analog, electronic equipment and storage medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015051119A (en) * 2013-09-06 2015-03-19 株式会社カプコン Game program and game apparatus
US10621761B2 (en) 2015-11-20 2020-04-14 Square Enix Co., Ltd. Computer-readable recording medium, computer apparatus, and computer processing method for placing object in virtual space and displaying placed object according to display mode
JP2018029969A (en) * 2016-08-26 2018-03-01 株式会社コロプラ Information processing method, and program for allowing computer to execute the information processing method
JP2017097926A (en) * 2017-02-23 2017-06-01 株式会社スクウェア・エニックス Program, computer device, and execution method
CN111135575A (en) * 2019-12-27 2020-05-12 珠海金山网络游戏科技有限公司 Game role moving method and device
CN111135575B (en) * 2019-12-27 2023-09-19 珠海金山数字网络科技有限公司 Game character moving method and device
EP4005651A4 (en) * 2020-01-20 2022-11-30 Tencent Technology (Shenzhen) Company Limited Method and apparatus for virtual character control in virtual environment, and device and medium
CN116883584A (en) * 2023-05-29 2023-10-13 东莞市捷圣智能科技有限公司 Track generation method and device based on digital-analog, electronic equipment and storage medium
CN116883584B (en) * 2023-05-29 2024-03-26 东莞市捷圣智能科技有限公司 Track generation method and device based on digital-analog, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
JP4651435B2 (en) Program, information storage medium, and image generation system
JP4771821B2 (en) Program, information storage medium, and image generation system
JP2012234441A (en) Program, information storage medium, image generation system and server system
JP2010022646A (en) Program, information storage medium, and image generation system
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP3748451B1 (en) Program, information storage medium, and image generation system
JP4749198B2 (en) Program, information storage medium, and image generation system
JP2007249521A (en) Program, information storage medium and image generation system
JP2009129167A (en) Program, information storage medium, and image generation system
JP4743770B2 (en) Image generation system, program, and information storage medium
JP4528008B2 (en) Program, information storage medium, and image generation system
JP4632855B2 (en) Program, information storage medium, and image generation system
JP4913399B2 (en) Program, information storage medium, and image generation system
JP2006285510A (en) Program, information storage medium, and image generation system
JP2006268103A (en) Program, information storage medium, model data structure, and image generation system
JP4574058B2 (en) Image generation system, program, and information storage medium
JP4662260B2 (en) Program, information storage medium, and image generation system
JP2010033288A (en) Image generation system, program and information storage medium
JP4394211B2 (en) Image generation system and information storage medium
JP4786389B2 (en) Program, information storage medium, and image generation system
JP4592087B2 (en) Image generation system, program, and information storage medium
JP2004334801A (en) Image-generating system, program, and information storage medium
JP2006252291A (en) Program, information storage medium and image generation system
JP4624527B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805