JP2008033521A - Program, information storage medium and image generation system - Google Patents

Program, information storage medium and image generation system Download PDF

Info

Publication number
JP2008033521A
JP2008033521A JP2006204703A JP2006204703A JP2008033521A JP 2008033521 A JP2008033521 A JP 2008033521A JP 2006204703 A JP2006204703 A JP 2006204703A JP 2006204703 A JP2006204703 A JP 2006204703A JP 2008033521 A JP2008033521 A JP 2008033521A
Authority
JP
Japan
Prior art keywords
information
character
unit
model
shape information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006204703A
Other languages
Japanese (ja)
Inventor
Jun Kamoshima
潤 鴨島
Norihiro Nishimura
典洋 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2006204703A priority Critical patent/JP2008033521A/en
Publication of JP2008033521A publication Critical patent/JP2008033521A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To enable various customization of character objects. <P>SOLUTION: Shape information about a character object is generated from surface information about a solid object, and the generated shape information is associated with model information for providing motion for the character object. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、プログラム、情報記憶媒体、及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

従来より、キャラクタなどのオブジェクトが配置設定されるオブジェクト空間内(仮想的な3次元空間)において仮想カメラ(所与の視点)から見える画像を生成する画像生成システム(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。このような画像生成システムでは、オブジェクト空間内で動作させるキャラクタオブジェクトをシステムの利用者の好みに応じてカスタマイズできることが望まれるが、かかる画像生成システムとして、例えば特開2003−67767号公報に開示されているような画像生成システムがある。
特開2003−67767号公報
Conventionally, an image generation system (game system) that generates an image that can be viewed from a virtual camera (a given viewpoint) in an object space (virtual three-dimensional space) in which an object such as a character is set is known. It is popular as a place to experience so-called virtual reality. In such an image generation system, it is desired that the character object to be operated in the object space can be customized according to the user's preference. Such an image generation system is disclosed in, for example, Japanese Patent Application Laid-Open No. 2003-67767. There are such image generation systems.
JP 2003-67767 A

しかしながら、従来の画像生成システムでは、キャラクタオブジェクトを構成するパーツを切り替えることによって、予め用意されたキャラクタオブジェクトの一部のカスタマイズを行うことができるに過ぎなかった。すなわち、カスタマイズのバリエーションに制限があり、ユーザーのニーズに十分に応じることができていなかった。   However, in the conventional image generation system, only a part of the character object prepared in advance can be customized by switching the parts constituting the character object. In other words, there are restrictions on customization variations, and the user's needs have not been fully met.

本発明は、上記事情を鑑みてなされたものであり、その目的は、キャラクタオブジェクトの多様なカスタマイズを可能にするプログラム、情報記憶媒体及び画像生成システムを提供することにある。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a program, an information storage medium, and an image generation system that enable various customization of character objects.

(1) 本発明は、オブジェクト空間でモーション制御されるキャラクタオブジェクトを生成するための画像生成システムであって、
立体物の表面情報を取得する表面情報取得部と、
前記表面情報に基づいてキャラクタオブジェクトの形状情報を生成する形状情報生成部と、
前記キャラクタオブジェクトをモーションさせるための、複数のボーンが関節で連結されたモデル情報を記憶する記憶部と、
前記形状情報と前記モデル情報とを対応付ける処理を行うモデル処理部と、
を含むことを特徴とする画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。
(1) The present invention is an image generation system for generating a character object motion-controlled in an object space,
A surface information acquisition unit that acquires surface information of a three-dimensional object;
A shape information generating unit that generates shape information of the character object based on the surface information;
A storage unit for storing model information in which a plurality of bones are connected by joints for moving the character object;
A model processing unit that performs processing for associating the shape information with the model information;
It is related with the image generation system characterized by including. The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

本発明によれば、任意の立体物の表面情報からキャラクタオブジェクトの形状情報を生成し、形状情報とモデル情報とを対応付ける。これにより、オブジェクト空間でモーション制御されるキャラクタオブジェクトを、任意の立体物の外観に対応させて生成することができる。例えば本発明によれば、システムの利用者が粘土等を用いて造形した立体物や、プラスチックモデルや人形等の立体物、身の回りの任意の立体物等が、キャラクタオブジェクトとしてオブジェクト空間でモーションを行う画像を生成することができる。   According to the present invention, shape information of a character object is generated from surface information of an arbitrary three-dimensional object, and the shape information and the model information are associated with each other. Thereby, a character object whose motion is controlled in the object space can be generated in correspondence with the appearance of an arbitrary three-dimensional object. For example, according to the present invention, a three-dimensional object modeled using clay or the like by a user of a system, a three-dimensional object such as a plastic model or a doll, an arbitrary three-dimensional object around us, etc., performs a motion in the object space as a character object. An image can be generated.

これにより本発明によれば、予め多くの異なるキャラクタオブジェクトのデータを用意することなく、様々なキャラクタオブジェクトを生成することができる。しかも本発明によれば、システムの利用者が選択した任意の立体物の外観に対応するキャラクタオブジェクトを生成することができるので、利用者固有のキャラクタオブジェクトを生成することができる。   Thus, according to the present invention, various character objects can be generated without preparing data of many different character objects in advance. In addition, according to the present invention, a character object corresponding to the appearance of an arbitrary three-dimensional object selected by the user of the system can be generated, so that a user-specific character object can be generated.

従って本発明によれば、キャラクタオブジェクトの多様なカスタマイズを可能にするとともに、キャラクタオブジェクトに利用者の感情を効果的に移入させることにより、システムの利用を著しく高めることができるプログラム、情報記憶媒体及び画像生成システムを提供することができる。   Therefore, according to the present invention, a program, an information storage medium, and an information storage medium that enable various customization of a character object and can significantly enhance the use of the system by effectively transferring a user's emotion to the character object. An image generation system can be provided.

(2)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記記憶部が、
複数のモデル情報を記憶し、
前記モデル処理部が、
前記形状情報に基づいてモデル情報を選択し、選択したモデル情報と前記形状情報とを対応付ける処理を行うようにしてもよい。
(2) In the image generation system, program, and information storage medium according to the present invention,
The storage unit
Memorize multiple model information,
The model processing unit
Model information may be selected based on the shape information, and processing for associating the selected model information with the shape information may be performed.

本発明によれば、形状情報に基づいてモデル情報が選択されるので、処理対象とする立体物の形状に応じて、異なるタイプのキャラクタオブジェクトを生成することができるとともに、各タイプのキャラクタオブジェクトに異なるパターンのモーションを行わせることができる。   According to the present invention, since model information is selected based on shape information, different types of character objects can be generated according to the shape of the three-dimensional object to be processed, and each type of character object can be Different patterns of motion can be performed.

これにより本発明によれば、処理対象とする立体物の外観に関連付けたモーションをキャラクタオブジェクトに行わせることができる。従って本発明によれば、システムの利用者に対して、立体物の外観に対してキャラクタオブジェクトのモーションがいかなるものになるかという、これまでの画像生成システムにない興味を喚起することができる。   Thereby, according to this invention, the motion linked | related with the external appearance of the solid object made into a process target can be made to perform on a character object. Therefore, according to the present invention, it is possible to arouse the interest of the system user who is not in the image generation system so far, such as what the motion of the character object will be with respect to the appearance of the three-dimensional object.

(3)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記形状情報と所定のバウンディングボリュームとを比較する比較部としてコンピュータを更に機能させ、
前記モデル処理部が、
前記比較結果に基づいて前記モデル情報を選択するようにしてもよい。
(3) In the image generation system, the program, and the information storage medium according to the present invention,
Further causing the computer to function as a comparison unit that compares the shape information with a predetermined bounding volume,
The model processing unit
The model information may be selected based on the comparison result.

本発明によれば、生成された形状情報と所定のバウンディングボリュームとの比較結果に基づいてモデル情報が選択されるので、処理対象とする立体物の形状と、選択されるモデル情報との間に所定の傾向をもたせることができる。これにより本発明によれば、生成されるキャラクタオブジェクトのモーションに、立体物の形状に関連付けられた所定の傾向をもたせることができる。従って本発明によれば、所望のモーションを行うキャラクタオブジェクトを生成するために、システムの利用者に処理対象とする立体物の形状を選択させるという、これまでの画像生成システムにない興味を喚起することができる。   According to the present invention, the model information is selected based on the comparison result between the generated shape information and the predetermined bounding volume, so that the shape of the three-dimensional object to be processed is selected between the model information to be selected. A predetermined tendency can be given. Thereby, according to this invention, the predetermined | prescribed tendency linked | related with the shape of the solid object can be given to the motion of the character object produced | generated. Therefore, according to the present invention, in order to generate a character object that performs a desired motion, the user of the system is prompted to select a shape of a three-dimensional object to be processed, which is not a conventional image generation system. be able to.

(4)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記表面情報取得部が、
複数の立体物の表面情報を取得し、
前記形状情報生成部が、
前記各立体物の表面情報に基づいて、キャラクタオブジェクトのパーツごとの形状情報を生成し、
前記モデル処理部が、
前記各パーツの形状情報と前記モデル情報とを対応付ける処理を行うようにしてもよい。
(4) In the image generation system, the program, and the information storage medium according to the present invention,
The surface information acquisition unit
Obtain surface information of multiple 3D objects,
The shape information generator
Based on the surface information of each three-dimensional object, generate shape information for each part of the character object,
The model processing unit
A process of associating the shape information of each part with the model information may be performed.

本発明によれば、任意の立体物の表面情報からキャラクタオブジェクトのパーツごとの形状情報を生成し、各パーツの形状情報とモデル情報とを対応付ける。これにより本発明によれば、キャラクタオブジェクトの各パーツが、任意の立体物の外観に対応したキャラクタオブジェクトを生成することができ、かかるキャラクタオブジェクトがオブジェクト空間でモーションを行う画像を生成することができる。例えば本発明によれば、システムの利用者が粘土等を用いて造形した立体物や、身の回りの任意の立体物等を各パーツとするキャラクタオブジェクトが、オブジェクト空間でモーションを行う画像を生成することができる。   According to the present invention, shape information for each part of a character object is generated from surface information of an arbitrary three-dimensional object, and the shape information of each part is associated with model information. Thus, according to the present invention, each part of the character object can generate a character object corresponding to the appearance of an arbitrary three-dimensional object, and an image in which the character object performs a motion in the object space can be generated. . For example, according to the present invention, a three-dimensional object modeled using clay or the like by a user of a system, or a character object having each part as an arbitrary three-dimensional object around us generates an image in which motion is performed in the object space. Can do.

これにより本発明によれば、システム利用者が選択した複数の立体物の組合せにより、更に各立体物と各パーツの対応関係の組合せにより、様々なキャラクタオブジェクトを生成することができる。従って本発明によれば、システムの利用者に対して、選択した複数の立体物の組合せと、立体物とパーツの対応関係の組合せにより、生成されるキャラクタオブジェクトがいかなるものになるかという、これまでの画像生成システムにない興味を喚起することができる。   Thereby, according to this invention, various character objects can be produced | generated by the combination of the corresponding relationship of each solid object and each part by the combination of the some solid object selected by the system user. Therefore, according to the present invention, for the system user, what kind of character object is generated by the combination of the selected three-dimensional object and the combination of the correspondence between the three-dimensional object and the part. It is possible to arouse interest that is not in the previous image generation system.

(5)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記記憶部が、
複数のモデル情報を記憶し、
前記モデル処理部が、
前記各パーツの形状情報に基づいてモデル情報を選択し、選択したモデル情報と前記各パーツの形状情報とを対応付ける処理を行うようにしてもよい。
(5) In the image generation system, the program, and the information storage medium according to the present invention,
The storage unit
Memorize multiple model information,
The model processing unit is
The model information may be selected based on the shape information of each part, and the selected model information may be associated with the shape information of each part.

本発明によれば、各パーツの形状情報に基づいてモデル情報が選択されるので、各パーツに対応する立体物の形状に応じて、異なるタイプのキャラクタオブジェクトを生成することができるとともに、各タイプのキャラクタオブジェクトに異なるパターンのモーションを行わせることができる。   According to the present invention, since model information is selected based on the shape information of each part, different types of character objects can be generated according to the shape of the three-dimensional object corresponding to each part, and each type The character object can be made to perform different patterns of motion.

これにより本発明によれば、各パーツに対応する立体物の外観に関連付けたモーションを行うキャラクタオブジェクトを生成することができる。従って本発明によれば、システムの利用者に対して、立体物の外観と各パーツとの対応関係に応じて、キャラクタオブジェクトのモーションがいかなるものになるかという、これまでの画像生成システムにない興味を喚起することができる。   Thereby, according to this invention, the character object which performs the motion linked | related with the external appearance of the solid object corresponding to each part can be produced | generated. Therefore, according to the present invention, there is no conventional image generation system that tells the user of the system what the motion of the character object will be according to the correspondence between the appearance of the three-dimensional object and each part. It can arouse interest.

(6)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記各パーツの形状情報のうち少なくとも1のパーツの形状情報と、所定のバウンディングボリュームとを比較する比較部としてコンピュータを更に機能させ、
前記モデル処理部が、
前記比較結果に基づいて前記モデル情報を選択するようにしてもよい。
(6) In the image generation system, the program, and the information storage medium according to the present invention,
The computer further functions as a comparison unit that compares the shape information of at least one part of the shape information of each part with a predetermined bounding volume,
The model processing unit
The model information may be selected based on the comparison result.

本発明によれば、生成された形状情報と所定のバウンディングボリュームとの比較結果に基づいてモデル情報が選択されるので、処理対象とする立体物の形状と、選択されるモデル情報との間に所定の傾向をもたせることができる。これにより本発明によれば、生成されるキャラクタオブジェクトのモーションに、立体物と各パーツとの対応関係に関連付けられた所定の傾向をつけることができる。例えば足パーツに対応する立体物が太い柱状体である場合には、2本足のキャラクタオブジェクトが生成されるようにし、細い柱状体である場合には、4本足のキャラクタオブジェクトが生成されるようにすることができる。   According to the present invention, the model information is selected based on the comparison result between the generated shape information and the predetermined bounding volume, so that the shape of the three-dimensional object to be processed is selected between the model information to be selected. A predetermined tendency can be given. Thereby, according to this invention, the predetermined | prescribed tendency linked | related with the corresponding relationship of a solid object and each part can be given to the motion of the character object produced | generated. For example, when the solid object corresponding to the foot part is a thick columnar body, a two-legged character object is generated, and when it is a thin columnar body, a four-legged character object is generated. Can be.

従って本発明によれば、所望のモーションを行うキャラクタオブジェクトを生成するために、システムの利用者に処理対象とする立体物の形状を選択させるという、これまでの画像生成システムにない興味を喚起することができる。   Therefore, according to the present invention, in order to generate a character object that performs a desired motion, the user of the system is prompted to select a shape of a three-dimensional object to be processed, which is not a conventional image generation system. be able to.

(7)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
所定のバウンディングボリュームに基づいて、前記形状情報を補正する補正部としてコンピュータを更に機能させ、
前記モデル処理部が、
前記補正後の形状情報と前記モデル情報とを対応付ける処理を行うようにしてもよい。
(7) In the image generation system, the program, and the information storage medium according to the present invention,
Based on a predetermined bounding volume, further causing the computer to function as a correction unit that corrects the shape information,
The model processing unit
A process for associating the corrected shape information with the model information may be performed.

本発明によれば、所定のバウンディングボリュームに基づいて、生成された形状情報を補正し、補正後の形状情報を用いてキャラクタオブジェクトを生成する。これにより本発明によれば、生成された形状情報をキャラクタオブジェクトの形状情報として適切なものに補正することができる。   According to the present invention, the generated shape information is corrected based on a predetermined bounding volume, and a character object is generated using the corrected shape information. Thereby, according to this invention, the produced | generated shape information can be correct | amended to a suitable thing as the shape information of a character object.

(8)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記形状情報及び前記モデル情報の少なくとも一方に基づいて、前記キャラクタオブジェクトのキャラクタパラメータを設定するパラメータ設定部としてコンピュータを更に機能させるようにしてもよい。
(8) In the image generation system, the program, and the information storage medium according to the present invention,
The computer may further function as a parameter setting unit that sets a character parameter of the character object based on at least one of the shape information and the model information.

本発明においてキャラクタオブジェクトのキャラクタパラメータとは、キャラクタオブジェクトの能力や性格等、そして本発明により生成したキャラクタオブジェクトによりゲームを行う場合には、種々のゲームパラメータを考えることができる。   In the present invention, the character parameters of the character object may be various game parameters when a game is performed with the character object generated by the present invention.

本発明によれば、キャラクタオブジェクトの形状情報・モデル情報に応じて、キャラクタオブジェクトのパラメータを変化させることができる。これにより本発明によれば、キャラクタオブジェクトの外観、モーション、パラメータが相互に関連するキャラクタオブジェクトを生成することができる。従って本発明によれば、処理対象とする立体物の外観に応じて、キャラクタオブジェクトのパラメータがいかなるものになるかという、これまでの画像生成システムにない興味を喚起することができる。   According to the present invention, parameters of a character object can be changed according to the shape information / model information of the character object. Thus, according to the present invention, it is possible to generate a character object in which the appearance, motion, and parameters of the character object are related to each other. Therefore, according to the present invention, it is possible to arouse an interest not found in conventional image generation systems, such as what the parameters of the character object will be according to the appearance of the three-dimensional object to be processed.

(9)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記形状情報及び前記モデル情報の少なくとも一方に基づいて、前記キャラクタオブジェクトのパーツごとにパーツパラメータを設定するパラメータ設定部としてコンピュータを更に機能させるようにしてもよい。
(9) In the image generation system, the program, and the information storage medium according to the present invention,
The computer may further function as a parameter setting unit that sets a part parameter for each part of the character object based on at least one of the shape information and the model information.

本発明においてキャラクタオブジェクトのパーツごとのパーツパラメータとは、キャラクタオブジェクトのパーツごとの能力や性格等、そして本発明により生成したキャラクタオブジェクトによりゲームを行う場合には、種々のゲームパラメータを考えることができる。   In the present invention, the part parameters for each part of the character object may be various game parameters when a game is performed with the character object generated according to the present invention, such as the ability and personality of each part of the character object. .

本発明によれば、キャラクタオブジェクトの形状情報・モデル情報に応じて、キャラクタオブジェクトのパーツごとのパラメータを変化させることができる。これにより本発明によれば、キャラクタオブジェクトの外観、モーション、パラメータが、パーツごとに相互に関連するキャラクタオブジェクトを生成することができる。従って本発明によれば、処理対象とする立体物の外観、又は立体物の外観と各パーツとの対応関係に応じて、キャラクタオブジェクトのパラメータがいかなるものになるかという、これまでの画像生成システムにない興味を喚起することができる。   According to the present invention, parameters for each part of a character object can be changed according to the shape information / model information of the character object. Thus, according to the present invention, it is possible to generate a character object in which the appearance, motion, and parameters of the character object are related to each other. Therefore, according to the present invention, the conventional image generation system for determining what the parameters of the character object will be according to the appearance of the three-dimensional object to be processed or the correspondence between the appearance of the three-dimensional object and each part. It can arouse interests that are not present.

(10)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
オブジェクト空間に前記キャラクタオブジェクトを含むオブジェクトを設定するオブジェクト空間設定部と、
前記形状情報及び前記モデル情報の少なくとも一方に基づいて、前記キャラクタオブジェクトのパラメータを設定するパラメータ設定部と、
前記キャラクタオブジェクトのモーションを制御するモーション制御部と、
仮想カメラの位置及び向きの少なくとも一方の制御を行う仮想カメラ制御部と、
オブジェクト空間を仮想カメラから見た画像を生成する描画部と、
前記パラメータに基づき、ゲーム演算を行うゲーム演算部と、
を更に含むようにしてもよい。
(10) In the image generation system, the program, and the information storage medium according to the present invention,
An object space setting unit for setting an object including the character object in the object space;
A parameter setting unit for setting parameters of the character object based on at least one of the shape information and the model information;
A motion control unit for controlling the motion of the character object;
A virtual camera control unit that controls at least one of the position and orientation of the virtual camera;
A drawing unit for generating an image of the object space viewed from a virtual camera;
A game calculation unit for performing a game calculation based on the parameters;
May be further included.

本発明によれば、生成されたキャラクタオブジェクトがオブジェクト空間でモーションを行う画像を生成し、設定されたパラメータに基づいてゲーム演算を行う。これにより本発明によれば、形状情報及びモデル情報の少なくとも一方に基づいて設定されたパラメータにより、ゲーム内容を変化させることができる。   According to the present invention, an image in which the generated character object performs a motion in the object space is generated, and a game calculation is performed based on the set parameters. Thereby, according to this invention, the game content can be changed by the parameter set based on at least one of shape information and model information.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.概要
図1(A)に、本実施形態の画像生成システムを適用したゲームシステム10(ゲーム端末、ゲームステーション)の実現例(外観図の例)を示す。本実施形態のゲームシステム10は、プレーヤが粘土等を用いて造形した立体物や、プラスチックモデルや人形等の立体物、身の回りの任意の立体物等の表面情報を取得し、取得した表面情報からキャラクタオブジェクトの形状情報を生成する。そして形状情報とスケルトンモデル情報とを対応付けてキャラクタオブジェクトを生成し、生成したキャラクタオブジェクトがモーションを行う画像を表示して対戦ゲームを実行するものである。
1. Outline FIG. 1A shows an implementation example (an example of an external view) of a game system 10 (game terminal, game station) to which the image generation system of this embodiment is applied. The game system 10 of the present embodiment acquires surface information such as a three-dimensional object modeled by a player using clay or the like, a three-dimensional object such as a plastic model or a doll, or an arbitrary three-dimensional object around us, and from the acquired surface information. Generate shape information of the character object. Then, a character object is generated by associating the shape information with the skeleton model information, and an image in which the generated character object performs a motion is displayed to execute a battle game.

図1(A)に示すように、本実施形態のゲームシステム10は、プレーヤキャラクタCH1と対戦相手キャラクタCH2とを表示する表示部12を有し、表示部12の左右には、ゲーム音等を出力する音出力部14が設けられ、表示部12の手前側にはテーブル16が設けられている。このテーブル16の左側には、プレーヤが携帯する情報記憶媒体に対して情報の読出し・書込みを行うカードリーダ18と、ゲーム操作を行うための4つの選択ボタン20とが設けられている。また、テーブル16の右側には、コイン投入口22と、ゲーム操作を行うための決定ボタン24とが設けられている。   As shown in FIG. 1A, the game system 10 of the present embodiment has a display unit 12 that displays a player character CH1 and an opponent character CH2, and game sound and the like are displayed on the left and right sides of the display unit 12. A sound output unit 14 for output is provided, and a table 16 is provided on the front side of the display unit 12. On the left side of the table 16 are provided a card reader 18 for reading / writing information to / from an information storage medium carried by the player, and four selection buttons 20 for performing a game operation. Further, on the right side of the table 16, a coin insertion slot 22 and a determination button 24 for performing a game operation are provided.

そして、テーブル16の内部には、任意の立体物の表面情報を取得するための撮像部26が設けられている。この撮像部26は、円筒形状に形成され、内側面が黒く塗装されている。そして、プレーヤがコイン投入口22にコインを投入するとテーブル16の上面に形成されたシャッター27が開き、プレーヤが撮像部26に任意の立体物を設置するとシャッター27が閉じ、内部が暗室状態となるように構成されている。   An imaging unit 26 for acquiring surface information of an arbitrary three-dimensional object is provided inside the table 16. The imaging unit 26 is formed in a cylindrical shape, and the inner surface is painted black. When the player inserts a coin into the coin insertion slot 22, the shutter 27 formed on the upper surface of the table 16 is opened, and when the player places an arbitrary three-dimensional object on the imaging unit 26, the shutter 27 is closed and the inside becomes a dark room state. It is configured as follows.

図1(B)に、撮像部26の詳細を示す。図1(B)に示すように、撮像部26の底部には、プレーヤが任意の立体物を設置するための円形のターンテーブル28が設けられている。そして撮像部26の上部には、設置された立体物を所定の明るさで照らすライト30と、立体物を撮像するためのカメラ32とが設けられている。そして本実施形態では、ターンテーブル28に任意の立体物が設置されてシャッター27が閉じると、ライト30が立体物を照らし、ターンテーブル28が一定速度で一定方向に回転する。するとターンテーブル28の回転に合わせて、カメラ32が立体物を所定の12方向から撮像する。なお本実施形態ではカメラ32は、図1(B)に示すように立体物を斜め上方から撮像するように配置されている。   FIG. 1B shows details of the imaging unit 26. As shown in FIG. 1B, a circular turntable 28 is provided at the bottom of the imaging unit 26 so that the player can install an arbitrary three-dimensional object. A light 30 for illuminating the installed three-dimensional object with a predetermined brightness and a camera 32 for imaging the three-dimensional object are provided on the upper part of the imaging unit 26. In the present embodiment, when an arbitrary three-dimensional object is placed on the turntable 28 and the shutter 27 is closed, the light 30 illuminates the three-dimensional object, and the turntable 28 rotates in a constant direction at a constant speed. Then, in accordance with the rotation of the turntable 28, the camera 32 images the three-dimensional object from predetermined 12 directions. In the present embodiment, the camera 32 is arranged so as to image a three-dimensional object obliquely from above as shown in FIG.

そして本実施形態では、撮像部26に設置された任意の立体物について、12方向から見た撮像情報を、立体物の表面情報として取得する。特に本実施形態では、撮像部26の内面が黒く塗装されているため、背景が黒く前景が立体物の色で構成される撮像情報を取得することができる。例えば本実施形態では、図2に示すように、カメラ32が12方向から立体物を撮像した撮像情報PI(表面情報)を取得することができる。   And in this embodiment, about arbitrary solid objects installed in image pick-up part 26, imaging information seen from 12 directions is acquired as surface information on a solid object. In particular, in the present embodiment, since the inner surface of the imaging unit 26 is painted black, it is possible to acquire imaging information in which the background is black and the foreground is composed of the color of a three-dimensional object. For example, in this embodiment, as shown in FIG. 2, the camera 32 can acquire imaging information PI (surface information) obtained by imaging a three-dimensional object from 12 directions.

特に本実施形態では、図1(B)に示すようにターンテーブル28が4つのエリアA〜Dに分割されている。そして4つのエリアA〜Dに配置された4つの立体物の表面情報を、それぞれキャラクタオブジェクトの頭パーツの表面情報、胴体パーツの表面情報、腕パーツの表面情報、足パーツの表面情報として取得する。   In particular, in the present embodiment, the turntable 28 is divided into four areas A to D as shown in FIG. Then, the surface information of the four three-dimensional objects arranged in the four areas A to D is acquired as the surface information of the head part of the character object, the surface information of the body part, the surface information of the arm part, and the surface information of the foot part, respectively. .

そして、本実施形態では、取得した各パーツの表面情報に基づき、表示部12に表示させるキャラクタオブジェクトの形状情報を、パーツごとに生成する。そして、生成した各パーツオブジェクトの形状情報と、キャラクタオブジェクトをモーションさせるための複数のボーンが関節で連結されたスケルトンモデル等のモデル情報とを対応付ける。本実施形態では、各パーツオブジェクトの頂点情報をスケルトンモデルの各パーツに対応するボーンに関連付ける。こうして本実施形態では、各パーツが、各パーツに対応する立体物の外観からなるキャラクタオブジェクトを生成する。そして、生成したキャラクタオブジェクトがオブジェクト空間でモーションを行う様子を仮想カメラから見た画像を生成して表示部12に表示させ、キャラクタオブジェクト同士が対戦する対戦ゲームを実行する。   And in this embodiment, based on the acquired surface information of each part, the shape information of the character object displayed on the display part 12 is produced | generated for every part. Then, the generated shape information of each part object is associated with model information such as a skeleton model in which a plurality of bones for moving the character object are connected by joints. In this embodiment, the vertex information of each part object is associated with the bone corresponding to each part of the skeleton model. In this way, in this embodiment, each part generates a character object consisting of the appearance of a three-dimensional object corresponding to each part. Then, an image of the generated character object performing a motion in the object space is generated from the virtual camera and displayed on the display unit 12, and a battle game in which the character objects battle each other is executed.

なお、本実施の形態のゲームシステム10は、同一構成のゲームシステム10を複数台(例えば4〜8台)ネットワークにより接続することができる。そして、各ゲームシステム10間でデータを送受信して、実プレーヤ同士で対戦することができる。なお所定のアルゴリズムで制御されるCPUプレーヤと対戦することもできる。   In addition, the game system 10 of this Embodiment can connect the game system 10 of the same structure by multiple units | sets (for example, 4-8 units) network. Then, data can be transmitted / received between the game systems 10 so that real players can play against each other. It is also possible to play against a CPU player controlled by a predetermined algorithm.

2.構成
図3に本実施形態の画像生成システム(ゲームシステム)の機能ブロック図の例を示す。なお本実施形態の画像生成システムは図3の構成要素(各部)の一部を省略した構成としてもよい。
2. Configuration FIG. 3 shows an example of a functional block diagram of the image generation system (game system) of the present embodiment. Note that the image generation system of this embodiment may have a configuration in which some of the components (each unit) in FIG. 3 are omitted.

撮像部150は、立体物の表面情報を撮像するためのものであり、その機能は、デジタルカメラ等の光学センサにより実現できる。特に本実施形態では、立体物を12方向から見た画像情報をデジタルデータとして撮像する。   The imaging unit 150 is for imaging surface information of a three-dimensional object, and the function can be realized by an optical sensor such as a digital camera. In particular, in the present embodiment, image information obtained by viewing a three-dimensional object from 12 directions is imaged as digital data.

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、或いは筺体などにより実現できる。   The operation unit 160 is for a player to input operation data, and the function can be realized by a lever, a button, a steering, a microphone, a touch panel display, a housing, or the like.

記憶部170は、処理部70や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、本実施形態の記憶部170は、ワーク領域として使用される主記憶部171と、最終的な表示画像等が記憶されるフレームバッファ172と、オブジェクトのモデルデータが記憶されるオブジェクトデータ記憶部173と、各オブジェクトデータ用のテクスチャが記憶されるテクスチャ記憶部174と、画像描画時にオブジェクト空間のZ値が記憶されるZバッファ176と、オブジェクトをモーションさせるためのモーションデータが記憶されるモーションデータ記憶部177と、を含む。なお、これらの一部を省略する構成としてもよい。   The storage unit 170 serves as a work area such as the processing unit 70 and the communication unit 196, and its function can be realized by a RAM (VRAM) or the like. The storage unit 170 of this embodiment includes a main storage unit 171 used as a work area, a frame buffer 172 that stores a final display image, and an object data storage unit that stores model data of an object. 173, a texture storage unit 174 that stores a texture for each object data, a Z buffer 176 that stores a Z value of the object space at the time of image drawing, and motion data that stores motion data for moving the object A storage unit 177. Note that some of these may be omitted.

特に本実施形態ではオブジェクトデータ記憶部173には、キャラクタオブジェクトをモーションさせるための、複数のボーンが関節で連結されたスケルトンモデル情報が複数種類記憶されている。また本実施形態では、各スケルトンモデル情報に関連付けて、各スケルトンモデル情報によりモーション制御される基礎モデル情報が記憶されている。またオブジェクトデータ記憶部173には、本実施形態で生成された各パーツオブジェクトを基礎モデル(スケルトンモデル)の各パーツとして設定して生成したキャラクタオブジェクトが記憶される。なお基礎モデルは必須の要素ではなく、少なくともスケルトンモデルが用意されていれば本実施形態を実現することができる。   In particular, in the present embodiment, the object data storage unit 173 stores a plurality of types of skeleton model information in which a plurality of bones are connected by joints for moving a character object. In the present embodiment, basic model information that is motion-controlled by each skeleton model information is stored in association with each skeleton model information. The object data storage unit 173 stores character objects generated by setting each part object generated in the present embodiment as each part of the basic model (skeleton model). Note that the basic model is not an essential element, and the present embodiment can be realized if at least a skeleton model is prepared.

またテクスチャ記憶部174には、本実施形態が取得した立体物の表面情報に基づいて生成したテクスチャが記憶される。特に本実施形態では、ポリゴンメッシュの表面の色が面集合ごとにテクスチャ空間に分布するテクスチャが記憶される。   The texture storage unit 174 stores a texture generated based on the surface information of the three-dimensional object acquired by the present embodiment. In particular, in the present embodiment, a texture in which the color of the surface of the polygon mesh is distributed in the texture space for each surface set is stored.

またモーションデータ記憶部177には、各スケルトンモデル情報に関連付けて、各スケルトンモデル情報を介してキャラクタオブジェクトをモーションさせるためのモーションデータが複数種類記憶されている。   Further, the motion data storage unit 177 stores a plurality of types of motion data for causing the character object to move through each skeleton model information in association with each skeleton model information.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM).

この情報記憶媒体180には、処理部70において本実施形態の種々の処理を行うためのプログラム(データ)が記憶されている。即ち、この情報記録媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶されている。   The information storage medium 180 stores a program (data) for performing various processes of the present embodiment in the processing unit 70. That is, the information recording medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like.

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

携帯型情報記憶装置194には、プレーヤの個人データやゲームのセーブデータなどが記憶されるものであり、この携帯型情報記憶装置194としては、メモリカードや携帯型ゲーム装置などがある。   The portable information storage device 194 stores player personal data, game save data, and the like. Examples of the portable information storage device 194 include a memory card and a portable game device.

通信部196は、外部(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other image generation system), and functions thereof are hardware such as various processors or communication ASICs, It can be realized by a program.

なお、本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(記憶部170)に配信してもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is distributed from the information storage medium of the host device (server) to the information storage medium 180 (storage unit 170) via the network and communication unit 196. May be. Use of the information storage medium of such a host device (server) can also be included in the scope of the present invention.

処理部70(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、表面情報取得処理、形状情報生成処理、テクスチャ生成処理、モデル処理、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。ここで、ゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。この処理部70は記憶部170をワーク領域として各種処理を行う。処理部70の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 70 (processor) is based on operation data from the operation unit 160, a program, or the like, and includes surface information acquisition processing, shape information generation processing, texture generation processing, model processing, game processing, image generation processing, or sound generation processing. Process such as. Here, the game process includes a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a character or a map, a process for displaying an object, and a game result calculation. Or a process for ending the game when a game end condition is satisfied. The processing unit 70 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 70 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

特に、本実施形態の処理部70は、キャラクタオブジェクトを生成するための構成(撮像制御部86、表面情報取得部88、形状情報生成部90、評価値演算部92、結合処理部94、面情報処理部96、テクスチャ処理部98、モデル処理部100、比較部102、補正部104)と、生成したキャラクタオブジェクトの画像を表示してゲームを実行するための構成(パラメータ設定部106、ゲーム演算部108、オブジェクト空間設定部110、移動・動作処理部112、仮想カメラ制御部114、描画部120、音生成部130)とを含む。なお、これらの一部を省略する構成としてもよい。   In particular, the processing unit 70 of the present embodiment is configured to generate a character object (an imaging control unit 86, a surface information acquisition unit 88, a shape information generation unit 90, an evaluation value calculation unit 92, a combination processing unit 94, surface information, and the like. A processing unit 96, a texture processing unit 98, a model processing unit 100, a comparison unit 102, a correction unit 104, and a configuration for displaying a generated character object image and executing a game (parameter setting unit 106, game calculation unit) 108, an object space setting unit 110, a movement / motion processing unit 112, a virtual camera control unit 114, a drawing unit 120, and a sound generation unit 130). Note that some of these may be omitted.

撮像制御部86は、撮像部150が立体物の表面情報を撮像するための制御処理を行う。特に本実施形態では、シャッター27の開閉制御や、ターンテーブル28の回転制御、ターンテーブル28の回転に合わせたカメラ32の撮像タイミングの制御などの制御処理を行う。   The imaging control unit 86 performs control processing for the imaging unit 150 to capture surface information of the three-dimensional object. In particular, in the present embodiment, control processing such as opening / closing control of the shutter 27, rotation control of the turntable 28, and control of imaging timing of the camera 32 in accordance with the rotation of the turntable 28 is performed.

表面情報取得部88は、立体物の表面情報を取得する。具体的には本実施形態では、カメラ32が撮像した12方向からの立体物の撮像情報と、カメラ32のキャリブレーション情報とを取得する。ここで表面情報取得部88は、複数の立体物の表面情報を取得するようにしてもよい。この場合、1のカメラで複数の立体物を同時に撮像してもよいし、順次撮像してもよい。また複数のカメラで各立体物を撮像するようにしてもよい。   The surface information acquisition unit 88 acquires surface information of the three-dimensional object. Specifically, in this embodiment, imaging information of a three-dimensional object from 12 directions captured by the camera 32 and calibration information of the camera 32 are acquired. Here, the surface information acquisition unit 88 may acquire surface information of a plurality of three-dimensional objects. In this case, a plurality of three-dimensional objects may be simultaneously imaged with one camera, or may be sequentially imaged. Moreover, you may make it image each solid object with a some camera.

形状情報生成部90は、取得した立体物の表面情報(撮像情報)に基づいてキャラクタオブジェクトの形状情報を生成する。ここで形状情報生成部90は、複数の立体物の各立体物の表面情報に基づいて、キャラクタオブジェクトのパーツごとの形状情報を生成するようにしてもよい。具体的には本実施形態では、撮像情報のうち立体物に対応するキャラクタ領域画像を特定する。そして12方向についてのキャラクタ領域画像に基づいて立体物に対応するキャラクタ領域ボリュームを特定し、キャラクタ領域ボリュームに基づいて立体物に対応するポリゴンメッシュを生成する。   The shape information generation unit 90 generates shape information of the character object based on the acquired surface information (imaging information) of the three-dimensional object. Here, the shape information generation unit 90 may generate shape information for each part of the character object based on the surface information of each of the three-dimensional objects. Specifically, in the present embodiment, a character area image corresponding to a three-dimensional object is specified from the imaging information. Then, a character area volume corresponding to the three-dimensional object is specified based on the character area image in the 12 directions, and a polygon mesh corresponding to the three-dimensional object is generated based on the character area volume.

特に本実施形態では、形状情報生成部90は、キャラクタオブジェクト用にポリゴンメッシュを簡略化するためのオブジェクト用頂点結合処理と、テクスチャ用にポリゴンメッシュの各面を関連付けるためのテクスチャ用頂点結合処理とを行う。そしてかかる機能を実現するための構成として、形状情報生成部90は、評価値演算部92、結合処理部94、面情報処理部96を含む。なお、オブジェクト用頂点結合処理、テクスチャ用頂点結合処理の処理対象とするポリゴンメッシュは、表面情報から生成されたポリゴンメッシュに限られず、デザイナによりデザインされたポリゴンメッシュとしてもよい。   In particular, in this embodiment, the shape information generation unit 90 includes an object vertex combining process for simplifying a polygon mesh for a character object, and a texture vertex combining process for associating each face of the polygon mesh for a texture. I do. As a configuration for realizing such a function, the shape information generation unit 90 includes an evaluation value calculation unit 92, a combination processing unit 94, and a surface information processing unit 96. The polygon mesh to be processed by the object vertex combining process and the texture vertex combining process is not limited to the polygon mesh generated from the surface information, and may be a polygon mesh designed by a designer.

評価値演算部92は、ポリゴンメッシュを構成する各頂点及び各辺の少なくとも一方について評価値を演算する。具体的には評価値演算部92は、除去してもポリゴンメッシュの外観に影響を及ぼしにくい頂点或いは辺から順に、高い評価値、或いは低い評価値が設定されるような演算を行う。例えば本実施形態では、各頂点座標と頂点に隣接する面の法線ベクトルから、ポリゴンメッシュの各頂点における隣接面との距離の二乗和を評価値として求める。その他頂点の評価値としては、各頂点から延出する辺の長さの和(周囲の頂点までの距離)等、また辺の評価値としては、各辺の長さ等種々のものを適用することができる。   The evaluation value calculation unit 92 calculates an evaluation value for at least one of each vertex and each side constituting the polygon mesh. Specifically, the evaluation value calculation unit 92 performs a calculation such that a high evaluation value or a low evaluation value is set in order from a vertex or a side that does not affect the appearance of the polygon mesh even if it is removed. For example, in this embodiment, the sum of squares of the distances between adjacent vertices at each vertex of the polygon mesh is obtained as an evaluation value from each vertex coordinate and the normal vector of the surface adjacent to the vertex. Other evaluation values for vertices include the sum of the lengths of the sides extending from each vertex (distance to surrounding vertices), and various evaluation values for the sides, such as the length of each side. be able to.

結合処理部94は、所与の条件が満たされるまで、評価値に基づいてポリゴンメッシュの頂点を結合する処理を行う。ここで頂点を結合するとは、頂点を削除することにより頂点を結合することや、辺を削除することにより頂点を結合することを含む。具体的には結合処理部94は、評価値に基づいて、ポリゴンメッシュにおいて周囲の頂点との距離が短い頂点から優先的に頂点を結合する処理を行う。そして、頂点を結合することにより関連付けられた面の集合数が所定数となるまで、ポリゴンメッシュの頂点を結合する処理を行う。   The combination processing unit 94 performs a process of combining the vertices of the polygon mesh based on the evaluation value until a given condition is satisfied. Here, combining the vertices includes combining the vertices by deleting the vertices and combining the vertices by deleting the sides. Specifically, the combination processing unit 94 performs processing for combining the vertices preferentially from vertices having a short distance from the surrounding vertices in the polygon mesh based on the evaluation value. Then, the process of combining the vertices of the polygon mesh is performed until the number of sets of associated faces becomes a predetermined number by combining the vertices.

なお、ポリゴンメッシュの形状情報(ポリゴンメッシュのサイズ、面・辺・頂点の数等)に応じて集合数を自動的に設定し、設定した集合数となるまで、ポリゴンメッシュの頂点を結合する処理を行うようにしてもよい。この場合には、ポリゴンメッシュの形状情報に応じた適切なオブジェクト用頂点結合処理、テクスチャ用頂点結合処理を行うことができる。   The number of sets is automatically set according to the polygon mesh shape information (polygon mesh size, number of faces, edges, vertices, etc.), and the polygon mesh vertices are combined until the set number of sets is reached. May be performed. In this case, it is possible to perform appropriate object vertex combining processing and texture vertex combining processing according to the shape information of the polygon mesh.

面情報処理部96は、頂点を結合すると除去されるポリゴンメッシュの面の面情報と、該除去される面に隣接する面の面情報と、を関連付ける処理を行う。具体的には本実施形態では、頂点を結合することにより除去される面の面情報を、除去される面に隣接する面の面情報の子情報として記憶する。   The surface information processing unit 96 performs processing for associating the surface information of the surface of the polygon mesh that is removed when the vertices are combined with the surface information of the surface adjacent to the surface to be removed. Specifically, in the present embodiment, the surface information of the surface removed by combining the vertices is stored as child information of the surface information of the surface adjacent to the surface to be removed.

テクスチャ処理部98は、所与のポリゴンメッシュの頂点にテクスチャ座標を割り当てる。特に本実施形態では、テクスチャ処理部98は、関連付けられた面の集合ごとにポリゴンメッシュの各面をテクスチャ空間に配置し、ポリゴンメッシュの頂点にテクスチャ座標を割り当てる。   The texture processing unit 98 assigns texture coordinates to the vertices of a given polygon mesh. In particular, in the present embodiment, the texture processing unit 98 arranges each face of the polygon mesh in the texture space for each set of associated faces, and assigns texture coordinates to the vertices of the polygon mesh.

ここで処理対象とするポリゴンメッシュが、表面情報から生成されたポリゴンメッシュである場合には、テクスチャ処理部98は、立体物の表面情報(撮像情報)に基づいて、テクスチャ空間に配置された各面の集合に応じた色分布をテクスチャ座標に割り当ててテクスチャを生成する。特に本実施形態では、テクスチャ処理部98は、生成されたテクスチャの解像度を低下させて元のテクスチャのぼかし用画像を生成し、元のテクスチャ画像とぼかし用画像とに基づいてαブレンディングを行って、元のテクスチャの各面の集合に対応する部分以外にぼかし処理を行う。なおテクスチャ処理部98の機能は、例えばCPUのみで実現してもよいし、その一部をGPUにより実現するようにしてもよい。   Here, when the polygon mesh to be processed is a polygon mesh generated from the surface information, the texture processing unit 98 uses each surface arranged in the texture space based on the surface information (imaging information) of the three-dimensional object. A texture is generated by assigning a color distribution corresponding to a set of faces to texture coordinates. In particular, in this embodiment, the texture processing unit 98 reduces the resolution of the generated texture to generate an original texture blur image, and performs α blending based on the original texture image and the blur image. Then, blur processing is performed on portions other than the portion corresponding to the set of each surface of the original texture. Note that the function of the texture processing unit 98 may be realized by only the CPU, for example, or a part thereof may be realized by the GPU.

モデル処理部100は、生成した形状情報(ポリゴンメッシュ)とモデル情報とを対応付ける処理を行う。特に、複数の立体物の表面情報に基づいてキャラクタオブジェクトのパーツごとの形状情報を生成する場合には、モデル処理部100は、各パーツの形状情報とモデル情報とを対応付ける処理を行う。またモデル処理部100は、複数用意されたモデル情報の中から、形状情報に基づいてモデル情報を選択し、選択したモデル情報と形状情報とを対応付けるようにしてもよい。   The model processing unit 100 performs processing for associating the generated shape information (polygon mesh) with model information. In particular, when generating shape information for each part of the character object based on the surface information of a plurality of three-dimensional objects, the model processing unit 100 performs processing for associating the shape information of each part with the model information. Further, the model processing unit 100 may select model information based on shape information from a plurality of prepared model information, and associate the selected model information with shape information.

具体的には本実施形態では、複数種類のスケルトンモデル情報を用意しておき、生成された各パーツオブジェクトの形状情報に応じて、1のスケルトンモデル情報を選択し、各パーツオブジェクトを選択されたスケルトンモデル情報の対応する骨に関連付ける。特に本実施形態では、各パーツオブジェクトの頂点情報を対応する骨に関連付ける。   Specifically, in this embodiment, a plurality of types of skeleton model information are prepared, one skeleton model information is selected according to the generated shape information of each part object, and each part object is selected. Associate with the corresponding bone in the skeleton model information. In particular, in this embodiment, the vertex information of each part object is associated with the corresponding bone.

比較部102は、形状情報と所定のバウンディングボリュームとを比較する。特に、複数の立体物の表面情報に基づいてキャラクタオブジェクトのパーツごとの形状情報を生成する場合には、比較部102は、各パーツの形状情報のうち少なくとも1のパーツの形状情報と、所定のバウンディングボリュームとを比較する。具体的には本実施形態では、生成された形状情報と所定のバウンディングボリュームの、互いに直交する3軸方向の最大値の比を比較して、両者の形状が近似しているか否かを評価する。そしてモデル処理部100が、比較結果に基づいて、最も形状が近似しているバウンディングボリュームが対応付けられたモデル情報を選択する。   The comparison unit 102 compares the shape information with a predetermined bounding volume. In particular, when generating the shape information for each part of the character object based on the surface information of a plurality of three-dimensional objects, the comparison unit 102 includes the shape information of at least one part among the shape information of each part, Compare with bounding volume. Specifically, in this embodiment, the ratio of the generated shape information and a predetermined bounding volume between the maximum values in the three axis directions orthogonal to each other is compared to evaluate whether or not the shapes of both are approximate. . Then, the model processing unit 100 selects model information associated with the bounding volume whose shape is most approximated based on the comparison result.

補正部104は、所定のバウンディングボリュームに基づいて、形状情報を補正する。具体的には本実施形態では、生成された各パーツオブジェクトの形状情報を、各パーツに対応するバウンディングボリュームに応じて補正する。より詳細には、各パーツオブジェクトがそれぞれに対応するバウンディングボリューム内に適切に納まるように、形状情報を拡大、縮小等する。このとき形状情報の互いに直交する3軸方向の大きさを、異なる比率で拡大、縮小するようにしてもよい。そしてモデル処理部100が、補正後の形状情報とモデル情報とを対応付ける処理を行う。   The correcting unit 104 corrects the shape information based on a predetermined bounding volume. Specifically, in the present embodiment, the generated shape information of each part object is corrected according to the bounding volume corresponding to each part. More specifically, the shape information is enlarged or reduced so that each part object is properly contained in the corresponding bounding volume. At this time, the sizes of the shape information in the three axis directions orthogonal to each other may be enlarged or reduced at different ratios. Then, the model processing unit 100 performs processing for associating the corrected shape information with the model information.

パラメータ設定部106は、形状情報及びモデル情報の少なくとも一方に基づいて、キャラクタオブジェクトのキャラクタパラメータを設定する。ここで本実施形態ではキャラクタパラメータとして、キャラクタの攻撃能力、守備能力、移動能力等、種々のパラメータを設定することができる。そして生成されたキャラクタ全体としての形状情報や、パーツごとの形状情報に基づいて、キャラクタパラメータを設定する。特に、複数の立体物の表面情報に基づいてキャラクタオブジェクトのパーツごとの形状情報を生成する場合には、パラメータ設定部106は、キャラクタオブジェクトのパーツごとにパーツパラメータを設定するようにしてもよい。   The parameter setting unit 106 sets a character parameter of the character object based on at least one of shape information and model information. Here, in the present embodiment, various parameters such as a character's attack ability, defense ability, and movement ability can be set as the character parameters. Then, character parameters are set based on the generated shape information of the entire character and shape information for each part. In particular, when generating shape information for each part of the character object based on the surface information of a plurality of three-dimensional objects, the parameter setting unit 106 may set a part parameter for each part of the character object.

またパラメータ設定部106は、キャラクタオブジェクトの基礎パラメータを設定し、ゲーム結果に基づいて、キャラクタオブジェクトに設定された基礎パラメータを更新する。ここで本実施形態では、キャラクタオブジェクトの基礎パラメータとして、ゲーム回数や、ゲーム成績等により変化する経験値等のパラメータであって、形状情報やモデル情報に影響されない基礎的なパラメータを設定することができる。そして、基礎パラメータに基づいて、例えば形状情報やモデル情報に基づき設定されるパラメータを変化させるようにしてもよい。   The parameter setting unit 106 sets basic parameters of the character object, and updates the basic parameters set for the character object based on the game result. Here, in the present embodiment, as basic parameters of the character object, parameters such as experience values that change depending on the number of games, game results, and the like, and basic parameters that are not affected by shape information or model information can be set. it can. Then, based on basic parameters, for example, parameters set based on shape information or model information may be changed.

ゲーム演算部108は、設定されたパラメータに基づいて、対戦ゲームを実行するための種々の演算を行う。具体的にはゲーム演算部108は、プレーヤからの操作情報に応じて各種設定を行う情報設定部と、操作情報や設定情報等に応じて各種表示物の表示制御を行う表示制御部と、対戦ゲームにおける攻撃状態と防御状態との移行制御を行う状態制御部と、防御状態から攻撃状態へ移行させるためのカウント値をカウントするカウント部と、攻撃状態においてプレーヤからの攻撃操作を評価する評価部と、攻撃操作に応じて対戦相手のダメージ量等の設定値を更新する設定値更新部と、更新された設定値に応じて勝敗判定を行う判定部として機能する。   The game calculation unit 108 performs various calculations for executing the battle game based on the set parameters. Specifically, the game calculation unit 108 includes an information setting unit that performs various settings according to operation information from the player, a display control unit that performs display control of various display objects according to operation information and setting information, and the like. A state control unit that performs transition control between an attack state and a defense state in a game, a count unit that counts a count value for shifting from the defense state to the attack state, and an evaluation unit that evaluates an attack operation from a player in the attack state And a setting value updating unit that updates a setting value such as an opponent's damage amount according to an attack operation, and a determination unit that performs a win / loss determination according to the updated setting value.

オブジェクト空間設定部110は、本実施形態で生成したキャラクタオブジェクト等の移動体オブジェクト、予め記憶させてあるキャラクタオブジェクト、建物、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ち、オブジェクト空間設定部110は、ワールド座標系でのオブジェクト(モデルオブジェクト)の位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 110 includes various objects (such as character objects generated in the present embodiment, character objects stored in advance, buildings, trees, pillars, walls, maps (terrain) and other display objects ( A process of placing and setting objects (objects composed of primitive surfaces such as polygons, free-form surfaces, or subdivision surfaces) in the object space is performed. That is, the object space setting unit 110 determines the position and rotation angle (synonymous with orientation and direction) of an object (model object) in the world coordinate system, and the rotation angle (X, Y, Z) is determined at that position (X, Y, Z). , Rotation angle around Y, Z axis).

移動・動作処理部112は、移動体オブジェクト(キャラクタの他、キャラクタが使用する道具等)の移動・動作演算(移動・動作シミュレーション)を行う。即ち、この移動・動作処理部112は、操作部160によりプレーヤが入力した操作データ、設定されたパラメータや属性又はプログラム(移動・動作アルゴリズム)や各種データ(モーションデータ)などに基づいて、移動体オブジェクトをオブジェクト空間内で移動させ、又は、移動体オブジェクトの動作(モーション、アニメーション)を制御するための処理を行う。   The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of a moving object (in addition to a character, tools used by the character). That is, the movement / motion processing unit 112 is based on the operation data input by the player through the operation unit 160, the set parameters and attributes, the program (movement / motion algorithm), various data (motion data), and the like. A process for moving the object in the object space or controlling the motion (motion, animation) of the moving object is performed.

具体的には、本実施形態の移動・動作処理部112は、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。ここでフレームとは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。そして、本実施形態では、フレームレートは毎フレーム固定としてもよいし、処理負荷に応じて可変としてもよい。   Specifically, the movement / motion processing unit 112 according to the present embodiment stores object movement information (position, rotation angle, speed, or acceleration) and movement information (position or rotation angle of each part object) for one frame. A simulation process is sequentially obtained every (for example, 1/60 seconds). Here, the frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing. In this embodiment, the frame rate may be fixed every frame or may be variable according to the processing load.

仮想カメラ制御部114は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。   The virtual camera control unit 114 performs a virtual camera (viewpoint) control process for generating an image viewed from a given (arbitrary) viewpoint in the object space. Specifically, a process for controlling the position (X, Y, Z) or the rotation angle (rotation angle about the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position and the line-of-sight direction) is performed.

例えば仮想カメラによりオブジェクト(例えばキャラクタ、ボール、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部112で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   For example, when an object (eg, character, ball, car) is photographed from behind using a virtual camera, the position or rotation angle of the virtual camera (the direction of the virtual camera is set so that the virtual camera follows changes in the position or rotation of the object. ) To control. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 112. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

描画部120は、処理部70で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、本実施形態の描画部120は、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理が行われる。なお、頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 70, thereby generating an image and outputting the image to the display unit 190. In the case of generating a so-called three-dimensional game image, the drawing unit 120 of the present embodiment firstly stores vertex data (vertex position coordinates, texture coordinates, color data, normal vector, or α value) of each vertex of the object (model). Etc.) is input, and vertex processing is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

また、頂点処理では、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、あるいは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(フラグメント処理)が行われる。   In the vertex processing, geometric processing such as vertex movement processing, coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. The given vertex data is changed (updated or adjusted) for the vertex group to be configured. Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (fragment processing) for drawing pixels constituting an image (fragments constituting a display screen) is performed.

ピクセル処理では、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色をフレームバッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。   In pixel processing, various processes such as texture reading (texture mapping), color data setting / changing, translucent composition, anti-aliasing, etc. are performed to determine the final drawing color of the pixels that make up the image, and perspective transformation is performed. The drawing color of the object is output (drawn) to the frame buffer 174 (buffer that can store image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed.

これにより、オブジェクト空間内に設定された仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。   Thereby, an image that can be seen from the virtual camera (given viewpoint) set in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.

なお、描画部120が行う頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現されてもよい。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、ハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   Note that the vertex processing and pixel processing performed by the drawing unit 120 are performed by hardware that enables the polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). It may be realized. Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of rendering processing is high, and the expressive power can be greatly improved compared to fixed rendering processing by hardware. .

そして、描画部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理を行う。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)を記憶部170に記憶する。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the storage unit 170.

テクスチャマッピングでは、記憶部170のテクスチャ記憶部174に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングする処理を行う。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部174からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出し、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。特に本実施形態では、ポリゴンメッシュの表面の色が面集合ごとにテクスチャ空間に分布するテクスチャをマッピングする処理を行う。   In texture mapping, a process of mapping a texture (texel value) stored in the texture storage unit 174 of the storage unit 170 to an object is performed. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit 174 of the storage unit 170 using the texture coordinates set (applied) to the vertex of the object. Map an image texture to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation. In particular, in the present embodiment, a process of mapping a texture in which the color of the surface of the polygon mesh is distributed in the texture space for each surface set is performed.

なお、本実施形態では、オブジェクトを描画する際に、所与のテクスチャをマッピングする処理を行うようにしてもよい。この場合には、マッピングされるテクスチャの色分布(テクセルパターン)を動的に変化させることができる。   In the present embodiment, when an object is drawn, a process for mapping a given texture may be performed. In this case, the color distribution (texel pattern) of the texture to be mapped can be dynamically changed.

また、この場合において、色分布(ピクセルパターン)が異なるテクスチャを動的に生成してもよいし、複数の色分布が異なるテクスチャを予め用意しておき、使用するテクスチャを動的に切り替えるようにしてもよい。またオブジェクト単位でテクスチャの色分布を変化させてもよい。   In this case, textures having different color distributions (pixel patterns) may be dynamically generated, or a plurality of textures having different color distributions are prepared in advance, and the texture to be used is dynamically switched. May be. The texture color distribution may be changed in units of objects.

隠面消去処理では、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行う。すなわち、オブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照するとともに、当該参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   In the hidden surface removal processing, hidden surface removal processing is performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which the Z value (depth information) of the drawing pixel is stored. That is, when drawing the drawing pixel corresponding to the primitive of the object, the Z value stored in the Z buffer is referred to, and the Z value of the referenced Z buffer and the Z value at the drawing pixel of the primitive are obtained. In comparison, if the Z value at the drawing pixel is a Z value (for example, a small Z value) that is on the near side when viewed from the virtual camera, the drawing pixel is drawn and the Z value in the Z buffer is updated. Update to the correct Z value.

αブレンディング(α合成)では、描画部120は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)を行う。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   In α blending (α synthesis), the rendering unit 120 performs translucent synthesis processing (normal α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value). The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

音生成部130は、処理部70で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 70, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play.

また、複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   In addition, when a plurality of players play, game images and game sounds provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line), etc. It may be generated by distributed processing using a plurality of terminals (game machine, mobile phone).

3.立体物の形状情報の生成
次に、立体物に対応するキャラクタオブジェクトの形状情報の生成処理の詳細について説明する。
3. Generation of Shape Information of Solid Object Next, details of the generation process of the shape information of the character object corresponding to the solid object will be described.

3.1 ポリゴンメッシュの生成
まず本実施形態では、カメラ32が撮像した12方向からの立体物の撮像情報PIに基づいて、ボリューム・カービング(Volume Carving)系アルゴリズムを用いて立体物の仮想3次元空間におけるボリューム情報を生成する。このボリューム・カービング系アルゴリズムでは、複数の方向から立体物を撮像した画像情報について、それぞれ立体物に対応する領域の画像を切り出して、図4に示すように当該領域の3次元ボリュームCVを特定する。そして、それぞれの方向からの3次元ボリュームのandをとることにより、立体物の仮想3次元空間におけるボリューム情報を削り出す(Carving)。
3.1 Generation of Polygon Mesh In the present embodiment, based on the imaging information PI of a three-dimensional object taken from 12 directions captured by the camera 32, a virtual three-dimensional object is created using a volume carving algorithm. Generate volume information in space. In this volume carving system algorithm, for image information obtained by capturing a three-dimensional object from a plurality of directions, an image of an area corresponding to the three-dimensional object is cut out, and a three-dimensional volume CV of the area is specified as shown in FIG. . Then, by taking and of the three-dimensional volume from each direction, volume information in the virtual three-dimensional space of the three-dimensional object is cut out (Carving).

図5は、ポリゴンメッシュ生成処理の詳細の一例を示すフローチャートである。まずステップS10において、図2に示すような、カメラ32が撮像した12方向からの立体物の撮像情報PIを取得する。そしてステップS12において、カメラ32のキャリブレーション情報を取得する。   FIG. 5 is a flowchart showing an example of details of the polygon mesh generation process. First, in step S10, imaging information PI of a three-dimensional object from 12 directions captured by the camera 32 as shown in FIG. 2 is acquired. In step S12, calibration information of the camera 32 is acquired.

本実施形態では、カメラ32と立体物の位置関係に対応する3次元空間における位置関係を求めるために、予めキャリブレーション用リグを立体物の撮像時と同一の位置関係を保った状態で撮像しておく。そして、キャリブレーション用リグを撮像した画像情報からカメラ32の位置を演算する。具体的には本実施形態では、キャリブレーション用リグに対するカメラ32の位置を定めるビュー行列と、キャリブレーション用リグの3次元空間上の点とその2次元画像の間の射影を定める射影行列とを求める。   In this embodiment, in order to obtain the positional relationship in the three-dimensional space corresponding to the positional relationship between the camera 32 and the three-dimensional object, the calibration rig is imaged in advance while maintaining the same positional relationship as when the three-dimensional object is imaged. Keep it. Then, the position of the camera 32 is calculated from image information obtained by imaging the calibration rig. Specifically, in the present embodiment, a view matrix that defines the position of the camera 32 with respect to the calibration rig, and a projection matrix that defines a projection between a point in the three-dimensional space of the calibration rig and the two-dimensional image thereof. Ask.

本実施形態ではキャリブレーション用リグは、六面体の上面及び4側面にそれぞれ異なった四辺形パターンを配置したものを用いる。これによりキャリブレーション用リグをターンテーブル28上で360°回転させる間、常にいずれか2面がカメラ32に写るようになっており、任意の角度においてキャリブレーション演算ができるようになっている。   In the present embodiment, a calibration rig is used in which different quadrilateral patterns are arranged on the upper surface and four side surfaces of a hexahedron. As a result, while the calibration rig is rotated 360 ° on the turntable 28, either one of the two surfaces is always shown in the camera 32, and the calibration calculation can be performed at an arbitrary angle.

そしてステップS14において、図2の撮像情報PIから立体物に対応するキャラクタ領域画像CAを特定する。本実施形態では、撮像したカラー画像をグレイスケール画像に変換し、画像全体の画素値の平均値をしきい値として、黒の背景と立体物の色に対応する前景とを判別する。そして前景と判定された画素を、立体物に対応するキャラクタ領域画像CAとして特定する。   In step S14, the character area image CA corresponding to the three-dimensional object is specified from the imaging information PI of FIG. In this embodiment, the captured color image is converted into a grayscale image, and the black background and the foreground corresponding to the color of the three-dimensional object are determined using the average value of the pixel values of the entire image as a threshold value. Then, the pixel determined as the foreground is specified as the character area image CA corresponding to the three-dimensional object.

そしてステップS16において、キャリブレーション情報に基づいて、キャラクタ領域画像CAを3次元空間に配置する。本実施形態では、まず仮想3次元空間を3次元ボリュームに分割し、取得したキャリブレーション情報(回転行列、平行移動ベクトル)に基づいて、3次元空間にキャラクタ領域画像CAを平面として配置する。   In step S16, the character area image CA is arranged in the three-dimensional space based on the calibration information. In the present embodiment, the virtual three-dimensional space is first divided into three-dimensional volumes, and the character area image CA is arranged as a plane in the three-dimensional space based on the acquired calibration information (rotation matrix, translation vector).

そしてステップS18において、3次元ボリューム空間の各ボクセルを、カメラ行列を用いてキャラクタ領域画像CAの平面に投影する。そしてステップS20において、図4に示すように、キャラクタ領域画像CAの輪郭線内に投影されたボクセルを残し、キャラクタ領域ボリュームCVを特定する。本実施形態では仮想3次元空間において、各ボクセルからカメラ位置に向かって延ばした直線と、キャラクタ撮像画像平面との交点を求め、交点が立体物に対応する前景と交差するか黒の背景と交差するかを判定する。こうして本実施形態では、図2に示す12方向からのキャラクタ領域画像CAそれぞれについて、キャラクタ領域ボリュームCVを特定する。   In step S18, each voxel in the three-dimensional volume space is projected onto the plane of the character area image CA using the camera matrix. In step S20, as shown in FIG. 4, the character area volume CV is specified by leaving the voxels projected within the outline of the character area image CA. In the present embodiment, in a virtual three-dimensional space, an intersection between a straight line extending from each voxel toward the camera position and the character captured image plane is obtained, and the intersection intersects the foreground corresponding to the three-dimensional object or the black background. Judge whether to do. Thus, in this embodiment, the character area volume CV is specified for each of the character area images CA from the 12 directions shown in FIG.

そしてステップS22において、12方向についてのキャラクタ領域ボリュームCV全てにおいて重複するボクセルを残し、立体物に対応するキャラクタボクセルを特定する。ここで本実施形態では、ボリューム分割数はx、y、zの各軸を128分割した2097152要素としている。従って、結果として得られる立体物に対応する情報は点群として得られる。図6に、図2に示す12方向からのキャラクタ領域画像CAに基づいて得られるキャラクタ点群CPの一例を示す。   In step S22, overlapping voxels are left in all the character area volumes CV in the 12 directions, and character voxels corresponding to the three-dimensional object are specified. Here, in this embodiment, the volume division number is 2097152 elements obtained by dividing each axis of x, y, and z into 128. Therefore, information corresponding to the resulting three-dimensional object is obtained as a point cloud. FIG. 6 shows an example of a character point group CP obtained based on the character area image CA from the 12 directions shown in FIG.

ここで本実施形態では、128分割したボリューム内の全てのボクセルについて撮像画像平面との交差判定を行うと、立体物に対応する前景から大きく外れるボクセルについても不必要な交差判定を行ってしまい、計算量が非常に大きくなってしまう。そこで本実施形態では、前景から大きく外れる部分と、全体が前景に含まれている部分については、八分木データ構造を用いてボクセルのサイズを大きくした状態で交差判定を行う。そして、いずれの部分にも該当しない前景と背景との境界にある部分は再帰的に分割し、最終分割レベル(128分割)に到達するまで交差判定を行う。これにより本実施形態では、高速にキャラクタ点群CPを生成することができる。   Here, in the present embodiment, if the intersection determination with the captured image plane is performed for all the voxels in the 128-divided volume, an unnecessary intersection determination is performed for voxels greatly deviating from the foreground corresponding to the three-dimensional object, The calculation amount becomes very large. Therefore, in the present embodiment, the intersection determination is performed with the voxel size being increased using the octree data structure for a portion that deviates greatly from the foreground and a portion that is entirely included in the foreground. Then, the portion at the boundary between the foreground and the background that does not correspond to any portion is recursively divided, and intersection determination is performed until the final division level (128 division) is reached. Thereby, in this embodiment, the character point group CP can be generated at high speed.

そしてステップS24において、生成されたキャラクタ点群CPに基づいて、立体物に対応するポリゴンメッシュ情報を生成する。本実施形態では、Marching・Cubes法を用いてポリゴンメッシュ情報を生成する。   In step S24, polygon mesh information corresponding to the three-dimensional object is generated based on the generated character point group CP. In the present embodiment, polygon mesh information is generated using the Marching / Cubes method.

このMarching・Cubes法とは、ボリューム情報からポリゴンメッシュを生成するアルゴリズムであって、アルゴリズムで定義されている15種類のポリゴン抽出パターンに基づき、ポリゴンを生成するものである。具体的には、接続情報をもたない点群データをボリューム要素であるボクセルに置き換え、直方体に配列する8つのボクセルを1つのセルとして、セル単位でそれぞれのボクセル内にデータが存在するかどうか判定する。そしてセル内のデータ配置パターンを15種類のポリゴン抽出のパターンに当てはめ、該当するポリゴン抽出パターンに対応する多角形ポリゴンをそのセルのポリゴンとする。こうして本実施形態では、図7に示すように、撮像した立体物に対応するポリゴンメッシュ情報PMaを生成する。   The Marching / Cubes method is an algorithm for generating a polygon mesh from volume information, and generates a polygon based on 15 types of polygon extraction patterns defined by the algorithm. Specifically, the point cloud data without connection information is replaced with voxels that are volume elements, and eight voxels arranged in a rectangular parallelepiped are regarded as one cell, and whether data exists in each voxel in cell units. judge. Then, the data arrangement pattern in the cell is applied to 15 types of polygon extraction patterns, and the polygon polygon corresponding to the corresponding polygon extraction pattern is set as the polygon of the cell. In this way, in this embodiment, as shown in FIG. 7, polygon mesh information PMa corresponding to the captured three-dimensional object is generated.

このように本実施形態では、12方向からの立体物の撮像情報とキャリブレーション情報とに基づいて、キャラクタボリューム情報を生成し、立体物に対応するポリゴンメッシュ情報を生成する。即ちキャラクタオブジェクトの形状情報として、キャラクタオブジェクトを構成する三角形プリミティブ面の頂点情報と、面情報と、各面の法線情報とを生成する。   As described above, in the present embodiment, the character volume information is generated based on the imaging information and the calibration information of the three-dimensional object from the 12 directions, and the polygon mesh information corresponding to the three-dimensional object is generated. That is, as the shape information of the character object, the vertex information of the triangular primitive surface constituting the character object, the surface information, and the normal line information of each surface are generated.

3.2 オブジェクト用頂点結合処理
ここでMarching・Cubes法を用いると、3次元空間をボリューム分割したグリッド上に無条件にポリゴンを発生させるため、ポリゴン数が不必要に多くなる傾向がある。またポリゴンの頂点がグリッド上に配置されるので、ポリゴンの見た目が規則的なブロック状になってしまい、生成されるキャラクタオブジェクトの外観に悪影響を及ぼす。そこで本実施形態では、ポリゴン数を削減しかつ外観を滑らかにするために、ポリゴンメッシュの簡略化を行う。本実施形態では、ポリゴンメッシュの頂点を結合することにより、ポリゴンメッシュの面数を削減する。
3.2 Object Vertex Combining Process If the Marching / Cubes method is used here, polygons are unconditionally generated on a grid obtained by dividing a three-dimensional space into volumes, and thus the number of polygons tends to increase unnecessarily. Further, since the vertexes of the polygon are arranged on the grid, the appearance of the polygon becomes a regular block shape, which adversely affects the appearance of the generated character object. Therefore, in this embodiment, the polygon mesh is simplified in order to reduce the number of polygons and smooth the appearance. In the present embodiment, the number of polygon mesh faces is reduced by combining the vertices of the polygon mesh.

特に本実施形態では、図8(A)に示すように、三角形メッシュTM上の二つの頂点v1、v2をつなぐエッジを折りたたみ、一方の頂点に接続されているエッジをもう一方の頂点につなげ、v´とするEdge・collapseアルゴリズムを用いて、頂点結合処理を行う。すると図8(B)に示すように、8つの頂点を7つの頂点に削減し、14のエッジを12のエッジに削減し、8つのポリゴンを6つのポリゴンに削減することができる。   In particular, in the present embodiment, as shown in FIG. 8A, an edge connecting two vertices v1 and v2 on the triangular mesh TM is folded, and an edge connected to one vertex is connected to the other vertex, Vertex combining processing is performed using an Edge / collapse algorithm v ′. Then, as shown in FIG. 8B, 8 vertices can be reduced to 7 vertices, 14 edges can be reduced to 12 edges, and 8 polygons can be reduced to 6 polygons.

図9は、オブジェクト用の頂点結合処理の詳細の一例を示すフローチャートである。本実施形態では、まずステップS30において、各頂点座標について、頂点座標と頂点に隣接する面の法線ベクトルから所定の評価値を求める。本実施形態では、Quadric・Error・Metric(QEM)法を用いて、ポリゴンメッシュの各頂点における隣接面との距離の二乗和を評価値として求める。   FIG. 9 is a flowchart illustrating an example of the details of the vertex combining process for an object. In the present embodiment, first, in step S30, for each vertex coordinate, a predetermined evaluation value is obtained from the vertex coordinate and the normal vector of the surface adjacent to the vertex. In the present embodiment, a quadrature, error, and metrics (QEM) method is used to obtain the sum of squares of the distances between adjacent vertices of each polygon mesh as an evaluation value.

このQEM法によれば、頂点間を結ぶエッジの長さと、削除しようとしている頂点の周りのエッジの両側における三角形メッシュ(プリミティブ)の平坦度との組合せに基づく評価値を得ることができる。即ちその頂点から延出するエッジが短いほど、そして周囲のポリゴンが平坦であるほど、その頂点に小さい値が割り当てられる。従って、評価値が小さい頂点から順に頂点結合処理を行うことにより、頂点を結合しても外観に影響を及ぼしにくい頂点(面、エッジ)から削除することができる。   According to the QEM method, it is possible to obtain an evaluation value based on a combination of the length of the edge connecting the vertices and the flatness of the triangular mesh (primitive) on both sides of the edge around the vertex to be deleted. That is, the shorter the edge extending from the vertex and the flatter the surrounding polygon, the smaller the vertex is assigned. Therefore, by performing the vertex joining process in order from the vertex with the smallest evaluation value, it is possible to delete from the vertex (surface, edge) that does not affect the appearance even if the vertex is joined.

そしてステップS32において、全ての頂点についての評価値のうち、評価値が最小の頂点を結合し、面を削減する。ここで頂点の結合とは、ある頂点v1の位置を他の頂点v2の位置として結合することや、ある頂点v1の位置と他の頂点v2の位置とから新たな頂点v´を生成することにより頂点を結合することを含む。こうして本実施形態では、頂点結合処理により、ポリゴンメッシュの外観に影響を及ぼしにくい面からその数を削減する。   In step S32, of the evaluation values for all the vertices, the vertices having the smallest evaluation value are combined to reduce the surface. Here, the combination of vertices refers to combining the position of a certain vertex v1 as the position of another vertex v2, or generating a new vertex v ′ from the position of a certain vertex v1 and the position of another vertex v2. Includes joining vertices. In this way, in the present embodiment, the number is reduced from the surfaces that do not easily affect the appearance of the polygon mesh by the vertex joining process.

そしてステップS34において、頂点結合後のポリゴンメッシュの面の数が予め定めた所定数となったか判断する。ここで本実施形態では、生成したキャラクタオブジェクトに仮想3次元空間でモーションを行わせる際の処理負荷と、キャラクタオブジェクトの外観とを考慮して、最適なポリゴンメッシュの簡略化後の面数を設定しておく。そしてポリゴンメッシュの面の数が所定数となるまで、ステップS32からステップS34までの処理を繰り返す。   Then, in step S34, it is determined whether the number of faces of the polygon mesh after the vertex combination has reached a predetermined number. Here, in this embodiment, the optimum number of polygon meshes is set in consideration of the processing load for causing the generated character object to perform motion in the virtual three-dimensional space and the appearance of the character object. Keep it. The processes from step S32 to step S34 are repeated until the number of faces of the polygon mesh reaches a predetermined number.

ここでポリゴンメッシュの面数が所定の面数となっていない場合には(ステップS34のN)、ステップS36において、結合された頂点の評価値を結合先の頂点の評価値に加算する。即ち結合された頂点の評価値に、結合の結果を反映する。これにより結合された頂点の評価値が高くなり、次回以降の結合処理の対象外となる。   If the number of faces of the polygon mesh is not the predetermined number (N in Step S34), the combined vertex evaluation value is added to the combined vertex evaluation value in Step S36. That is, the result of the combination is reflected in the evaluation value of the combined vertex. As a result, the evaluation value of the connected vertices becomes high and is excluded from the next and subsequent combining processing.

そしてポリゴンメッシュの面数が所定の面数となると(ステップS36のY)、ステップS38において、所定の面数に削減したポリゴンメッシュの頂点情報、面情報、法線情報等の形状情報を、キャラクタオブジェクトの形状情報として記憶部に格納する。こうして本実施形態では、図10に示すように、キャラクタオブジェクト用にポリゴン数が所定の面数まで削減された、キャラクタオブジェクト用のポリゴンメッシュPMb(キャラクタオブジェクトの形状情報)を生成することができる。なお図10のポリゴンメッシュPMbの例では、頂点数が1959個、ポリゴン数が3952個となっている。   When the number of faces of the polygon mesh reaches a predetermined number of faces (Y in step S36), in step S38, the shape information such as vertex information, face information, and normal line information of the polygon mesh reduced to the predetermined number of faces is displayed. It is stored in the storage unit as object shape information. In this way, in the present embodiment, as shown in FIG. 10, a polygon mesh PMb (character object shape information) for a character object in which the number of polygons for the character object is reduced to a predetermined number of faces can be generated. In the example of the polygon mesh PMb in FIG. 10, the number of vertices is 1959 and the number of polygons is 3952.

4.テクスチャの生成
4.1 テクスチャ用頂点結合処理
また本実施形態では、立体物の12方向からの撮像情報PIに基づいて、キャラクタオブジェクト用のポリゴンメッシュPMbを生成するとともに、撮像情報PIに基づいて、ポリゴンメッシュPMbにマッピングするテクスチャを生成する。ここで本実施形態では、テクスチャを生成する際に、処理対象となる1の立体物(パーツ)の表面全体の色が連続的にテクスチャ座標上に分布するテクスチャを生成するのではなく、ポリゴンメッシュPMbの表面を所定数の領域に分割し、処理対象となる1の立体物(パーツ)の表面全体の色が、分割した領域ごとにテクスチャ座標上に分布するテクスチャを生成する。
4). Texture Generation 4.1 Texture Vertex Joining Process In the present embodiment, a polygon mesh PMb for a character object is generated based on imaging information PI from 12 directions of a three-dimensional object, and based on the imaging information PI, A texture to be mapped to the polygon mesh PMb is generated. Here, in this embodiment, when generating a texture, instead of generating a texture in which the color of the entire surface of one solid object (part) to be processed is continuously distributed on texture coordinates, a polygon mesh is used. The surface of PMb is divided into a predetermined number of regions, and a texture is generated in which the color of the entire surface of one solid object (part) to be processed is distributed on the texture coordinates for each divided region.

そして本実施形態では、ポリゴンメッシュPMbの表面を所定数の領域に自動的に分割するために、ポリゴン数が十数個程度となるまでポリゴンメッシュPMbの頂点を更に結合するテクスチャ用頂点結合処理を行う。このテクスチャ用頂点結合処理では、オブジェクト用の頂点結合処理のように頂点を結合することによりポリゴンメッシュのポリゴン数を実際に減少させるのではなく、頂点を結合することにより除去される面と残存する面とを関連付けてポリゴンメッシュPMbの各面(ポリゴン)をグループ化し、そのグループ単位を1の領域とする。   In this embodiment, in order to automatically divide the surface of the polygon mesh PMb into a predetermined number of regions, the texture vertex combining process for further combining the vertices of the polygon mesh PMb is performed until the number of polygons reaches about a dozen. Do. In this texture vertex joining process, the number of polygons in the polygon mesh is not actually reduced by joining the vertices as in the object vertex joining process, but the surface removed by joining the vertices remains. Each surface (polygon) of the polygon mesh PMb is grouped in association with the surface, and the group unit is set as one region.

図11は、テクスチャ用の頂点結合処理の一例を示すフローチャートである。本実施形態では、まず図11のステップS50、ステップS52において、図9のオブジェクト用の頂点結合処理でのステップS30、ステップS32と同様の処理を行い、テクスチャ用の頂点結合処理を行う。するとステップS54において、頂点を結合することにより除去される面の面情報を、除去される面に隣接する面の面情報の子情報として記憶する。   FIG. 11 is a flowchart illustrating an example of texture vertex combining processing. In this embodiment, first, in steps S50 and S52 in FIG. 11, the same processing as in steps S30 and S32 in the vertex combining processing for objects in FIG. 9 is performed, and the vertex combining processing for texture is performed. Then, in step S54, the surface information of the surface removed by combining the vertices is stored as child information of the surface information of the surface adjacent to the surface to be removed.

例えば図12(A)に示す三角形メッシュTM1の例では、面情報SD1としてS1、S2、S3、S4・・・という面情報が記憶されている。ここで頂点v1に頂点v2を結合すると、図12(B)に示す三角形メッシュTM2のように、面S1が面S3に吸収されるようにして面S1が除去され、面S3が残存する。同時に面S2が面S4に吸収されるようにして面S2が除去され、面S4が残存する。   For example, in the example of the triangular mesh TM1 shown in FIG. 12A, the surface information S1, S2, S3, S4... Is stored as the surface information SD1. Here, when the vertex v2 is joined to the vertex v1, the surface S1 is removed so that the surface S1 is absorbed by the surface S3 as in the triangular mesh TM2 shown in FIG. 12B, and the surface S3 remains. At the same time, the surface S2 is removed so that the surface S2 is absorbed by the surface S4, and the surface S4 remains.

このとき本実施形態では、除去される面S1の面情報を、エッジを共有する隣接する面であって、除去される頂点v2を頂点とする面S3の面情報の子情報として格納する。同様に、削除された面S2の面情報を、エッジを共有する隣接する面であって、除去される頂点v2を頂点とする面S4の面情報の子情報として格納する。即ち図12(B)に示す面情報SD2のように、頂点結合処理により除去される面情報と残存する面情報とを関連付けて記憶する。   At this time, in this embodiment, the surface information of the surface S1 to be removed is stored as child information of the surface information of the surface S3 that is an adjacent surface sharing an edge and has the vertex v2 to be removed as a vertex. Similarly, the surface information of the deleted surface S2 is stored as child information of the surface information of the surface S4 which is an adjacent surface sharing an edge and has the vertex v2 to be removed as a vertex. That is, like the surface information SD2 shown in FIG. 12B, the surface information removed by the vertex combination process and the remaining surface information are stored in association with each other.

するとステップS56において親がいない面の数、即ち残存している面の数が所定数となったか否か判断する。ここで本実施形態では、生成したキャラクタオブジェクトにマッピングされるテクスチャを、少ない計算量で正確に生成するために最適な面数を設定しておく。そして所定数となっていない場合には(ステップS56のN)、ステップS58において、結合された頂点の評価値を結合先の頂点の評価値に加算する。   In step S56, it is determined whether or not the number of faces having no parent, that is, the number of remaining faces has reached a predetermined number. Here, in the present embodiment, an optimal number of faces is set in order to accurately generate a texture mapped to the generated character object with a small amount of calculation. If the predetermined number is not reached (N in step S56), the combined vertex evaluation value is added to the combined vertex evaluation value in step S58.

そして親がいない面の数が所定数となるまで、ステップS52からステップS56までの処理を繰り返す。するとポリゴンメッシュを構成する面が、評価値に応じて順次グループ化されていく。こうして本実施形態では、頂点結合により除去される面情報と、それを吸収して残存する面情報とに親子関係をつけることにより、親子関係で関連付けられた面集合を形成することができる。   Then, the processes from step S52 to step S56 are repeated until the number of faces having no parent reaches a predetermined number. Then, the surfaces constituting the polygon mesh are sequentially grouped according to the evaluation value. In this way, in the present embodiment, a surface set associated with a parent-child relationship can be formed by establishing a parent-child relationship between the surface information removed by the vertex connection and the surface information that is absorbed and retained.

図13は、立体物としての飲料の缶に対応するポリゴンメッシュPMb1について、テクスチャ用頂点結合処理を行った場合の一例を示す図である。図13に示すポリゴンメッシュPMb1に対して、上述したテクスチャ用の頂点結合処理を行うと、各面の色の濃淡で示すように、隣接する面により構成される面集合SSが複数形成される。図13の例では、ポリゴンメッシュPMb1を構成する各面が、面集合SS1から面集合SS14の14個の面集合群にグループ化されている。   FIG. 13 is a diagram illustrating an example when the texture vertex combining process is performed on the polygon mesh PMb1 corresponding to a beverage can as a three-dimensional object. When the above-described texture vertex combination processing is performed on the polygon mesh PMb1 shown in FIG. 13, a plurality of surface sets SS composed of adjacent surfaces are formed as shown by the shades of colors of the surfaces. In the example of FIG. 13, the faces constituting the polygon mesh PMb1 are grouped into 14 face set groups from the face set SS1 to the face set SS14.

特に本実施形態では、撮像情報PIから生成されたポリゴンメッシュを簡略化するためのオブジェクト用の頂点結合処理と同様のアルゴリズムを利用して、頂点を結合したならば除去される面の面情報を、残存する面の面情報と関連付けて面集合SSを形成する。従って本実施形態によれば、周囲のポリゴンが平坦である頂点から結合する処理を行うことができるので、ポリゴンメッシュを構成する各面を、相対的に平坦な関係にある隣接面と関連付けて面集合SSを形成することができる。こうして本実施形態によれば、少ない計算量で正確なテクスチャを生成するために、より適切な面集合を形成することができる。   In particular, in the present embodiment, the surface information of the surface to be removed if the vertices are combined by using the same algorithm as the vertex combining process for the object for simplifying the polygon mesh generated from the imaging information PI. The surface set SS is formed in association with the surface information of the remaining surfaces. Therefore, according to the present embodiment, it is possible to perform processing to join from the vertexes where the surrounding polygons are flat, so that each surface constituting the polygon mesh is associated with a relatively flat adjacent surface. A set SS can be formed. Thus, according to the present embodiment, a more appropriate surface set can be formed in order to generate an accurate texture with a small amount of calculation.

4.2 テクスチャ生成
そしてステップS60において、図13に示すポリゴンメッシュPMb1の各面を、図14に示すように面集合SS1〜SS14ごとにテクスチャ空間TSであるUV座標系に配置する。このときポリゴンメッシュPMb1を構成する各三角形プリミティブの法線が、UV座標平面に直交するように、ポリゴンメッシュPMb1の各面をUV座標系に配置する。即ち全ての三角形プリミティブが正面を向いた状態で、各面の頂点座標をUV座標系に対応付ける。
4.2 Texture Generation In step S60, each surface of the polygon mesh PMb1 shown in FIG. 13 is arranged in the UV coordinate system that is the texture space TS for each of the surface sets SS1 to SS14 as shown in FIG. At this time, each surface of the polygon mesh PMb1 is arranged in the UV coordinate system so that the normal line of each triangle primitive constituting the polygon mesh PMb1 is orthogonal to the UV coordinate plane. That is, with all triangle primitives facing the front, the vertex coordinates of each surface are associated with the UV coordinate system.

ここで本実施形態では、所定のアルゴリズムに基づき、面集合SS1〜SS14をUV座標系に配置する。本実施形態では、面集合SS1〜SS14のうち、面の数が最も多い面集合SS1から順にUV座標系に配置する。なお、面積の大きな面集合から順に配置するようにしてもよい。   Here, in the present embodiment, the surface sets SS1 to SS14 are arranged in the UV coordinate system based on a predetermined algorithm. In the present embodiment, the surface sets SS1 to SS14 are arranged in the UV coordinate system in order from the surface set SS1 having the largest number of surfaces. In addition, you may make it arrange | position sequentially from a surface set with a big area.

より詳細には本実施形態では、まず最も面の数が多い面集合SS1の任意の2の頂点が、それぞれU軸上とV軸上にあるように配置する。図14の例では、最も面の数が多い面集合SS1の任意の頂点である点Pu1がU軸上に、点Pv1がV軸上にあるように配置する。そして2番目に面の数が多い面集合SS2の任意の1点がV軸上にあって、かつ面集合SS2と面集合SS1とが重ならないように、面集合SS2を配置する。同様にして面集合SS3、面集合SS4をV軸に沿って配置する。   More specifically, in the present embodiment, first, two arbitrary vertices of the surface set SS1 having the largest number of surfaces are arranged on the U axis and the V axis, respectively. In the example of FIG. 14, the points Pu1 which are arbitrary vertices of the surface set SS1 having the largest number of surfaces are arranged on the U axis and the point Pv1 is on the V axis. Then, the surface set SS2 is arranged so that an arbitrary point of the surface set SS2 having the second largest number of surfaces is on the V axis and the surface set SS2 and the surface set SS1 do not overlap. Similarly, the surface set SS3 and the surface set SS4 are arranged along the V axis.

そして次の面集合SS5をV軸に沿って配置できない場合には、面集合SS5の任意の1点であるPu2がU軸上にあって、かつ面集合SS5と面集合SS1とが重ならないように、面集合SS5を配置する。そして次の面集合SS6を、面集合SS5に近い位置であって他の面集合SSと重ならないように配置する。同様にして他の面集合SSも配置する。こうして図14に示すように、全ての面集合SS1〜SS14をUV座標系に配置する。   If the next surface set SS5 cannot be arranged along the V-axis, Pu2 which is an arbitrary point of the surface set SS5 is on the U-axis, and the surface set SS5 and the surface set SS1 do not overlap. The surface set SS5 is disposed on the surface. The next surface set SS6 is arranged at a position close to the surface set SS5 so as not to overlap other surface sets SS. Similarly, other surface sets SS are also arranged. Thus, as shown in FIG. 14, all the surface sets SS1 to SS14 are arranged in the UV coordinate system.

そしてステップS62において、各面集合SS1〜SS14に応じた色分布をUV座標系に描き込む。そのため本実施形態では、まずカメラ32のキャリブレーション情報に基づいて、立体物の撮像情報PIから得られる立体物の色情報と、上述のように生成したメッシュ簡略化後のキャラクタオブジェクトの形状情報とを対応付ける。より詳細には本実施形態では、図2に示す12方向からの撮像情報PIの各キャラクタ領域画像CAと、当該撮像情報PIが撮像された方向と同じ方向からみた場合のキャラクタオブジェクト用のポリゴンメッシュPMb(図10)とを重ね合わせるように対応付け、ポリゴンメッシュPMbの各三角形プリミティブに対応する色情報を求める。   In step S62, a color distribution corresponding to each surface set SS1 to SS14 is drawn in the UV coordinate system. Therefore, in this embodiment, first, based on the calibration information of the camera 32, the color information of the three-dimensional object obtained from the imaging information PI of the three-dimensional object, and the shape information of the character object after the mesh simplification generated as described above, Associate. More specifically, in the present embodiment, each character area image CA of the imaging information PI from the 12 directions shown in FIG. 2 and the polygon mesh for the character object when viewed from the same direction as the imaging information PI is captured. The color information corresponding to each triangular primitive of the polygon mesh PMb is obtained by associating with PMb (FIG. 10) so as to overlap each other.

この場合、色分布の歪みを最小限にするために、三角形プリミティブを正面付近から撮像したときの撮像情報に基づいて、各三角形プリミティブの色情報を求めることが好ましい。そこで本実施形態では、各三角形プリミティブの法線情報と、各方向からの撮像情報のキャリブレーション情報とに基づき、各三角形プリミティブを最も正面に近い方向から撮像した撮像情報に基づいて、各三角形プリミティブの色情報を求めるようにしてもよい。こうして本実施形態では、立体物の12方向からの撮像情報に基づいて、当該立体物に対応するキャラクタオブジェクトにマッピングするテクスチャを生成する。   In this case, in order to minimize the distortion of the color distribution, it is preferable to obtain the color information of each triangle primitive based on the imaging information when the triangle primitive is imaged from near the front. Therefore, in this embodiment, based on the normal information of each triangle primitive and the calibration information of the imaging information from each direction, each triangle primitive is based on the imaging information obtained by imaging each triangle primitive from the direction closest to the front. The color information may be obtained. In this way, in the present embodiment, a texture to be mapped to the character object corresponding to the three-dimensional object is generated based on the imaging information from the 12 directions of the three-dimensional object.

図15は、図14のUV座標系に配置された面集合SS1〜SS14に応じた色分布が、各UV座標値に割り当てられたテクスチャ画像TGの一例を示す図である。図15の例では、図13に示すポリゴンメッシュMPbに対応する立体物としての飲料の缶の表面の色が、各面集合SS1〜SS14ごとにUV座標値に割り当てられている。特に図15の例では、面集合SS1〜SS14に対応する領域(以下、面集合領域という。)にのみ各面集合SS1〜SS14に応じた色が割り当てられるのではなく、各面集合SS1〜SS14の隙間の領域(面集合領域以外の領域)にぼかし色が割り当てられている。これにより図15の例では、ポリゴンメッシュの表面の色が面集合ごとにテクスチャ空間に分布するテクスチャをマッピングする際に、多少のずれが生じたとしても、ぼかし色により継ぎ目を目立たせないようにすることができる。   FIG. 15 is a diagram illustrating an example of a texture image TG in which a color distribution corresponding to the surface sets SS1 to SS14 arranged in the UV coordinate system of FIG. 14 is assigned to each UV coordinate value. In the example of FIG. 15, the color of the surface of the beverage can as a three-dimensional object corresponding to the polygon mesh MPb shown in FIG. 13 is assigned to the UV coordinate value for each of the surface sets SS1 to SS14. In particular, in the example of FIG. 15, colors corresponding to the surface sets SS1 to SS14 are not assigned only to regions corresponding to the surface sets SS1 to SS14 (hereinafter referred to as surface set regions), but the surface sets SS1 to SS14 are assigned. A blur color is assigned to the gap area (area other than the face collection area). Thus, in the example of FIG. 15, when mapping a texture in which the color of the surface of the polygon mesh is distributed in the texture space for each surface set, even if a slight deviation occurs, the joint is not conspicuous due to the blur color. can do.

詳細には本実施形態では、まず面集合領域にのみ各面集合SS1〜SS14に応じた色が割り当てられた元テクスチャを生成し、この元のテクスチャ画像の解像度を低下させて元テクスチャの色をぼかしたぼかし用画像を生成する。するとぼかし用画像では、面集合領域の周囲に、面集合領域の色がはみ出すようにして配置される。そして解像度を段階的に更に低下させて、複数段階の解像度のぼかし用画像を用意する。こうして解像度が低下するにつれ、面集合領域の周囲のより広い範囲に色がはみ出すようにして配置されたぼかし用画像を複数用意する。   More specifically, in the present embodiment, first, an original texture in which colors corresponding to the respective face sets SS1 to SS14 are assigned only to the face set area is generated, and the resolution of the original texture image is reduced to change the color of the original texture. Generate a blurred image for blurring. Then, in the image for blurring, the color of the surface aggregate region is arranged around the surface aggregate region. Then, the resolution is further reduced step by step to prepare a blur image having a plurality of levels of resolution. As the resolution decreases in this way, a plurality of blurring images are prepared that are arranged so that the color protrudes in a wider range around the surface collection area.

そして本実施形態では、元のテクスチャ画像と複数段階のぼかし用画像とに基づいてαブレンディングを行うことにより、元のテクスチャ画像に対してぼかし処理を行う。このとき、元のテクスチャ画像の面集合領域の色にまでぼかし処理を行わないように、面集合領域にマスク処理を行い、面集合領域以外にぼかし処理を行う。こうして本実施形態では、図15に示すように元のテクスチャの面集合領域以外にぼかし処理を行ったテクスチャを生成することができる。   In this embodiment, the original texture image is subjected to blur processing by performing α blending based on the original texture image and a plurality of stages of blurring images. At this time, mask processing is performed on the surface collection region so that the blur processing is not performed up to the color of the surface collection region of the original texture image, and blur processing is performed on areas other than the surface collection region. In this way, in the present embodiment, as shown in FIG. 15, it is possible to generate a texture that has been subjected to the blurring process in addition to the area set area of the original texture.

このように本実施形態によれば、所与のポリゴンメッシュを、評価値に応じて自動的に複数の面集合に分割し、ポリゴンメッシュの表面の色が面集合ごとにテクスチャ空間に分布するテクスチャを生成することができる。従って本実施形態によれば、ポリゴンメッシュの表面の色が連続的にテクスチャ空間に分布するテクスチャを生成するよりも少ない計算量でテクスチャを生成することができ、かつ、テクスチャの部位によって発生する伸びや縮み等の不整合を低減させ、正確にマッピングされるテクスチャを生成することができる。   As described above, according to this embodiment, a given polygon mesh is automatically divided into a plurality of face sets according to the evaluation value, and the texture of the surface of the polygon mesh is distributed in the texture space for each face set. Can be generated. Therefore, according to this embodiment, it is possible to generate a texture with a smaller amount of calculation than to generate a texture in which the color of the surface of the polygon mesh is continuously distributed in the texture space, and the elongation generated by the texture portion. Inconsistencies such as shrinkage and shrinkage can be reduced, and a texture that is accurately mapped can be generated.

5.スケルトンモデル情報の対応付け
次に本実施形態で生成されたキャラクタオブジェクトの形状情報(キャラクタオブジェクト用のポリゴンメッシュPMb)と、キャラクタオブジェクトをモーションさせるための複数のボーンが関節で連結されたスケルトンモデル情報と、を対応付けるモデル処理について説明する。
5. Correlation of Skeleton Model Information Next, skeleton model information in which the shape information of the character object (polygon mesh PMb for character object) generated in the present embodiment and a plurality of bones for moving the character object are connected by joints Will be described.

5.1 スケルトンモデル
本実施形態では、上述のようにして生成したキャラクタオブジェクト用のポリゴンメッシュMPbについてスケルトンシステムを用いて、キャラクタオブジェクトがオブジェクト空間でモーションを行う画像を生成する。このスケルトンシステムでは、図16に示すように、キャラクタオブジェクトCOを、複数のパーツオブジェクト(腰12、胸14、首16、頭18、右上腕20、右前腕22、右手24、左上腕26、左前腕28、左手30、右股32、右すね34、右足36、左股38、左すね40、左足42)により構成する。そして、これらのパーツオブジェクト(部位)の位置や回転角度(方向)は、スケルトンモデルを構成する骨B0〜B19の位置(関節J0〜J15の位置)や回転角度(親の骨に対する子の骨の相対的な回転角度)により特定される。なお、これらの骨、関節は仮想的なものであり、現実に表示されるオブジェクトではない。
5.1 Skeleton Model In the present embodiment, an image in which the character object performs motion in the object space is generated using the skeleton system for the polygon mesh MPb for the character object generated as described above. In this skeleton system, as shown in FIG. 16, a character object CO is divided into a plurality of parts objects (waist 12, chest 14, neck 16, head 18, upper right arm 20, right forearm 22, right hand 24, left upper arm 26, left Forearm 28, left hand 30, right crotch 32, right shin 34, right foot 36, left crotch 38, left shin 40, left foot 42). The positions and rotation angles (directions) of these part objects (parts) are the positions of the bones B0 to B19 constituting the skeleton model (positions of the joints J0 to J15) and the rotation angles (the bones of the child relative to the parent bone). Relative rotation angle). Note that these bones and joints are virtual and are not actually displayed objects.

そして、このスケルトンモデルを構成する骨(モーション骨、関節)は、親子(階層)構造を有している。例えば、手24、30の骨B7、B11の親は前腕22、28の骨B6、B10となり、B6、B10の親は上腕20、26の骨B5、B9となる。また、B5、B9の親は胸14の骨B1となり、B1の親は腰12の骨B0となる。また、足36、42の骨B15、B19の親はすね34、40の骨B14、B18となり、B14、B18の親は股32、38の骨B13、B17となり、B13、B17の親は腰12の骨B12、B16となる。これにより、各骨が接続された状態で各骨の位置や回転角度を変化させることができる。   The bones (motion bones, joints) constituting the skeleton model have a parent-child (hierarchical) structure. For example, the parents of the bones B7 and B11 of the hands 24 and 30 are the bones B6 and B10 of the forearms 22 and 28, and the parents of the B6 and B10 are the bones B5 and B9 of the upper arms 20 and 26. The parents of B5 and B9 become the bone B1 of the chest 14, and the parent of B1 becomes the bone B0 of the waist 12. The parents of the bones B15 and B19 of the legs 36 and 42 are the bones B14 and B18 of the shins 34 and 40, the parents of the B14 and B18 are the bones B13 and B17 of the crotch 32 and 38, and the parents of the B13 and B17 are the waist 12 Bones B12 and B16. Thereby, the position and rotation angle of each bone can be changed in a state where each bone is connected.

そして、これらの骨の位置、回転角度を、モーションデータとして記憶しておき、モーションデータを時間経過に伴い順次読み出すことで、キャラクタオブジェクトCOにモーションを行わせることができる。なお、骨の回転角度だけをモーションデータに含ませて、骨の位置(関節の位置)についてはモデルオブジェクトのモデルデータの中に含ませてもよい。   The positions and rotation angles of these bones are stored as motion data, and the character object CO can be caused to perform a motion by sequentially reading the motion data as time passes. Note that only the rotation angle of the bone may be included in the motion data, and the bone position (joint position) may be included in the model data of the model object.

例えば、キャラクタオブジェクトCOが歩くモーションが、M0、M1、M2・・・・MNという基準モーション群(各フレームでのモーション)により構成されているとする。この場合には、これらの各基準モーションM0、M1、M2・・・・MNでの各骨の位置又は回転角度が、モーションデータとして予め記憶されている。そして、例えば基準モーションM0の各パーツオブジェクトの位置、回転角度を読み出し、次に基準モーションM1の各パーツオブジェクトの位置、回転角度を読み出すというように、基準モーションのモーションデータを時間経過に伴い順次読み出すことで、モーション再生が実現される。   For example, it is assumed that the motion in which the character object CO walks is composed of a reference motion group (motion in each frame) M0, M1, M2,. In this case, the position or rotation angle of each bone in each of these reference motions M0, M1, M2,... MN is stored in advance as motion data. Then, for example, the position data and the rotation angle of each part object of the reference motion M0 are read out, and then the position and rotation angle of each part object of the reference motion M1 are read out. In this way, motion playback is realized.

なお、モーションデータ記憶部に記憶するモーションデータは、一般的には、モーションキャプチャにより取得したり、デザイナが作成する。また、骨の位置、回転角度は、親の骨の位置、回転角度に対する相対的な位置、相対的な回転角度(3軸周りの回転角度)で表される。また、図16においてRPはキャラクタオブジェクトCOの代表点であり、このRPは例えば腰(J0)の真下の位置(高さ零の位置)に設定されている。   The motion data stored in the motion data storage unit is generally acquired by motion capture or created by a designer. The bone position and rotation angle are represented by the position of the parent bone, the relative position with respect to the rotation angle, and the relative rotation angle (rotation angle around three axes). Further, in FIG. 16, RP is a representative point of the character object CO, and this RP is set to a position (position of zero height) just below the waist (J0), for example.

5.2 基礎モデルの選択
そして本実施形態では、立体物の撮像情報からキャラクタオブジェクトの頭パーツオブジェクト、胴体パーツオブジェクト、腕パーツオブジェクト、足パーツオブジェクトを生成し、各パーツオブジェクトをスケルトンモデルの頭の骨、胴体の骨、腕の骨、足の骨にそれぞれ関連付ける。具体的には本実施形態では、各パーツオブジェクトの重心を通る軸に沿って対応する骨を設定する。ここで軸の向きは、プレーヤに設定させてもよいし、所定のアルゴリズムに基づいて設定してもよい。例えばパーツごとに、生成されたパーツオブジェクトの長手方向を軸方向としたり、短手方向を軸方向とする。そして各パーツオブジェクトについて、パーツオブジェクトの各頂点の対応する骨に対するウェイト値を1.0に設定する。なおウェイト値とは、頂点に関連付けられたボーンが移動した際に、その頂点がそのボーンにどれだけ追従するかを示す比率である。
5.2 Selection of Basic Model In this embodiment, the head part object, the body part object, the arm part object, and the foot part object of the character object are generated from the imaging information of the three-dimensional object, and each part object is converted to the head of the skeleton model. Associate with bones, torso bones, arm bones, and foot bones, respectively. Specifically, in the present embodiment, a corresponding bone is set along an axis passing through the center of gravity of each part object. Here, the direction of the axis may be set by the player or may be set based on a predetermined algorithm. For example, for each part, the longitudinal direction of the generated part object is the axial direction, and the short direction is the axial direction. For each part object, the weight value for the corresponding bone at each vertex of the part object is set to 1.0. The weight value is a ratio indicating how much the vertex follows the bone when the bone associated with the vertex moves.

ここで本実施形態では、システム利用者が任意に選択した立体物を任意の部位のパーツオブジェクトとすることができるので、生成された各パーツオブジェクトの形状情報も任意のものとなる。例えば足パーツオブジェクトとして、柱状体であるが飲料のペットボトルのように相対的に太いオブジェクトが生成される場合や、鉛筆のような相対的に細いオブジェクトが生成される場合もある。また足パーツオブジェクトとして、コンパクトディスク(CD)のような平板状のオブジェクトが生成される場合もある。   Here, in this embodiment, since the three-dimensional object arbitrarily selected by the system user can be used as a part object of an arbitrary part, the shape information of each generated part object is also arbitrary. For example, as a leg part object, there is a case where a relatively thick object such as a plastic bottle of a beverage is generated, or a relatively thin object such as a pencil is generated. In addition, a flat object such as a compact disc (CD) may be generated as the foot part object.

そこで本実施形態では、複数種類のスケルトンモデル情報を用意しておき、生成された各パーツオブジェクトの形状情報に応じて、各パーツオブジェクトの特性に適合する1のスケルトンモデル情報を選択する。特に本実施形態では、生成された足パーツオブジェクトの形状情報に応じて、スケルトンモデル情報を選択する。そして各パーツオブジェクトを、選択されたスケルトンモデル情報の対応する骨に関連付ける。   Therefore, in this embodiment, a plurality of types of skeleton model information are prepared, and one skeleton model information that matches the characteristics of each part object is selected according to the generated shape information of each part object. In particular, in the present embodiment, skeleton model information is selected according to the shape information of the generated foot part object. Then, each part object is associated with the corresponding bone of the selected skeleton model information.

図17(A)〜(C)は、本実施形態で用意されているスケルトンモデル情報の例を示すものである。本実施形態では、例えば足パーツオブジェクトとして相対的に太い柱状体であるペットボトルの形状情報が生成された場合には、図17(A)に示す2本足のスケルトンモデルSM1が選択される。一方、相対的に細い柱状体である鉛筆の形状情報が生成された場合には、図17(B)に示す4本足のスケルトンモデルSM2が選択される。また、足(下半身)パーツオブジェクトとして平板状の立体物であるコンパクトディスクの形状情報が生成された場合には、図17(C)に示す足がないスケルトンモデルSM3が選択される。   FIGS. 17A to 17C show examples of skeleton model information prepared in the present embodiment. In the present embodiment, for example, when shape information of a plastic bottle that is a relatively thick columnar body is generated as a foot part object, a two-legged skeleton model SM1 shown in FIG. 17A is selected. On the other hand, when shape information of a pencil that is a relatively thin columnar body is generated, a four-legged skeleton model SM2 shown in FIG. 17B is selected. Further, when the shape information of the compact disc, which is a flat solid object, is generated as the foot (lower body) part object, the skeleton model SM3 having no foot shown in FIG. 17C is selected.

具体的には本実施形態では、スケルトンモデルSM1〜SM3に対応づけられたモデルオブジェクトとして、図18(A)〜(C)に示す基礎モデルBM1〜BM3が用意されている。この基礎モデルBM1〜BM3は、生成された各パーツオブジェクトをスケルトンモデルSM1〜SM3に対応付けるための基礎となるモデルオブジェクトである。例えば図18(A)の例では、基礎モデルBM1は、首パーツオブジェクトNO1と、肩パーツオブジェクトSO1と、上腕パーツオブジェクトUO1と、股(もも)パーツオブジェクトTO1とが、それぞれ対応する骨に予め関連付けられている。   Specifically, in this embodiment, basic models BM1 to BM3 shown in FIGS. 18A to 18C are prepared as model objects associated with the skeleton models SM1 to SM3. The basic models BM1 to BM3 are model objects that serve as a basis for associating each generated part object with the skeleton models SM1 to SM3. For example, in the example of FIG. 18A, the basic model BM1 includes a neck part object NO1, a shoulder part object SO1, an upper arm part object UO1, and a crotch (thigh) part object TO1 in advance on the corresponding bones. Associated.

そして基礎モデルBM1のうち、頭パーツオブジェクトに対応する部分には、モデル座標系における所定の領域を示すバウンディングボリュームである頭ボリュームHV1が設定されている。また、腕パーツオブジェクトに対応する部分には腕ボリュームAV1が、胴パーツオブジェクトに対応する部分には胴ボリュームBV1が、足パーツオブジェクトに対応する部分には足ボリュームLV1が設定されている。なおこのバウンディングボリュームは画像上では表示されないものである。   A head volume HV1, which is a bounding volume indicating a predetermined area in the model coordinate system, is set in a portion corresponding to the head part object in the basic model BM1. Also, an arm volume AV1 is set for the part corresponding to the arm part object, a torso volume BV1 is set for the part corresponding to the torso part object, and a foot volume LV1 is set for the part corresponding to the foot part object. This bounding volume is not displayed on the image.

そして各基礎モデルBM1〜BM3に設定されているバウンディングボリュームは、基礎モデルBM1〜BM3ごとに異なる形状となっている。例えば本実施形態では、図18(A)に示す基礎モデルBM1は、相対的に太い形状の足ボリュームLV1が設定されている。一方、図18(B)に示す基礎モデルBM2は、相対的に細い形状の足ボリュームLV2が設定されている。また、図18(C)に示す基礎モデルBM3は、平板状の足(下半身)ボリュームLV3が設定されている。   The bounding volumes set in the basic models BM1 to BM3 have different shapes for the basic models BM1 to BM3. For example, in the present embodiment, a relatively thick foot volume LV1 is set in the basic model BM1 shown in FIG. On the other hand, in the basic model BM2 shown in FIG. 18B, a relatively thin foot volume LV2 is set. Further, in the basic model BM3 shown in FIG. 18C, a flat foot (lower body) volume LV3 is set.

そして本実施形態では、生成された足パーツオブジェクトの縦、横、高さ(互いに直交する3軸方向の最大値)の比と、基礎モデルBM1〜BM3の各足ボリュームLVの縦、横、高さの比とを比較する。そして、生成された足パーツオブジェクトが最も近似する足ボリュームLVに対応する基礎モデルBMを選択する。   In the present embodiment, the ratio of the vertical, horizontal, and height (maximum values in the three axis directions orthogonal to each other) of the generated foot part object and the vertical, horizontal, and high of each foot volume LV of the basic models BM1 to BM3. Compare the ratio. Then, the base model BM corresponding to the foot volume LV that is most approximated by the generated foot part object is selected.

従って本実施形態では、例えば相対的に太い柱状体であるペットボトル型の足パーツオブジェクトが生成された場合には、基礎モデルBM1の足ボリュームLV1が最も近似すると判断し、基礎モデルBM1を選択する。一方、相対的に細い柱状体である鉛筆型の足パーツオブジェクトが生成された場合には、基礎モデルBM2の足ボリュームLV2が最も近似すると判断し、基礎モデルBM2を選択する。   Therefore, in the present embodiment, for example, when a PET bottle-type foot part object that is a relatively thick columnar body is generated, it is determined that the foot volume LV1 of the basic model BM1 is the closest, and the basic model BM1 is selected. . On the other hand, when a pencil-shaped foot part object that is a relatively thin columnar body is generated, it is determined that the foot volume LV2 of the basic model BM2 is the closest, and the basic model BM2 is selected.

そして基礎モデルBMを選択すると、基礎モデルBOの各パーツの形状情報として、生成した各パーツオブジェクトの形状情報を設定する。即ち各パーツオブジェクトの頂点情報を対応する骨に関連付ける。図19(A)、(B)は、こうして生成されたキャラクタオブジェクトの一例である。図19(A)は、足パーツオブジェクトLO1としてペットボトル型オブジェクトを生成し、基礎モデルBM1を選択した場合の例である。従って図19(A)の例では、ペットボトル型の2本の足を有するキャラクタオブジェクトCO1が生成される。なお図19(A)の例では、キャラクタオブジェクトCO1の頭パーツオブジェクトHO1は携帯型ミュージックプレーヤの形状とされ、腕パーツオブジェクトAO1は飲料の缶の形状とされ、胴パーツオブジェクトBO1はライターの形状とされている。   When the basic model BM is selected, the shape information of each generated part object is set as the shape information of each part of the basic model BO. That is, the vertex information of each part object is associated with the corresponding bone. FIGS. 19A and 19B are examples of the character object generated in this way. FIG. 19A shows an example in which a plastic bottle type object is generated as the foot part object LO1 and the basic model BM1 is selected. Accordingly, in the example of FIG. 19A, a character object CO1 having two plastic bottle-type legs is generated. In the example of FIG. 19A, the head part object HO1 of the character object CO1 has the shape of a portable music player, the arm part object AO1 has the shape of a beverage can, and the torso part object BO1 has the shape of a lighter. Has been.

また図19(B)は、足パーツオブジェクトLO2として鉛筆型オブジェクトを生成し、基礎モデルBM2を選択した場合の例である。従って図19(B)の例では、鉛筆型の4本の足を有するキャラクタオブジェクトCO2が生成される。なお図19(B)の例では、キャラクタオブジェクトCO2の頭パーツオブジェクトHO2は携帯型ゲーム機の形状とされ、腕パーツオブジェクトAO2は飲料のペットボトルの形状とされ、胴パーツオブジェクトBO2は携帯電話の形状とされている。   FIG. 19B shows an example in which a pencil type object is generated as the foot part object LO2 and the basic model BM2 is selected. Accordingly, in the example of FIG. 19B, a character object CO2 having four pencil-shaped legs is generated. In the example of FIG. 19B, the head part object HO2 of the character object CO2 has the shape of a portable game machine, the arm part object AO2 has the shape of a beverage plastic bottle, and the trunk part object BO2 has the shape of a mobile phone. It is made into a shape.

ここで本実施形態では、各パーツオブジェクトの縮尺比(スケール)は、各パーツオブジェクトごとに異なるものとなっている。図19(A)の例では、例えばライター型の胴パーツオブジェクトBO1と、ペットボトル型の足パーツオブジェクトLO1とでは、実際のライターとペットボトルの大きさの比と異なり、ライターの方がペットボトルよりも縮尺比が大きくなっている。これは、本実施形態では、生成された各パーツオブジェクトの形状情報を、各パーツに対応するバウンディングボリュームに応じて補正しているからである。   Here, in the present embodiment, the scale ratio (scale) of each part object is different for each part object. In the example of FIG. 19A, for example, in the lighter-type body part object BO1 and the plastic bottle-type foot part object LO1, the lighter is more plastic bottle than the actual ratio of the size of the lighter to the plastic bottle. The scale ratio is larger than that. This is because in the present embodiment, the generated shape information of each part object is corrected according to the bounding volume corresponding to each part.

例えば、足パーツオブジェクトLOとしてペットボトル型オブジェクトを生成した場合には、ペットボトル型オブジェクトの形状情報を、図18(A)の足ボリュームLV1内に納まるように縮小補正する。一方、胴パーツオブジェクトBOとしてライター型オブジェクトを生成した場合には、ライター型オブジェクトの形状情報を、図18(A)の胴ボリュームBV1内に納まるように拡大補正する。このように本実施形態では、生成された形状情報の大きさがまちまちであっても、キャラクタオブジェクトCOの各パーツの形状情報として適切なものに補正する。従って、各パーツオブジェクトの外観を維持しつつ、バランスのよいキャラクタオブジェクトCOを生成することができる。   For example, when a PET bottle type object is generated as the foot part object LO, the shape information of the PET bottle type object is reduced and corrected so as to fit within the foot volume LV1 in FIG. On the other hand, when a writer-type object is generated as the body part object BO, enlargement correction is performed so that the shape information of the writer-type object falls within the body volume BV1 of FIG. As described above, in this embodiment, even if the generated shape information has various sizes, the shape information of each part of the character object CO is corrected to be appropriate. Therefore, a well-balanced character object CO can be generated while maintaining the appearance of each part object.

こうして本実施形態では、キャラクタオブジェクトCOの各パーツが、任意の立体物の外観に対応したキャラクタオブジェクトCOを生成することができ、かかるキャラクタオブジェクトCOがオブジェクト空間でモーションを行う画像を生成することができる。これにより本実施形態によれば、システム利用者が選択した複数の立体物の組合せにより、更に各立体物と各パーツの対応関係の組合せにより、様々なキャラクタオブジェクトCOを生成することができる。従って本実施形態によればシステムの利用者に対して、選択した複数の立体物の組合せと、立体物とパーツの対応関係の組合せにより、生成されるキャラクタオブジェクトCOがいかなるものになるかというこれまでの画像生成システムにない興味を喚起することができる。   Thus, in this embodiment, each part of the character object CO can generate a character object CO corresponding to the appearance of an arbitrary three-dimensional object, and the character object CO can generate an image in which motion is performed in the object space. it can. As a result, according to the present embodiment, various character objects CO can be generated by combining a plurality of three-dimensional objects selected by the system user and further by combining combinations of three-dimensional objects and parts. Therefore, according to the present embodiment, the user of the system can determine what kind of character object CO is generated by the combination of the selected three-dimensional object and the combination of the correspondence between the three-dimensional object and the part. It is possible to arouse interest that is not in the previous image generation system.

6.ゲーム内容
6.1 概要
次に、上述のようにして生成したキャラクタオブジェクトCO(以下、プレーヤキャラクタCO1という。)の画像を表示させて実行する対戦ゲームの概要について説明する。本実施形態では対戦ゲームを開始する前にプレーヤに対して、プレーヤキャラクタCO1の頭パーツ、胴体パーツ、腕パーツ、足パーツのいずれかのパーツをコアパーツとして選択させる。そして対戦ゲーム中では、対戦相手キャラクタCO2のいずれのパーツを攻撃するかを選択させ、また、プレーヤキャラクタCO1のいずれのパーツを防御するかを選択させる。そして、対戦相手キャラクタCO2のコアパーツがいずれのパーツであるかを予測してコアパーツを破壊するか、その他のパーツのうち2つのパーツを破壊して対戦相手キャラクタCO2を倒すという対戦ゲームを実行する。
6). Game Contents 6.1 Outline Next, an outline of a battle game executed by displaying an image of the character object CO (hereinafter referred to as a player character CO1) generated as described above will be described. In the present embodiment, before starting the battle game, the player is caused to select any one of the head part, the body part, the arm part, and the foot part of the player character CO1 as the core part. During the battle game, the player selects which part of the opponent character CO2 is to attack and selects which part of the player character CO1 is to be protected. Then, a battle game is executed in which the core part of the opponent character CO2 is predicted and the core part is destroyed, or two of the other parts are destroyed and the opponent character CO2 is defeated. To do.

図21は、本実施形態で表示部12に表示させる対戦ゲーム画像の一例である。図21に示すように本実施形態では、オブジェクト空間OSに地面を表すマップオブジェクトMPを配置し、マップオブジェクト上にプレーヤキャラクタCO1と対戦相手キャラクタCO2とを配置して、当該オブジェクト空間OSを所与の仮想カメラから見た3次元画像を表示させる。なお本実施形態では、表示部12には1のプレーヤについてのゲーム画面を表示させ、対戦相手のプレーヤが実プレーヤである場合には、対戦相手のプレーヤにゲーム画面が視認されないように構成されている。   FIG. 21 is an example of a battle game image displayed on the display unit 12 in the present embodiment. As shown in FIG. 21, in this embodiment, a map object MP representing the ground is arranged in the object space OS, a player character CO1 and an opponent character CO2 are arranged on the map object, and the object space OS is given. A three-dimensional image viewed from the virtual camera is displayed. In the present embodiment, a game screen for one player is displayed on the display unit 12, and when the opponent player is an actual player, the game screen is not visually recognized by the opponent player. Yes.

ここで図21の画面例は、本実施形態の対戦ゲームにおいてプレーヤキャラクタCO1が防御状態である場合に表示させる画面例である。この防御状態の画面は、本実施形態で対戦ゲームを開始するとまず表示させる画面であって、画面左下には攻撃状態に移行するまでの時間を示す移行メータCMを表示させ、移行メータCMの右側方には、プレーヤキャラクタCOの頭パーツの識別表示IH1、腕パーツの識別表示IA1、胴パーツの識別表示IB1、足パーツの識別表示IL1を表示させる。図21の例では、頭パーツの識別表示IH1の上部に「コア」と表示させ、頭パーツの識別表示IH1がコアパーツとして選択されていることを示している。また、頭パーツの識別表示IH1と胴パーツの識別表示IB1とを他の識別表示よりも大きく表示させ、頭パーツの識別表示IH1と胴パーツの識別表示IB1とが防御箇所として選択されていることを示している。また各識別表示の下方には、対応するパーツの体力値の残量を示す体力ゲージGH1、GA1、GB1、GL1を表示させる。   Here, the screen example of FIG. 21 is a screen example displayed when the player character CO1 is in the defense state in the competitive game of the present embodiment. The screen in the defense state is a screen that is displayed first when the battle game is started in the present embodiment. A transition meter CM indicating the time until the transition to the attack state is displayed at the lower left of the screen, and the right side of the transition meter CM is displayed. The player displays the head part identification display IH1, the arm part identification display IA1, the torso part identification display IB1, and the foot part identification display IL1 of the player character CO. In the example of FIG. 21, “core” is displayed at the top of the head part identification display IH1, indicating that the head part identification display IH1 is selected as the core part. Further, the head part identification display IH1 and the trunk part identification display IB1 are displayed larger than the other identification displays, and the head part identification display IH1 and the trunk part identification display IB1 are selected as the defense points. Is shown. Also, below each identification display, physical strength gauges GH1, GA1, GB1, and GL1 indicating the remaining physical strength values of the corresponding parts are displayed.

図22は、本実施形態で実行される対戦ゲームのメイン処理の一例を示したフローチャートである。本実施形態ではまず、プレーヤがカードリーダ18に挿入したメモリカードからプレーヤの名前や、ゲーム回数や経験値等の基礎パラメータ等のプレーヤ情報を読出し、プレーヤ情報を設定する(ステップS98)。そして、プレーヤに設置された任意の立体物の表面情報を取得してプレーヤキャラクタCO1を生成している(図5の各処理)間に、プレーヤにいずれかのパーツをコアパーツとして選択させ、選択されたパーツをコアパーツとして設定する(ステップS100)。そしてプレーヤキャラクタCO1が生成されると、メモリカードから読出した基礎パラメータや、生成された各パーツの形状情報や、選択されたモデル情報等に基づき、生成されたプレーヤキャラクタCO1のパラメータを設定し、生成されたプレーヤキャラクタCO1の能力や性格等を設定する(ステップS102)。そして、図21に示すような防御状態の画面を表示させる(ステップS104)。   FIG. 22 is a flowchart showing an example of the main process of the battle game executed in this embodiment. In the present embodiment, first, player information such as the player name, basic parameters such as the number of games and experience values is read from the memory card inserted into the card reader 18 by the player, and the player information is set (step S98). Then, while acquiring the surface information of an arbitrary three-dimensional object installed in the player and generating the player character CO1 (each process in FIG. 5), the player selects one of the parts as a core part and selects it. The set part is set as a core part (step S100). When the player character CO1 is generated, the parameters of the generated player character CO1 are set based on the basic parameters read from the memory card, the shape information of each generated part, the selected model information, and the like. The ability, personality, etc. of the generated player character CO1 are set (step S102). And the screen of a defense state as shown in FIG. 21 is displayed (step S104).

すると攻撃状態に移行するためのカウンタを更新する(ステップS106)。本実施形態では、カウンタの更新に応じて移行メータCMの表示を制御する。そして、プレーヤキャラクタCO1のいずれのパーツを防御するか、防御箇所の選択操作入力をプレーヤから受付ける(ステップS108)。本実施形態では、4つのパーツのうち2つのパーツ、又は1つのパーツを防御箇所として選択することができる。   Then, the counter for shifting to the attack state is updated (step S106). In this embodiment, the display of the transition meter CM is controlled according to the update of the counter. Then, an input for selecting a defensive point is received from the player as to which part of the player character CO1 is to be defended (step S108). In the present embodiment, two of the four parts or one part can be selected as a defense location.

そして移行メータCMがMAXでない場合には(ステップS110のN)ステップS106に戻り、カウンタ更新と防御箇所の受付けを継続する。一方、MAXとなった場合には(ステップS110のY)カウンタと移行メータCMの表示をリセットし(ステップS112)、攻撃状態に移行させて攻撃処理を行う(ステップS114)。   If the transition meter CM is not MAX (N in Step S110), the process returns to Step S106, and the counter update and acceptance of the defense location are continued. On the other hand, if it becomes MAX (Y in step S110), the display of the counter and the transition meter CM is reset (step S112), and the attack process is performed by shifting to the attack state (step S114).

そして当該攻撃処理において対戦相手キャラクタCO2を倒した場合には(ステップS116のY)、プレーヤキャラクタCO1の基礎パラメータ等のプレーヤ情報を更新し(ステップS118)、プレーヤのメモリカードにプレーヤ情報を書き込み(ステップS120)、ゲーム終了処理を行う。一方、当該攻撃処理においては対戦相手キャラクタCO2を倒せなかった場合には(ステップS116のN)、ステップS106に戻り再びカウンタを更新して(ステップS106)防御箇所を受付ける(ステップS108)。   If the opponent character CO2 is defeated in the attack process (Y in step S116), the player information such as the basic parameters of the player character CO1 is updated (step S118), and the player information is written in the player's memory card ( Step S120), a game end process is performed. On the other hand, if the opponent character CO2 cannot be defeated in the attack process (N in step S116), the process returns to step S106 and the counter is updated again (step S106) to accept the defense location (step S108).

6.2 攻撃処理
次に、本実施形態の攻撃処理の詳細について説明する。本実施形態では、移行メータCMがMAXとなって防御状態から攻撃状態に移行すると、図23に示すような攻撃状態の画面を表示させる。図23に示すように本実施形態の攻撃状態の画面では、画面の下部に移行メータCMと、プレーヤキャラクタCO1の各パーツの識別表示IH1〜IL1を表示させるとともに、画面の上部に、対戦相手キャラクタCO2についての頭パーツの識別表示IH2、腕パーツの識別表示IA2、胴パーツの識別表示IB2、足パーツの識別表示IL2を表示させる。また対戦相手キャラクタCO2の各識別表示の下方には、対応するパーツの体力値の残量を示す体力ゲージGH2、GA2、GB2、GL2を表示させる。なお、対戦相手キャラクタCO2の各パーツの識別表示に関しては、対戦相手がいずれのパーツをコアパーツとして選択しているか、いずれのパーツを防御箇所として選択しているかを示す表示制御は行わない。
6.2 Attack Process Next, details of the attack process of this embodiment will be described. In this embodiment, when the transition meter CM becomes MAX and shifts from the defense state to the attack state, an attack state screen as shown in FIG. 23 is displayed. As shown in FIG. 23, in the attack state screen of the present embodiment, the transition meter CM and identification displays IH1 to IL1 of each part of the player character CO1 are displayed at the bottom of the screen, and the opponent character is displayed at the top of the screen. A head part identification display IH2, an arm part identification display IA2, a torso part identification display IB2, and a foot part identification display IL2 for CO2 are displayed. Also, below each identification display of the opponent character CO2, physical strength gauges GH2, GA2, GB2, GL2 indicating the remaining physical strength values of the corresponding parts are displayed. Regarding the identification display of each part of the opponent character CO2, display control indicating which part the opponent has selected as a core part and which part has been selected as a defense part is not performed.

そして本実施形態では、画面中央部に対戦相手キャラクタCO2を大きく表示させ、対戦相手キャラクタCO2の手前側には、対戦相手キャラクタCO2の視認性を妨げないように、同心円状に配置された複数の判定領域からなるターゲットマーカ表示TIを表示させる。また、ターゲットマーカ表示TI上及びその周辺を移動するロックオンサイト表示RIを表示させる。本実施形態ではロックオンサイト表示RIを、図中破線で示すように所定の波形を描くように画面中を左右に往復移動させる。   In the present embodiment, the opponent character CO2 is displayed large in the center of the screen, and a plurality of concentric circles are arranged on the front side of the opponent character CO2 so as not to hinder the visibility of the opponent character CO2. A target marker display TI including a determination area is displayed. Further, a lock on-site display RI that moves on and around the target marker display TI is displayed. In this embodiment, the lock-on-site display RI is reciprocated left and right in the screen so as to draw a predetermined waveform as indicated by a broken line in the figure.

図24は、本実施形態の攻撃処理の一例を示したフローチャートである。本実施形態ではまず、図23に示すような攻撃状態の画面を表示させると(ステップS130)、対戦相手キャラクタCO2のいずれのパーツを攻撃するか、攻撃箇所の選択操作入力をプレーヤから受付ける(ステップS132)。本実施形態では、4つのパーツのうち1つのパーツを攻撃箇所として選択させる。   FIG. 24 is a flowchart illustrating an example of attack processing according to the present embodiment. In the present embodiment, first, when a screen in an attack state as shown in FIG. 23 is displayed (step S130), an input for selecting an attack location is received from the player as to which part of the opponent character CO2 is to be attacked (step S130). S132). In this embodiment, one part of the four parts is selected as an attack location.

そしてロックオンサイト表示RIの移動表示を開始し(ステップS134)、攻撃操作入力をプレーヤから受付ける(ステップS136)。ここで攻撃操作が、ロックオンサイト表示RIがターゲットマーカ表示TIと重なっているときに行われなかった(適正操作が行われなかった)場合には(ステップS138のN)、攻撃失敗モーションを行う画像を表示させ(ステップS144)、攻撃処理を終了する。一方、適正操作が行われた場合には(ステップS138のY)、プレーヤキャラクタCO1が所定の攻撃モーションを行う画像を表示させる(ステップS140)。   Then, the movement display of the lock on-site display RI is started (step S134), and an attack operation input is received from the player (step S136). If the attack operation is not performed when the lock on-site display RI overlaps the target marker display TI (the proper operation has not been performed) (N in step S138), an attack failure motion is performed. The image is displayed (step S144), and the attack process is terminated. On the other hand, when an appropriate operation is performed (Y in step S138), an image in which the player character CO1 performs a predetermined attack motion is displayed (step S140).

そして、当該攻撃操作による攻撃箇所が対戦相手キャラクタCO2の防御箇所であった場合、即ち攻撃がヒットしなかった場合には(ステップS142のN)、攻撃失敗モーションを行う画像を表示させ(ステップS144)、攻撃処理を終了する。一方、当該攻撃操作による攻撃箇所が対戦相手キャラクタCO2の防御箇所でなかった場合、即ち攻撃がヒットした場合には(ステップS142のY)、ヒットした攻撃箇所が対戦相手キャラクタCO2のコアパーツか否か判断する(ステップS146)。   If the attack location by the attack operation is a defense location of the opponent character CO2, that is, if the attack does not hit (N in step S142), an image for performing an attack failure motion is displayed (step S144). ), The attack process is terminated. On the other hand, if the attack location by the attack operation is not the defense location of the opponent character CO2, that is, if the attack is hit (Y in step S142), whether or not the hit attack location is a core part of the opponent character CO2. Is determined (step S146).

ここでコアパーツでなかった場合には(ステップS146のN)、ヒットした攻撃箇所に対応するパーツにダメージを与える(ステップS147)。そして2のパーツの体力値が0となっていない場合には(ステップS148のN)、そのまま攻撃処理を終了する。一方、2のパーツの体力値が0となった場合には(ステップS148のY)、対戦相手キャラクタCO2が倒される勝利画像を表示させて(ステップS149)攻撃処理を終了する。   If the part is not a core part (N in step S146), the part corresponding to the hit attack location is damaged (step S147). If the physical strength value of the part 2 is not 0 (N in step S148), the attack process is terminated as it is. On the other hand, when the physical strength value of the second part becomes 0 (Y in step S148), a victory image in which the opponent character CO2 is defeated is displayed (step S149), and the attack process is terminated.

一方、コアパーツであった場合には(ステップS146のY)、対戦相手キャラクタCO2のコアパーツにダメージを与える(ステップS150)。そしてコアパーツの体力値が0となった場合には(ステップS151のY)、対戦相手キャラクタCO2が倒される勝利画像を表示させて(ステップS149)、攻撃処理を終了する。ここでコアパーツの体力値が0となっていない場合には(ステップS151のN)、コアパーツにヒットさせた報酬として継続して攻撃を行うことができる連鎖攻撃の攻撃箇所の選択操作入力をプレーヤから受付ける(ステップS152)。このとき、対戦相手のプレーヤからも連鎖攻撃に対する防御箇所を改めて受付ける。そして本実施形態では、連鎖攻撃の場合には、通常攻撃時のようにいずれかのパーツを指定して攻撃箇所を選択させるのではなく、対戦相手キャラクタCO2のコアパーツを攻撃するか、その他のパーツを攻撃するかの二者択一の選択を行わせる。   On the other hand, if it is a core part (Y in step S146), damage is given to the core part of the opponent character CO2 (step S150). When the physical strength value of the core part becomes 0 (Y in step S151), a victory image in which the opponent character CO2 is defeated is displayed (step S149), and the attack process is terminated. Here, when the physical strength value of the core part is not 0 (N in step S151), the selection operation input of the attack point of the chain attack that can be continuously attacked as a reward hit to the core part is performed. Accepted from the player (step S152). At this time, the defense point against the chain attack is also received from the opponent player. In this embodiment, in the case of a chain attack, instead of specifying any part and selecting an attack location as in a normal attack, the core part of the opponent character CO2 is attacked, Lets you choose between attacking parts.

そしてロックオンサイト表示RIの移動表示を開始し(ステップS154)、連鎖攻撃操作入力をプレーヤから受付け(ステップS156)、適正操作が行われた場合には(ステップS158のY)、プレーヤキャラクタCO1が所定の攻撃モーションを行う画像を表示させる(ステップS160)。そして、当該連鎖攻撃操作による攻撃がヒットした場合には(ステップS162のY)、ヒットした攻撃箇所が対戦相手キャラクタCO2のコアパーツか否か判断する(ステップS164)。   Then, the movement display of the lock on-site display RI is started (step S154), the chain attack operation input is received from the player (step S156), and if the proper operation is performed (Y in step S158), the player character CO1 An image for performing a predetermined attack motion is displayed (step S160). If the attack by the chain attack operation is hit (Y in step S162), it is determined whether or not the hit attack location is a core part of the opponent character CO2 (step S164).

ここでコアパーツでなかった場合には(ステップS164のN)、コアパーツ以外の全てのパーツにダメージを与える(ステップS165)。そして2のパーツの体力値が0となっていない場合には(ステップS166のN)、そのまま攻撃処理を終了する。一方、2のパーツの体力値が0となった場合には(ステップS166のY)、対戦相手キャラクタCO2が倒される勝利画像を表示させて(ステップS167)攻撃処理を終了する。   If it is not a core part (N in step S164), damage is given to all parts other than the core part (step S165). If the physical strength value of the part 2 is not 0 (N in step S166), the attack process is terminated as it is. On the other hand, when the physical strength value of the second part becomes 0 (Y in step S166), a victory image in which the opponent character CO2 is defeated is displayed (step S167), and the attack process is terminated.

一方、コアパーツであった場合には(ステップS164のY)、対戦相手キャラクタCO2のコアパーツにダメージを与える(ステップS168)。そしてコアパーツの体力値が0となった場合には(ステップS169のY)、対戦相手キャラクタCO2が倒される勝利画像を表示させて(ステップS167)、攻撃処理を終了する。ここでコアパーツの体力値が0となっていない場合には(ステップS169のN)、ステップS152に戻り、再び連鎖攻撃の攻撃箇所の選択操作入力をプレーヤから受付ける(ステップS152)。   On the other hand, if it is a core part (Y in step S164), the core part of the opponent character CO2 is damaged (step S168). When the physical strength value of the core part becomes 0 (Y in step S169), a victory image in which the opponent character CO2 is defeated is displayed (step S167), and the attack process is terminated. Here, when the physical strength value of the core part is not 0 (N in Step S169), the process returns to Step S152, and the selection operation input of the attack point of the chain attack is received again from the player (Step S152).

このように本実施形態では、対戦相手のプレーヤがコアパーツを防御していない場合に、プレーヤがコアパーツへの攻撃を成功させると連鎖攻撃状態となり、プレーヤは連続的に攻撃を行うことができる。そして連鎖攻撃状態に移行したときに選択していた攻撃箇所から、対戦相手キャラクタCO2のコアパーツがいずれのパーツであるかを知ることができる。ここで連鎖攻撃状態では、プレーヤにコアパーツを攻撃するか、その他のパーツを攻撃するかの二者択一の選択を行わせるが、コアパーツが破壊されるとゲームオーバーになってしまうので、対戦相手のプレーヤはコアパーツを防御することが多いと考えられる。しかし攻撃がコアパーツ以外のパーツにヒットすると、コアパーツ以外のパーツ全てにダメージが与えられる。そこで攻撃側のプレーヤは、対戦相手キャラクタCO2の各パーツの体力ゲージに示される体力値の残量を考慮して、防御側の対戦相手のプレーヤがいかなる防御操作を行うかを予測して攻撃箇所を選択する。こうして本実施形態では、対戦相手の心理を予測しつつ攻撃箇所を選択するという戦略的なゲームを楽しむ。   As described above, in this embodiment, when the opponent player does not defend the core part, if the player successfully attacks the core part, a chain attack state is set, and the player can continuously attack. . Then, it is possible to know which part is the core part of the opponent character CO2 from the attacking part selected when the chain attack state is entered. Here, in the chain attack state, let the player choose the alternative of attacking the core part or attacking other parts, but if the core part is destroyed, the game will be over, It is considered that the opponent player often defends the core parts. However, if the attack hits a part other than the core part, all parts other than the core part will be damaged. Therefore, the attacking player predicts what defense operation the defending opponent's player will perform in consideration of the remaining physical strength value indicated in the physical strength gauge of each part of the opponent character CO2 and attack points. Select. Thus, in the present embodiment, a strategic game in which an attack location is selected while predicting the psychology of the opponent is enjoyed.

6.3 防御処理
次に、本実施形態の防御処理の詳細について説明する。本実施形態では、対戦相手のプレーヤの移行メータCMがMAXとなって、対戦相手側が防御状態から攻撃状態に移行すると、メイン処理を中断し、防御処理を実行する。図25は、本実施形態の防御処理の一例を示したフローチャートである。本実施形態の防御処理では、まず攻撃状態にある対戦相手のプレーヤから適正操作が行われなかった場合には(ステップS174のN)、攻撃失敗モーションを行う画像を表示させ(ステップS176)、メイン処理に戻る。一方、適正操作が行われた場合には(ステップS174のY)、対戦相手キャラクタCO2が所定の攻撃モーションを行う画像を表示させる(ステップS178)。
6.3 Defense Process Next, details of the defense process of the present embodiment will be described. In this embodiment, when the transition meter CM of the opponent player becomes MAX and the opponent side shifts from the defense state to the attack state, the main process is interrupted and the defense process is executed. FIG. 25 is a flowchart illustrating an example of defense processing according to the present embodiment. In the defense process of the present embodiment, first, when an appropriate operation is not performed from an opponent player in an attack state (N in step S174), an image for performing an attack failure motion is displayed (step S176), and the main process is performed. Return to processing. On the other hand, if an appropriate operation is performed (Y in step S174), an image in which the opponent character CO2 performs a predetermined attack motion is displayed (step S178).

そして、対戦相手の攻撃操作による攻撃箇所がプレーヤの防御箇所であった場合、即ち攻撃がヒットしなかった場合には(ステップS180のN)、攻撃失敗モーションを行う画像を表示させ(ステップS181)、プレーヤが選択していた防御箇所(図22のステップS108)が一箇所であるか否かを判断する(ステップS182)。ここで防御箇所が1箇所であった場合には(ステップS182のY)、1箇所のみの防御で防御に成功した報酬として、防御状態にあるプレーヤを攻撃状態に移行させて攻撃処理を実行する。即ち防御状態にあったプレーヤにカウンター攻撃を行わせる。一方、防御箇所が1箇所でなかった場合には、メイン処理に戻る。   If the attack location by the opponent's attack operation is the player's defense location, that is, if the attack did not hit (N in step S180), an image for performing the attack failure motion is displayed (step S181). Then, it is determined whether or not the defense location (step S108 in FIG. 22) selected by the player is one location (step S182). If there is only one defense point (Y in step S182), the player in the defense state is shifted to the attack state and the attack process is executed as a reward for succeeding in the defense with only one defense. . That is, the counter attack is made to the player who is in the defense state. On the other hand, if the number of defense points is not one, the process returns to the main process.

対して、対戦相手の攻撃操作による攻撃箇所がプレーヤの防御箇所でなかった場合、即ち攻撃がヒットした場合には(ステップS180のY)、ヒットした攻撃箇所がプレーヤキャラクタCO1のコアパーツか否か判断する(ステップS184)。ここでコアパーツでなかった場合には(ステップS184のN)、ヒットした攻撃箇所に対応するプレーヤキャラクタCO1のパーツの体力値を減算する(ステップS186)とともに、対応する体力ゲージの表示制御を行う。そして2のパーツの体力値が0となっていない場合には(ステップS188のN)、そのままメイン処理に戻る。一方、2のパーツの体力値が0となった場合には(ステップS188のY)、プレーヤキャラクタCO1が倒される敗北画像を表示させて(ステップS190)、ゲーム終了処理を行う。   On the other hand, if the attack location by the opponent's attack operation is not the player's defense location, that is, if the attack is hit (Y in step S180), whether or not the hit attack location is a core part of the player character CO1. Judgment is made (step S184). If it is not a core part (N in step S184), the physical strength value of the part of the player character CO1 corresponding to the hit attack location is subtracted (step S186), and display control of the corresponding physical strength gauge is performed. . If the strength value of the part 2 is not 0 (N in step S188), the process returns to the main process. On the other hand, when the physical strength value of the second part becomes 0 (Y in step S188), a defeat image in which the player character CO1 is defeated is displayed (step S190), and the game end process is performed.

一方、コアパーツであった場合には(ステップS184のY)、プレーヤキャラクタCO1のコアパーツの体力値を減算する(ステップS192)とともに、対応する体力ゲージの表示制御を行う。そしてコアパーツの体力値が0となった場合には(ステップS194のY)、プレーヤキャラクタCO1が倒される敗北画像を表示させて(ステップS190)、ゲーム終了処理を行う。ここでコアパーツの体力値が0となっていない場合には(ステップS194のN)、コアパーツにヒットさせた報酬として対戦相手に与えられる連鎖攻撃に対する防御箇所の選択操作入力をプレーヤから受付ける(ステップS195)。ここで本実施形態では、連鎖攻撃に対する防御の場合には、通常防御時のように1つ又は2つのパーツを指定して防御箇所を選択させるのではなく、プレーヤキャラクタCO1のコアパーツを防御するか、その他のパーツを防御するかの二者択一の選択を行わせる。   On the other hand, if it is a core part (Y in step S184), the physical strength value of the core part of the player character CO1 is subtracted (step S192) and display control of the corresponding physical strength gauge is performed. When the physical strength value of the core part becomes 0 (Y in step S194), a defeat image in which the player character CO1 is defeated is displayed (step S190), and the game end process is performed. Here, when the physical strength value of the core part is not 0 (N in step S194), a selection operation input for selecting a defense point against a chain attack given to the opponent as a reward for hitting the core part is received from the player ( Step S195). Here, in the present embodiment, in the case of defense against a chain attack, the core part of the player character CO1 is defended instead of designating one or two parts and selecting a defense location as in normal defense. Or choose to protect other parts.

そして対戦相手のプレーヤから適正操作が行われなかった場合には(ステップS196のN)、攻撃失敗モーションを行う画像を表示させ(ステップS197)、メイン処理に戻る。一方、適正操作が行われた場合には(ステップS196のY)、対戦相手キャラクタCO2が所定の攻撃モーションを行う画像を表示させる(ステップS198)。ここで、連鎖攻撃がヒットしなかった場合には(ステップS199のN)、攻撃失敗モーションを行う画像を表示させ(ステップS200)、防御に成功した報酬として、防御状態にあるプレーヤを攻撃状態に移行させてカウンターの攻撃処理を実行する。一方、連鎖攻撃がヒットした場合には(ステップS199のY)、ヒットした攻撃箇所がプレーヤキャラクタCO1のコアパーツか否か判断する(ステップS201)。ここでコアパーツでなかった場合には(ステップS201のN)、プレーヤキャラクタCO1のコアパーツ以外の3つのパーツの体力値を減算する(ステップS202)とともに、対応する体力ゲージの表示制御を行う。そして2のパーツの体力値が0となっていない場合には(ステップS204のN)、そのままメイン処理に戻り、2のパーツの体力値が0となった場合には(ステップS204のY)、プレーヤキャラクタCO1が倒される敗北画像を表示させて(ステップS206)、ゲーム終了処理を行う。   If an appropriate operation is not performed from the opponent player (N in step S196), an image for performing the attack failure motion is displayed (step S197), and the process returns to the main process. On the other hand, when an appropriate operation is performed (Y in step S196), an image in which the opponent character CO2 performs a predetermined attack motion is displayed (step S198). Here, when the chain attack is not hit (N in Step S199), an image for performing the attack failure motion is displayed (Step S200), and the player in the defense state is set to the attack state as a reward for successful defense. The counter attack process is executed after migrating. On the other hand, if the chain attack is hit (Y in step S199), it is determined whether or not the hit attack location is a core part of the player character CO1 (step S201). If it is not a core part (N in step S201), the physical strength values of three parts other than the core part of the player character CO1 are subtracted (step S202), and display control of the corresponding physical strength gauge is performed. If the physical strength value of the second part is not 0 (N in step S204), the process returns to the main process as it is, and if the physical strength value of the second part is 0 (Y in step S204), A defeat image in which the player character CO1 is defeated is displayed (step S206), and a game end process is performed.

一方、コアパーツであった場合には(ステップS200のY)、プレーヤキャラクタCO1のコアパーツの体力値を減算する(ステップS208)とともに、対応する体力ゲージの表示制御を行う。そして、コアパーツの体力値が0となった場合には(ステップS210のY)、プレーヤキャラクタCO1が倒される敗北画像を表示させて(ステップS206)、ゲーム終了処理を行う。また、コアパーツの体力値が0となっていない場合には(ステップS210のN)、ステップS195に戻り連鎖攻撃に対する防御箇所の選択操作入力をプレーヤから受付け(ステップS195)、ステップS210までの処理を繰り返す。   On the other hand, if it is a core part (Y in step S200), the physical strength value of the core part of the player character CO1 is subtracted (step S208), and display control of the corresponding physical strength gauge is performed. If the physical strength value of the core part becomes 0 (Y in step S210), a defeat image in which the player character CO1 is defeated is displayed (step S206), and the game end process is performed. If the physical strength value of the core part is not 0 (N in step S210), the process returns to step S195 to accept an operation input for selecting a defense point against a chain attack from the player (step S195), and the processing up to step S210 is performed. repeat.

このように本実施形態では、コアパーツが破壊されるとゲームオーバーになってしまうので、防御状態においてプレーヤはコアパーツを防御することが多いと考えられる。しかしコアパーツばかりを防御していると、対戦相手にコアパーツがいずれのパーツであるかを悟られてしまい、また、他のパーツの体力値が減少してしまうので、プレーヤは対戦相手が選択した攻撃箇所を考慮してバランスよく防御箇所を選択しなければならない。また、プレーヤキャラクタCO1のパーツのうち1のパーツの体力値が0に近い場合には、体力ゲージを見た対戦相手のプレーヤが当該パーツを攻撃箇所として選択することが考えられる。これに対してプレーヤは、防御箇所として選択するパーツを1のパーツのみとすることにより、当該防御が成功するとカウンター攻撃を行うことができる。こうして本実施形態では、対戦相手の心理を予測しつつ防御箇所を選択するという戦略的なゲームを楽しむ。   As described above, in this embodiment, if the core part is destroyed, the game is over, so it is considered that the player often defends the core part in the defense state. However, if only the core parts are defended, the opponent will know which part the core part is, and the health value of the other parts will decrease, so the player will select the opponent The defense location must be selected in a balanced manner considering the attack location. Further, when the physical strength value of one part of the player character CO1 is close to 0, it is conceivable that the opponent player watching the physical strength gauge selects the part as an attack location. On the other hand, the player can perform a counter-attack when the defense is successful by selecting only one part as a part to be selected as the defense part. Thus, in the present embodiment, a strategic game in which a defense point is selected while predicting the psychology of the opponent is enjoyed.

6.4 パラメータの設定
次に、本実施形態の対戦ゲームでプレーヤキャラクタCO1に設定される種々のパラメータについて説明する。上述の通り本実施形態では、プレーヤがカードリーダ18に挿入したメモリカードから読出した基礎パラメータを、プレーヤキャラクタCO1に設定する。本実施形態では基礎パラメータは、ゲーム回数や、ゲーム成績等により変化する経験値等のパラメータであって、対戦ゲーム終了時に更新されてメモリカードに記憶される。本実施形態では、プレーヤがゲーム回数を重ねるにつれプレーヤが有利になるように、対戦ゲームに勝利した場合には特に有利になるように、基礎パラメータを更新する。具体的には本実施形態では、プレーヤキャラクタCO1に設定されるキャラクタパラメータやパーツパラメータを、基礎パラメータに応じて変化させる。
6.4 Parameter Setting Next, various parameters set for the player character CO1 in the competitive game of the present embodiment will be described. As described above, in the present embodiment, the basic parameter read from the memory card inserted by the player into the card reader 18 is set in the player character CO1. In the present embodiment, the basic parameters are parameters such as experience values that change depending on the number of games, game results, and the like, and are updated at the end of the battle game and stored in the memory card. In the present embodiment, the basic parameters are updated so that the player becomes more advantageous when winning the battle game so that the player becomes more advantageous as the number of games increases. Specifically, in this embodiment, the character parameter and the part parameter set for the player character CO1 are changed according to the basic parameter.

そして本実施形態では、生成されたプレーヤキャラクタCO1の全体及びパーツごとの形状情報、並びに選択されたモデル情報の少なくとも一方に基づいて、プレーヤキャラクタCO1のキャラクタパラメータ、パーツパラメータを設定する。本実施形態ではこのキャラクタパラメータは、例えば防御状態から攻撃状態に移行する時間(カウント値)を変化させる素早さパラメータ、攻撃状態で表示されるターゲットマーカ表示TIの大きさやロックオンサイト表示RIの移動速度を変化させて攻撃成功の確率や難易度を変化させる攻撃精度パラメータとすることができる。またパーツパラメータは、パーツごとの体力値の最大値を変化させる体力パラメータとすることができる。   In this embodiment, the character parameter and part parameter of the player character CO1 are set based on at least one of the generated player character CO1 and the shape information for each part and the selected model information. In this embodiment, the character parameter is, for example, a quickness parameter for changing the time (count value) for shifting from the defense state to the attack state, the size of the target marker display TI displayed in the attack state, or the movement of the lock onsite display RI. It is possible to use an attack accuracy parameter that changes the probability and difficulty of an attack success by changing the speed. The part parameter can be a physical strength parameter that changes the maximum physical strength value for each part.

具体的には本実施形態では、生成されたプレーヤキャラクタCO1全体の体積が小さいと、素早さパラメータを相対的に高く設定し、防御状態から攻撃状態に移行する時間を短くさせたり、対戦相手キャラクタCO2の攻撃を回避する確率を高めるようにする。一方、生成されたプレーヤキャラクタCO1全体の体積が大きいと、攻撃力パラメータを相対的に高く設定し、一回の攻撃により対戦相手キャラクタCO2に与えるダメージが大きくなるようにする。また図17(A)に示すスケルトンモデルSM1(基礎モデルBM1)が選択された場合には、攻撃力パラメータを相対的に高く設定し、また図17(C)に示すスケルトンモデルSM3(基礎モデルBM3)が選択された場合には、素早さパラメータを相対的に高く設定するようにしてもよい。またパーツの体積が大きいと、そのパーツの体力パラメータを相対的に高く設定するようにする。   Specifically, in the present embodiment, if the volume of the generated player character CO1 is small, the quickness parameter is set to be relatively high, the time required for transition from the defense state to the attack state is shortened, or the opponent character Increase the probability of avoiding CO2 attacks. On the other hand, when the volume of the generated player character CO1 is large, the attack power parameter is set to be relatively high so that damage to the opponent character CO2 by one attack is increased. When the skeleton model SM1 (basic model BM1) shown in FIG. 17A is selected, the attack power parameter is set relatively high, and the skeleton model SM3 (basic model BM3) shown in FIG. ) Is selected, the quickness parameter may be set relatively high. When the volume of the part is large, the physical strength parameter of the part is set relatively high.

こうして本実施形態によれば、キャラクタオブジェクトの外観、モーション、パラメータが、相互に関連するキャラクタオブジェクトを生成することができる。従って本実施形態によれば、処理対象とする立体物の外観、又は立体物の外観と各パーツとの対応関係に応じて、キャラクタオブジェクトのパラメータがいかなるものになるかという、これまでの画像生成システムにない興味を喚起することができる。   Thus, according to the present embodiment, it is possible to generate a character object in which the appearance, motion, and parameters of the character object are related to each other. Therefore, according to the present embodiment, image generation up to now is performed to determine what the parameters of the character object will be in accordance with the appearance of the three-dimensional object to be processed or the correspondence between the appearance of the three-dimensional object and each part. Arouses interest that is not in the system.

7.変形例
以上は、複数の立体物の表面情報に基づいて生成したパーツごとの形状情報と、スケルトンモデル情報SMとを、基礎モデルBMを介して対応付ける例を挙げて説明したが、本実施形態では種々の変形実施が可能である。例えば形状情報生成部が、複数の立体物の表面情報に基づいてパーツごとの形状情報を生成し、所定のプログラムに基づいて、各形状情報に応じて又はランダムに各形状情報をいずれのパーツの形状情報とするか設定するようにしてもよい。
7). Modifications The above has described an example in which the shape information for each part generated based on the surface information of a plurality of three-dimensional objects and the skeleton model information SM are associated with each other via the basic model BM. Various modifications are possible. For example, the shape information generation unit generates shape information for each part based on surface information of a plurality of three-dimensional objects, and based on a predetermined program, each shape information is randomly assigned to each part according to each shape information. You may make it set as shape information.

また形状情報生成部が、1の立体物の表面情報に基づいて形状情報を生成し、モデル処理部が、所定のプログラムに基づいて、形状情報に応じて又はランダムに形状情報とスケルトンモデル情報とを対応付けるようにしてもよい。ここで予め用意されたスケルトンモデル情報を用いる場合には、スケルトンモデル情報を構成する骨と関節とが、形状情報により規定されるキャラクタオブジェクトの内側となるように、形状情報又はスケルトンモデル情報を変形、拡大縮小して形状情報とスケルトンモデル情報とを対応付ける。そして形状情報の各頂点と、スケルトンモデル情報を構成するボーンとの距離を求め、最も近いボーンに各頂点が追従するように、各頂点のウェイト値を設定する。ここで関節付近の頂点については、各頂点が滑らかに移動するように各頂点のウェイト値を変化させながら設定する。   In addition, the shape information generation unit generates shape information based on the surface information of one solid object, and the model processing unit generates shape information and skeleton model information according to the shape information or randomly based on a predetermined program. May be associated with each other. When using the skeleton model information prepared in advance, the shape information or the skeleton model information is transformed so that the bones and joints constituting the skeleton model information are inside the character object defined by the shape information. The shape information is associated with the skeleton model information by scaling. Then, the distance between each vertex of the shape information and the bone constituting the skeleton model information is obtained, and the weight value of each vertex is set so that each vertex follows the nearest bone. Here, the vertices near the joint are set while changing the weight value of each vertex so that each vertex moves smoothly.

また、予め用意されたスケルトンモデル情報にモーションデータが対応付けられている場合には、モデル処理部が、各頂点と対応するボーンとの距離に基づいて、モーションデータを補正するようにしてもよい。具体的にはモデル処理部は、関節付近の頂点と対応するボーンとの距離が大きい場合には、当該関節で接続される親の骨に対する子の骨の可動範囲を小さくするように補正する。即ち関節付近の部分の形状が、当該部分が移動する方向に厚い或いは太い形状となっている場合には、可動範囲が小さく補正されて設定される。   When motion data is associated with skeleton model information prepared in advance, the model processing unit may correct the motion data based on the distance between each vertex and the corresponding bone. . Specifically, when the distance between the vertex near the joint and the corresponding bone is large, the model processing unit corrects the moving range of the child bone relative to the parent bone connected by the joint to be small. That is, when the shape of the portion near the joint is thick or thick in the direction in which the portion moves, the movable range is corrected and set to be small.

また、モデル処理部が、形状情報に基づいてスケルトンモデル情報を補正し、形状情報と補正したスケルトンモデル情報とを対応付けるようにしてもよい。例えば生成したキャラクタオブジェクトの形状情報のうち、突出している部分に端点を設定し、当該端点がスケルトンモデルの最下層の骨の終点となるように、各関節の位置、各骨の長さを補正するようにしてもよい。   The model processing unit may correct the skeleton model information based on the shape information, and associate the shape information with the corrected skeleton model information. For example, in the shape information of the generated character object, set the end point to the protruding part, and correct the position of each joint and the length of each bone so that the end point becomes the end point of the lowest layer bone of the skeleton model You may make it do.

8.ハードウェア構成
図20に本実施形態を実現できるハードウェア構成の例を示す。メインプロセッサ900は、DVD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
8). Hardware Configuration FIG. 20 shows an example of a hardware configuration capable of realizing this embodiment. The main processor 900 operates based on a program stored in the DVD 982 (information storage medium), a program downloaded via the communication interface 990, a program stored in the ROM 950, and the like, and includes game processing, image processing, sound processing, and the like. Execute. The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is required for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.

ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。   The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and executes matrix calculation at high speed. The data decompression processor 906 performs decoding processing of compressed image data and sound data, and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、ミップマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。   The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture. The drawing processor 910 also performs α blending (translucent processing), depth cueing, mip mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.

ROM950にはシステムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。DVDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるDVD982にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950. The RAM 960 is a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The DVD drive 980 accesses a DVD 982 in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).

なお本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   The processing of each unit (each unit) in this embodiment may be realized entirely by hardware, or may be realized by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be realized by both hardware and a program.

そして本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。   When the processing of each part of this embodiment is realized by both hardware and a program, a program for causing the hardware (computer) to function as each part of this embodiment is stored in the information storage medium. More specifically, the program instructs the processors 902, 904, 906, 910, and 930, which are hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930 realizes the processing of each unit of the present invention based on the instruction and the passed data.

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。   The present invention is not limited to the one described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced by broad or synonymous terms in other descriptions in the specification or drawings.

また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末に適用できる。   The present invention can be applied to various games. The present invention can also be applied to an arcade game system, a home game system, a large attraction system in which a large number of players participate, a simulator, and a multimedia terminal.

図1(A)は、本実施形態のシステムの概略外観の一例を示す図。図1(B)は、本実施形態のシステムの一部の概略外観の一例を示す図。FIG. 1A is a diagram illustrating an example of a schematic appearance of a system according to the present embodiment. FIG. 1B is a diagram illustrating an example of a schematic external appearance of a part of the system according to the present embodiment. 本実施形態で取得される画像の一例を示す図。The figure which shows an example of the image acquired by this embodiment. 本実施形態の機能ブロックの一例を示す図。The figure which shows an example of the functional block of this embodiment. 本実施形態の形状情報を生成する処理の一例を説明するための図。The figure for demonstrating an example of the process which produces | generates the shape information of this embodiment. 本実施の形態の処理の流れの一例を示すフローチャート図。The flowchart figure which shows an example of the flow of a process of this Embodiment. 本実施形態の形状情報を生成する処理の一例を説明するための図。The figure for demonstrating an example of the process which produces | generates the shape information of this embodiment. 本実施形態の形状情報を生成する処理の一例を説明するための図。The figure for demonstrating an example of the process which produces | generates the shape information of this embodiment. 本実施形態の形状情報を生成する処理の一例を説明するための図。The figure for demonstrating an example of the process which produces | generates the shape information of this embodiment. 本実施の形態の処理の流れの一例を示すフローチャート図。The flowchart figure which shows an example of the flow of a process of this Embodiment. 本実施形態の形状情報を生成する処理の一例を説明するための図。The figure for demonstrating an example of the process which produces | generates the shape information of this embodiment. 本実施の形態の処理の流れの一例を示すフローチャート図。The flowchart figure which shows an example of the flow of a process of this Embodiment. 本実施形態のテクスチャを生成する処理の一例を説明するための図。The figure for demonstrating an example of the process which produces | generates the texture of this embodiment. 本実施形態のテクスチャを生成する処理の一例を説明するための図。The figure for demonstrating an example of the process which produces | generates the texture of this embodiment. 本実施形態のテクスチャを生成する処理の一例を説明するための図。The figure for demonstrating an example of the process which produces | generates the texture of this embodiment. 本実施形態のテクスチャを生成する処理の一例を説明するための図。The figure for demonstrating an example of the process which produces | generates the texture of this embodiment. モーションシステムの一例を説明するための図。The figure for demonstrating an example of a motion system. 本実施形態のモデル処理の一例を説明するための図。The figure for demonstrating an example of the model process of this embodiment. 本実施形態のモデル処理の一例を説明するための図。The figure for demonstrating an example of the model process of this embodiment. 本実施形態のモデル処理の一例を説明するための図。The figure for demonstrating an example of the model process of this embodiment. 本実施形態を実現できるハードウェアの構成の一例を示す図。The figure which shows an example of the structure of the hardware which can implement | achieve this embodiment. 本実施形態で表示されるゲーム画面の一例を示す図。The figure which shows an example of the game screen displayed by this embodiment. 本実施の形態のゲーム処理の流れの一例を示すフローチャート図。The flowchart figure which shows an example of the flow of the game process of this Embodiment. 本実施形態で表示されるゲーム画面の一例を示す図。The figure which shows an example of the game screen displayed by this embodiment. 本実施の形態のゲーム処理の流れの一例を示すフローチャート図。The flowchart figure which shows an example of the flow of the game process of this Embodiment. 本実施の形態のゲーム処理の流れの一例を示すフローチャート図。The flowchart figure which shows an example of the flow of the game process of this Embodiment.

符号の説明Explanation of symbols

CH1 プレーヤキャラクタ、CH2 対戦相手キャラクタ、PI 撮像情報、
CA キャラクタ領域画像、CV キャラクタ領域ボリューム、CP キャラクタ点群、
PM ポリゴンメッシュ情報、TM 三角形メッシュ、SD 面情報、SS 面集合、
TS テクスチャ空間、TG テクスチャ画像、CO キャラクタオブジェクト、
B 骨、J 関節、SM スケルトンモデル、BM 基礎モデル、
OS オブジェクト空間、MP マップオブジェクト、CM 移行メータ、
IH 頭パーツの識別表示、IA 腕パーツの識別表示、IB 胴パーツの識別表示、
IL 足パーツの識別表示、GH1・GA1・GB1・GL1 体力ゲージ、
TI ターゲットマーカ表示、RI ロックオンサイト表示、
70 処理部、86 撮像制御部、88 表面情報取得部、90 形状情報生成部、
92 評価値演算部、94 結合処理部、96 面情報処理部、
98 テクスチャ処理部、100 モデル処理部、102 比較部、104 補正部、
106 パラメータ設定部、108 ゲーム演算部、110 オブジェクト空間設定部、
112 移動・動作処理部、114 仮想カメラ制御部、120 描画部、
150 撮像部、160 操作部、170 記憶部、190 表示部
CH1 player character, CH2 opponent character, PI imaging information,
CA character area image, CV character area volume, CP character point group,
PM polygon mesh information, TM triangle mesh, SD surface information, SS surface set,
TS texture space, TG texture image, CO character object,
B bone, J joint, SM skeleton model, BM basic model,
OS object space, MP map object, CM migration meter,
IH head part identification display, IA arm part identification display, IB trunk part identification display,
IL foot parts identification display, GH1, GA1, GB1, GL1 strength gauge,
TI target marker display, RI lock on-site display,
70 processing unit, 86 imaging control unit, 88 surface information acquisition unit, 90 shape information generation unit,
92 evaluation value calculation unit, 94 combination processing unit, 96 plane information processing unit,
98 texture processing unit, 100 model processing unit, 102 comparison unit, 104 correction unit,
106 parameter setting unit, 108 game calculation unit, 110 object space setting unit,
112 movement / motion processing unit, 114 virtual camera control unit, 120 drawing unit,
150 imaging unit, 160 operation unit, 170 storage unit, 190 display unit

Claims (12)

オブジェクト空間でモーション制御されるキャラクタオブジェクトを生成するためのプログラムであって、
立体物の表面情報を取得する表面情報取得部と、
前記表面情報に基づいてキャラクタオブジェクトの形状情報を生成する形状情報生成部と、
前記キャラクタオブジェクトをモーションさせるための、複数のボーンが関節で連結されたモデル情報を記憶する記憶部と、
前記形状情報と前記モデル情報とを対応付ける処理を行うモデル処理部としてコンピュータを機能させることを特徴とするプログラム。
A program for generating a character object whose motion is controlled in an object space,
A surface information acquisition unit that acquires surface information of a three-dimensional object;
A shape information generating unit that generates shape information of the character object based on the surface information;
A storage unit for storing model information in which a plurality of bones are connected by joints for moving the character object;
A program that causes a computer to function as a model processing unit that performs processing for associating the shape information with the model information.
請求項1において、
前記記憶部が、
複数のモデル情報を記憶し、
前記モデル処理部が、
前記形状情報に基づいてモデル情報を選択し、選択したモデル情報と前記形状情報とを対応付ける処理を行うことを特徴とするプログラム。
In claim 1,
The storage unit
Memorize multiple model information,
The model processing unit is
A program that selects model information based on the shape information and associates the selected model information with the shape information.
請求項2において、
前記形状情報と所定のバウンディングボリュームとを比較する比較部としてコンピュータを更に機能させ、
前記モデル処理部が、
前記比較結果に基づいて前記モデル情報を選択することを特徴とするプログラム。
In claim 2,
Further causing the computer to function as a comparison unit that compares the shape information with a predetermined bounding volume,
The model processing unit
A program that selects the model information based on the comparison result.
請求項1において、
前記表面情報取得部が、
複数の立体物の表面情報を取得し、
前記形状情報生成部が、
前記各立体物の表面情報に基づいて、キャラクタオブジェクトのパーツごとの形状情報を生成し、
前記モデル処理部が、
前記各パーツの形状情報と前記モデル情報とを対応付ける処理を行うことを特徴とするプログラム。
In claim 1,
The surface information acquisition unit
Obtain surface information of multiple 3D objects,
The shape information generator
Based on the surface information of each three-dimensional object, generate shape information for each part of the character object,
The model processing unit is
A program for performing a process of associating the shape information of each part with the model information.
請求項4において、
前記記憶部が、
複数のモデル情報を記憶し、
前記モデル処理部が、
前記各パーツの形状情報に基づいてモデル情報を選択し、選択したモデル情報と前記各パーツの形状情報とを対応付ける処理を行うことを特徴とするプログラム。
In claim 4,
The storage unit
Memorize multiple model information,
The model processing unit
A program that selects model information based on the shape information of each part and performs a process of associating the selected model information with the shape information of each part.
請求項5において、
前記各パーツの形状情報のうち少なくとも1のパーツの形状情報と、所定のバウンディングボリュームとを比較する比較部としてコンピュータを更に機能させ、
前記モデル処理部が、
前記比較結果に基づいて前記モデル情報を選択することを特徴とするプログラム。
In claim 5,
The computer further functions as a comparison unit that compares the shape information of at least one part of the shape information of each part with a predetermined bounding volume,
The model processing unit is
A program that selects the model information based on the comparison result.
請求項1〜6のいずれかにおいて、
所定のバウンディングボリュームに基づいて、前記形状情報を補正する補正部としてコンピュータを更に機能させ、
前記モデル処理部が、
前記補正後の形状情報と前記モデル情報とを対応付ける処理を行うことを特徴とするプログラム。
In any one of Claims 1-6,
Based on a predetermined bounding volume, further causing the computer to function as a correction unit that corrects the shape information,
The model processing unit
A program for performing a process of associating the corrected shape information with the model information.
請求項1〜7のいずれかにおいて、
前記形状情報及び前記モデル情報の少なくとも一方に基づいて、前記キャラクタオブジェクトのキャラクタパラメータを設定するパラメータ設定部としてコンピュータを更に機能させることを特徴とするプログラム。
In any one of Claims 1-7,
A program that further causes a computer to function as a parameter setting unit that sets a character parameter of the character object based on at least one of the shape information and the model information.
請求項5において、
前記形状情報及び前記モデル情報の少なくとも一方に基づいて、前記キャラクタオブジェクトのパーツごとにパーツパラメータを設定するパラメータ設定部としてコンピュータを更に機能させることを特徴とするプログラム。
In claim 5,
A program that further causes a computer to function as a parameter setting unit that sets a part parameter for each part of the character object based on at least one of the shape information and the model information.
請求項1〜9のいずれかにおいて、
オブジェクト空間に前記キャラクタオブジェクトを含むオブジェクトを設定するオブジェクト空間設定部と、
前記形状情報及び前記モデル情報の少なくとも一方に基づいて、前記キャラクタオブジェクトのパラメータを設定するパラメータ設定部と、
前記キャラクタオブジェクトのモーションを制御するモーション制御部と、
仮想カメラの位置及び向きの少なくとも一方の制御を行う仮想カメラ制御部と、
オブジェクト空間を仮想カメラから見た画像を生成する描画部と、
前記パラメータに基づき、ゲーム演算を行うゲーム演算部としてコンピュータを更に機能させることを特徴とするプログラム。
In any one of Claims 1-9,
An object space setting unit for setting an object including the character object in the object space;
A parameter setting unit for setting parameters of the character object based on at least one of the shape information and the model information;
A motion control unit for controlling the motion of the character object;
A virtual camera control unit that controls at least one of the position and orientation of the virtual camera;
A drawing unit for generating an image of the object space viewed from a virtual camera;
A program that further causes a computer to function as a game calculation unit that performs a game calculation based on the parameters.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1〜10のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 10 is stored. オブジェクト空間でモーション制御されるキャラクタオブジェクトを生成するための画像生成システムであって、
立体物の表面情報を取得する表面情報取得部と、
前記表面情報に基づいてキャラクタオブジェクトの形状情報を生成する形状情報生成部と、
前記キャラクタオブジェクトをモーションさせるための、複数のボーンが関節で連結されたモデル情報を記憶する記憶部と、
前記形状情報と前記モデル情報とを対応付ける処理を行うモデル処理部と、
を含むことを特徴とする画像生成システム。
An image generation system for generating a character object motion-controlled in an object space,
A surface information acquisition unit that acquires surface information of a three-dimensional object;
A shape information generating unit that generates shape information of the character object based on the surface information;
A storage unit for storing model information in which a plurality of bones are connected by joints for moving the character object;
A model processing unit that performs processing for associating the shape information with the model information;
An image generation system comprising:
JP2006204703A 2006-07-27 2006-07-27 Program, information storage medium and image generation system Withdrawn JP2008033521A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006204703A JP2008033521A (en) 2006-07-27 2006-07-27 Program, information storage medium and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006204703A JP2008033521A (en) 2006-07-27 2006-07-27 Program, information storage medium and image generation system

Publications (1)

Publication Number Publication Date
JP2008033521A true JP2008033521A (en) 2008-02-14

Family

ID=39122892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006204703A Withdrawn JP2008033521A (en) 2006-07-27 2006-07-27 Program, information storage medium and image generation system

Country Status (1)

Country Link
JP (1) JP2008033521A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009149076A1 (en) * 2008-06-02 2009-12-10 Nike International, Ltd. System and method for creating an avatar
WO2010001756A1 (en) * 2008-06-30 2010-01-07 株式会社ソニー・コンピュータエンタテインメント Portable type game device and method for controlling portable type game device
JP2010092378A (en) * 2008-10-10 2010-04-22 Sega Corp Image processing program and image processing apparatus
JP2010108328A (en) * 2008-10-31 2010-05-13 National Institute Of Information & Communication Technology Method and device for registering 3d-range data
JP2010233671A (en) * 2009-03-30 2010-10-21 Namco Bandai Games Inc Program, information storage medium and game device
JP2010246845A (en) * 2009-04-20 2010-11-04 Taito Corp Game machine and game programs
JP5468155B1 (en) * 2013-03-28 2014-04-09 株式会社 ディー・エヌ・エー GAME PROVIDING DEVICE, GAME PROVIDING METHOD, AND GAME PROVIDING PROGRAM
KR20140043378A (en) * 2011-06-06 2014-04-09 마이크로소프트 코포레이션 Controlling objects in a virtual environment
CN110134909A (en) * 2019-05-23 2019-08-16 武汉轻工大学 Surface Rendering approach, equipment, storage medium and device
JP2019154911A (en) * 2018-03-15 2019-09-19 株式会社コナミデジタルエンタテインメント Game system, game control device, and program
JP2020103682A (en) * 2018-12-28 2020-07-09 株式会社カプコン Computer program, terminal device, and game system
WO2021200957A1 (en) * 2020-03-30 2021-10-07 株式会社バンダイナムコエンターテインメント Computer system, virtual model generation control method, and program
US11571623B2 (en) 2008-06-02 2023-02-07 Nike, Inc. System and method for creating an avatar
WO2024075512A1 (en) * 2022-10-03 2024-04-11 株式会社Nttドコモ Avatar image generation device

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10569177B2 (en) 2008-06-02 2020-02-25 Nike, Inc. System and method for creating an avatar
US11235246B2 (en) 2008-06-02 2022-02-01 Nike, Inc. System and method for creating an avatar
US11896906B2 (en) 2008-06-02 2024-02-13 Nike, Inc. System and method for creating an avatar
WO2009149076A1 (en) * 2008-06-02 2009-12-10 Nike International, Ltd. System and method for creating an avatar
US10022631B2 (en) 2008-06-02 2018-07-17 Nike, Inc. System and method for creating an avatar
US10905959B2 (en) 2008-06-02 2021-02-02 Nike, Inc. System and method for creating an avatar
US11571623B2 (en) 2008-06-02 2023-02-07 Nike, Inc. System and method for creating an avatar
JP2011525648A (en) * 2008-06-02 2011-09-22 ナイキ インターナショナル リミテッド System and method for creating an avatar
WO2010001756A1 (en) * 2008-06-30 2010-01-07 株式会社ソニー・コンピュータエンタテインメント Portable type game device and method for controlling portable type game device
JP5174908B2 (en) * 2008-06-30 2013-04-03 株式会社ソニー・コンピュータエンタテインメント Portable game device and method for controlling portable game device
US9662583B2 (en) 2008-06-30 2017-05-30 Sony Corporation Portable type game device and method for controlling portable type game device
JP2010092378A (en) * 2008-10-10 2010-04-22 Sega Corp Image processing program and image processing apparatus
JP2010108328A (en) * 2008-10-31 2010-05-13 National Institute Of Information & Communication Technology Method and device for registering 3d-range data
JP2010233671A (en) * 2009-03-30 2010-10-21 Namco Bandai Games Inc Program, information storage medium and game device
JP2010246845A (en) * 2009-04-20 2010-11-04 Taito Corp Game machine and game programs
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
JP2014517413A (en) * 2011-06-06 2014-07-17 マイクロソフト コーポレーション Controlling objects in a virtual environment
KR102060206B1 (en) * 2011-06-06 2019-12-27 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Controlling objects in a virtual environment
KR20140043378A (en) * 2011-06-06 2014-04-09 마이크로소프트 코포레이션 Controlling objects in a virtual environment
JP2014188331A (en) * 2013-03-28 2014-10-06 Dna:Kk Game providing device, game providing method, and game providing program
JP5468155B1 (en) * 2013-03-28 2014-04-09 株式会社 ディー・エヌ・エー GAME PROVIDING DEVICE, GAME PROVIDING METHOD, AND GAME PROVIDING PROGRAM
JP2019154911A (en) * 2018-03-15 2019-09-19 株式会社コナミデジタルエンタテインメント Game system, game control device, and program
CN111683722A (en) * 2018-03-15 2020-09-18 科乐美数码娱乐株式会社 Game system, game control device, and program
KR20200106954A (en) * 2018-03-15 2020-09-15 가부시키가이샤 코나미 데지타루 엔타테인멘토 Game system, game control device and program
TWI772624B (en) * 2018-03-15 2022-08-01 日商科樂美數碼娛樂股份有限公司 Game system, game control apparatus, computer program product, and game control method
KR102430682B1 (en) * 2018-03-15 2022-08-09 가부시키가이샤 코나미 데지타루 엔타테인멘토 Game systems, game control devices and programs
WO2019176735A1 (en) * 2018-03-15 2019-09-19 株式会社コナミデジタルエンタテインメント Game system, game control device, and program
JP2020103682A (en) * 2018-12-28 2020-07-09 株式会社カプコン Computer program, terminal device, and game system
JP7025652B2 (en) 2018-12-28 2022-02-25 株式会社カプコン Computer programs, terminals, and game systems
CN110134909B (en) * 2019-05-23 2023-05-12 武汉轻工大学 Curved surface drawing method, equipment, storage medium and device
CN110134909A (en) * 2019-05-23 2019-08-16 武汉轻工大学 Surface Rendering approach, equipment, storage medium and device
WO2021200957A1 (en) * 2020-03-30 2021-10-07 株式会社バンダイナムコエンターテインメント Computer system, virtual model generation control method, and program
WO2024075512A1 (en) * 2022-10-03 2024-04-11 株式会社Nttドコモ Avatar image generation device

Similar Documents

Publication Publication Date Title
JP2008033521A (en) Program, information storage medium and image generation system
US8882593B2 (en) Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein
JP5085059B2 (en) Image generation system, program, and information storage medium
JP6643775B2 (en) Game machine, game system and program
US20100190556A1 (en) Information storage medium, game program, and game system
JP2011215968A (en) Program, information storage medium and object recognition system
US8662976B2 (en) Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein
JP2008033522A (en) Program, information storage medium and image generation system
JP3748451B1 (en) Program, information storage medium, and image generation system
JP4749198B2 (en) Program, information storage medium, and image generation system
US6890261B2 (en) Game system, program and image generation method
JP2009129167A (en) Program, information storage medium, and image generation system
JP4754384B2 (en) Program, information recording medium, and image generation system
JP2007026111A (en) Program, information storage medium, and image creation system
US20100144448A1 (en) Information storage medium, game device, and game system
JP2011215724A (en) Program, information storage medium, and image generation system
JP4786389B2 (en) Program, information storage medium, and image generation system
JP4754385B2 (en) Program, information recording medium, and image generation system
JP2007164651A (en) Program, information storage medium and image generation system
JP6931723B2 (en) Game consoles, game systems and programs
JP2010231364A (en) Image generation system, program and information recording medium
JP4624527B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2006252291A (en) Program, information storage medium and image generation system
JP4589517B2 (en) Information storage medium and image generation apparatus
JP4521811B2 (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20091006