JP5241536B2 - Program, information storage medium, and game system - Google Patents

Program, information storage medium, and game system Download PDF

Info

Publication number
JP5241536B2
JP5241536B2 JP2009014822A JP2009014822A JP5241536B2 JP 5241536 B2 JP5241536 B2 JP 5241536B2 JP 2009014822 A JP2009014822 A JP 2009014822A JP 2009014822 A JP2009014822 A JP 2009014822A JP 5241536 B2 JP5241536 B2 JP 5241536B2
Authority
JP
Japan
Prior art keywords
divided
division
information
line
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009014822A
Other languages
Japanese (ja)
Other versions
JP2010170505A (en
Inventor
ヘクター ロジャー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2009014822A priority Critical patent/JP5241536B2/en
Priority to US12/694,167 priority patent/US20100190556A1/en
Publication of JP2010170505A publication Critical patent/JP2010170505A/en
Application granted granted Critical
Publication of JP5241536B2 publication Critical patent/JP5241536B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明本発明の幾つかの態様は、プログラム、情報記憶媒体及びゲームシステムに関する。   Some aspects of the present invention relate to a program, an information storage medium, and a game system.

従来から、仮想的な3次元空間であるオブジェクト空間内において仮想カメラ(所与の視点)から見える画像を生成するゲームシステム(画像生成システム)が知られており、いわゆる仮想現実感を体験できるものとして人気が高い。   Conventionally, a game system (image generation system) that generates an image that can be viewed from a virtual camera (a given viewpoint) in an object space that is a virtual three-dimensional space is known, and can experience a so-called virtual reality. As popular.

例えば、プレーヤの入力情報に基づいて、プレーヤオブジェクトが敵オブジェクトを攻撃する処理を行うゲームシステムが存在する(例えば、特許文献1)。   For example, there is a game system that performs a process in which a player object attacks an enemy object based on input information of the player (for example, Patent Document 1).

特開平8−182860号公報JP-A-8-182860

しかし、従来のゲームシステムでは、衝撃(例えば攻撃)等によりオブジェクトが分断される場合の分断後の様子をリアルに表現できないという問題があった。   However, the conventional game system has a problem that the state after the division when the object is divided due to an impact (for example, an attack) or the like cannot be expressed realistically.

本発明は、以上のような問題点に鑑みてなされたものである。本発明のいくつかの態様によれば、衝撃(例えば攻撃)等によりオブジェクトが分断される場合の分断後の様子をリアルに表現可能なプログラム、情報記憶媒体及びゲームシステムを提供することができる。   The present invention has been made in view of the above problems. According to some aspects of the present invention, it is possible to provide a program, an information storage medium, and a game system that can realistically represent the state after the division when the object is divided due to an impact (for example, an attack) or the like.

(1)本発明は、
オブジェクト空間において、オブジェクトが分断される画像を生成するゲーム装置のためのプログラムであって、
入力情報を受け付ける受け付け手段と、
オブジェクトに複数の代表点を設定し、前記入力情報に基づいて代表点の位置情報を演算する代表点位置情報演算手段と、
前記入力情報に基づいてオブジェクトの分断の有無を判断し、分断ありと判断した場合にはオブジェクトを複数の部分オブジェクトに分断する分断処理を行う分断処理手段と、
前記代表点の位置情報に基づき、オブジェクトの分断状態を判断する分断状態判断手段と、
前記分断状態に基づき、画像生成処理またはゲームパラメータ演算処理の少なくとも1つを行う処理手段と、してコンピュータを機能させることを特徴とするプログラムに関する。また、本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶した情報記憶媒体に関する。また、本発明は、上記各部を含むゲームシステムに関係する。
(1) The present invention
A program for a game device that generates an image in which an object is divided in an object space,
Receiving means for receiving input information;
Representative point position information calculating means for setting a plurality of representative points on the object and calculating position information of the representative points based on the input information;
Determining whether or not the object is divided based on the input information, and when it is determined that there is a division, a division processing unit that performs a division process for dividing the object into a plurality of partial objects;
Based on the position information of the representative point, a divided state determining means for determining a divided state of the object,
The present invention relates to a program for causing a computer to function as processing means for performing at least one of image generation processing or game parameter calculation processing based on the divided state. The present invention also relates to an information storage medium that is a computer-readable information storage medium and stores a program that causes a computer to function as each unit. The present invention also relates to a game system including the above-described units.

本発明によれば、衝撃(例えば攻撃)等によりオブジェクトが分断される場合の分断後の様子をリアルに表現することができる。   According to the present invention, it is possible to realistically represent a state after division when an object is divided due to an impact (for example, an attack) or the like.

(2)このプログラム、情報記憶媒体、及びゲームシステムは、
前記代表点はオブジェクトを構成する部位に対応付けて設定されており、
分断状態判断手段は、
所与の部位に対応付けられた代表点の位置情報と他の部位に対応付けられた代表点の位置情報に基づき所与の部位と他の部位の位置関係を求め、当該位置関係が所定の分断条件を満たしていると判断した場合には、所与の部位を含む部分と他の部位を含む部分は分断されている分断状態であると判断してもよい。
(2) This program, information storage medium, and game system
The representative point is set in association with a part constituting the object,
The split state judging means is
Based on the position information of the representative point associated with the given part and the position information of the representative point associated with the other part, the positional relation between the given part and the other part is obtained. When it is determined that the dividing condition is satisfied, it may be determined that the part including the given part and the part including the other part are in a divided state.

前記代表点はオブジェクトを構成する複数の部位の各部位に対応付けて少なくとも1つ設定されていてもよい。   At least one representative point may be set in association with each part of a plurality of parts constituting the object.

例えば所与の部位と他の部位の分轄前の位置関係(例えば所与の部位の代表点と他の部位の代表点が分轄前に取り得る距離の最大値)を求めて保持しておき、所与の部位と他の部位の現在の位置関係と分轄前の位置関係を比較して、比較結果に基づき、所与の部位を含む部分と他の部位を含む部分の分離の有無を判断してもよい。   For example, a positional relationship between a given part and another part before division (for example, a maximum value of a distance that a representative point of a given part and a representative point of another part can take before division) is determined and held. Compare the current positional relationship between the given site and other sites with the location before the division, and based on the comparison result, determine whether the part containing the given site is separated from the part containing the other site. May be.

(3)このプログラム、情報記憶媒体、及びゲームシステムは、
前記代表点位置情報演算手段は、
オブジェクトの分断後に分断された複数の部分オブジェクトに設定された前記複数の代表点の位置情報を演算してもよい。
(3) This program, information storage medium, and game system
The representative point position information calculation means includes:
Position information of the plurality of representative points set in the plurality of partial objects divided after the object division may be calculated.

分離前は演算せずに、分離後に演算することで、分離前の演算負荷を軽減することが出来る。例えば分離前は初期値を設定しておいてもよい。代表点に初期値が設定されている場合には、分断前と判断することが出来る。   By performing computation after separation without computation before separation, the computation load before separation can be reduced. For example, an initial value may be set before separation. If an initial value is set for the representative point, it can be determined that the segment has not been divided.

分断後に代表点の位置情報を演算する場合には、同じ座標系における位置情報を求めることがこのましい。例えば所与のオブジェクトが第1の部分オブジェクトと第2の部分オブジェクトに分断された場合には、第1の部分オブジェクトと第2の部分オブジェクトにわかれた各代表点の位置座標を、ワールド座標系でもよいし、分断前の元のオブジェクトのローカル座標系でも良いし、分断後のいずれかの一方の部分オブジェクトのローカル座標系でもよいが、同じ座標系で求める。このようにすると、分断後の代表点の位置関係の演算負荷が軽くなる。   When calculating the position information of the representative point after the division, it is preferable to obtain the position information in the same coordinate system. For example, when a given object is divided into a first partial object and a second partial object, the position coordinates of each representative point divided between the first partial object and the second partial object are represented in the world coordinate system. Alternatively, it may be the local coordinate system of the original object before dividing, or the local coordinate system of one of the partial objects after dividing, but it is obtained in the same coordinate system. If it does in this way, the calculation load of the positional relationship of the representative point after division will become light.

(4)このプログラム、情報記憶媒体、及びゲームシステムは、
オブジェクト空間において、オブジェクトが分断される画像を生成するゲーム装置のためのプログラムであって、
入力情報を受け付ける受け付け手段と、
オブジェクトに複数の代表点を設定し、前記入力情報に基づいて代表点の位置情報を演算する代表点位置情報演算手段と、
前記入力情報に基づいてオブジェクトの分断の有無を判断し、分断ありと判断した場合にはオブジェクトを複数の部分オブジェクトに分断する分断処理を行う分断処理手段と、
前記代表点間を結ぶ仮想的なラインを設定し、前記分断処理によって分断されたラインを検出し、分断されたラインを特定するための分断ライン情報を保持する分断ライン検出手段と、
前記分断ライン情報に基づき、オブジェクトの分断状態を判断する分断状態判断手段と、
分断状態に基づき、画像生成処理またはゲームパラメータ演算処理の少なくとも1つを行う処理手段と、してコンピュータを機能させることを特徴とするプログラムに関する。また、本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶した情報記憶媒体に関する。また、本発明は、上記各部を含むゲームシステムに関係する。
(4) This program, information storage medium, and game system
A program for a game device that generates an image in which an object is divided in an object space,
Receiving means for receiving input information;
Representative point position information calculating means for setting a plurality of representative points on the object and calculating position information of the representative points based on the input information;
Determining whether or not the object is divided based on the input information, and when it is determined that there is a division, a division processing unit that performs a division process for dividing the object into a plurality of partial objects;
Setting a virtual line connecting the representative points, detecting a line divided by the dividing process, and a divided line detection means for holding divided line information for specifying the divided line;
Based on the parting line information, a parting state judging means for judging a parting state of the object,
The present invention relates to a program that causes a computer to function as processing means that performs at least one of image generation processing or game parameter calculation processing based on a divided state. The present invention also relates to an information storage medium that is a computer-readable information storage medium and stores a program that causes a computer to function as each unit. The present invention also relates to a game system including the above-described units.

本発明によれば、衝撃(例えば攻撃)等によりオブジェクトが分断される場合の分断後の様子をリアルに表現することができる。   According to the present invention, it is possible to realistically represent a state after division when an object is divided due to an impact (for example, an attack) or the like.

(5)このプログラム、情報記憶媒体、及びゲームシステムは、
前記処理手段は、
分断状態に基づき、分断後の部分オブジェクトの移動や動作パターン、分断後の部分オブジェクトに付随するエフェクトパターンの少なくとも1つを決定して、決定した移動や動作パターン及びエフェクトパターンの少なくとも1つに従って画像生成処理を行う画像生成処理手段を含んでもよい。
(5) This program, information storage medium, and game system
The processing means includes
Based on the divided state, at least one of the movement and operation pattern of the divided partial object and the effect pattern associated with the divided partial object is determined, and an image according to at least one of the determined movement, operation pattern, and effect pattern Image generation processing means for performing generation processing may be included.

例えば分断状態に対応づけてパターンの異なるエフェクト要素(例えばエフェクト用のオブジェクトやエフェクト用のテクスチャ)を記憶し、
分断状態基づき、対応するエフェクト要素を選択し、選択したエフェクト要素を用いて画像生成を行ってもよい。
For example, memorize effect elements (for example, effect objects and effect textures) with different patterns in association with the divided state,
A corresponding effect element may be selected based on the divided state, and image generation may be performed using the selected effect element.

また例えば分断状態に対応づけてパターンの異なるエフェクト処理をおこなってもよい。例えばピクセルシェーダーに切断時のエフェクト放出物を異なる描画パターンで描画させてもよい。   Further, for example, effect processing with different patterns may be performed in association with the divided state. For example, the pixel shader may draw the effect emission at the time of cutting with different drawing patterns.

(6)このプログラム、情報記憶媒体、及びゲームシステムは、
前記画像生成処理手段は、
分断状態に対応づけてパターンの異なるモーションデータを記憶し、
分断状態に基づき、対応するモーションデータを選択し、選択したモーションデータを用いて画像生成を行ってもよい。
(6) This program, information storage medium, and game system
The image generation processing means includes
Store motion data with different patterns in association with the divided state,
Corresponding motion data may be selected based on the divided state, and image generation may be performed using the selected motion data.

(7)このプログラム、情報記憶媒体、及びゲームシステムは、
前記処理手段は、
分断状態に基づき、ゲーム処理に用いるゲームパラメータを演算し、ゲームパラメータに基づきゲーム演算を行うゲーム演算手段と、を含んでもよい。
ゲームパラメータは、例えば成績、得点、体力、ライフ等を示すパラメータでもよい。
(7) This program, information storage medium, and game system
The processing means includes
Game calculation means for calculating a game parameter used for the game process based on the divided state and performing a game calculation based on the game parameter may be included.
The game parameter may be a parameter indicating, for example, results, scores, physical strength, life, and the like.

本実施形態のゲームシステムの機能ブロック図。The functional block diagram of the game system of this embodiment. 本実施形態のゲーム画像の一例を示す図。The figure which shows an example of the game image of this embodiment. 図3(A)、図3(B)は、分断処理について説明するための図。FIGS. 3A and 3B are diagrams for explaining the dividing process. 図4(A)、図4(B)は、分断処理について説明するための図。4A and 4B are diagrams for explaining the dividing process. 図5(A)、図5(B)は、分断処理について説明するための図。FIG. 5A and FIG. 5B are diagrams for explaining the dividing process. 図6(A)、図6(B)は、分断処理について説明するための図。6A and 6B are diagrams for explaining the dividing process. 分断対象となるオブジェクトの構成(モデル情報)について説明する図。The figure explaining the structure (model information) of the object used as division | segmentation object. オブジェクトに設定される複数の代表点について説明するための図。The figure for demonstrating the some representative point set to an object. 代表点の位置情報について説明するための図である。It is a figure for demonstrating the positional information on a representative point. オブジェクトが分断された場合の各代表点の距離の変化について説明するための図。The figure for demonstrating the change of the distance of each representative point when an object is parted. 分断前後の代表点の位置関係の変化について説明するための図。The figure for demonstrating the change of the positional relationship of the representative point before and behind parting. 図12(A)(B)は、オブジェクトの分断状態のことなる例を示す図。FIGS. 12A and 12B show examples of different states of an object. 代表点間に設定される仮想的なラインと、オブジェクトが分断された場合の分断されるラインの検出について説明するための図。The figure for demonstrating the detection of the virtual line set between representative points, and the line to be divided when an object is divided. 分断ライン情報について説明するための図Diagram for explaining the split line information 図15(A)(B)は分断状態とエフェクトパターンについて説明するための図。FIGS. 15A and 15B are diagrams for explaining a divided state and an effect pattern. 代表点情報に基づき分断状態を判断を判断する場合のフローチャート図。The flowchart figure in the case of judging judgment of a division state based on representative point information. 分断ライン情報に基づき分断状態を判断を判断する場合のフローチャート図。The flowchart figure in the case of judging judgment of a parting state based on parting line information.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態のゲームシステム(画像生成システム)の機能ブロック図の例を示す。なお本実施形態のゲームシステムは図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of a game system (image generation system) of the present embodiment. Note that the game system of this embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

入力部160は、プレーヤからの入力情報を入力するための機器であり、プレーヤの入力情報を処理部に出力する。本実施形態の入力部160は、プレーヤの入力情報(方向キー、RBボタン、LBボタン、Xボタン、Yボタン等のキー入力によって検出された信号)を検出する。入力部160は、例えば、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイなどがある。   The input unit 160 is a device for inputting input information from the player, and outputs the input information of the player to the processing unit. The input unit 160 of the present embodiment detects player input information (signals detected by key inputs such as direction keys, RB buttons, LB buttons, X buttons, and Y buttons). The input unit 160 includes, for example, a lever, a button, a steering, a microphone, a touch panel display, and the like.

また、入力部160は、3軸の加速度を検出する加速度センサや、角速度を検出するジャイロセンサ、撮像部を備えた入力機器でもよい。例えば、入力機器は、プレーヤが把持して動かすものであってもよいし、プレーヤが身につけて動かすものであってもよい。また、入力機器には、プレーヤが把持する刀型コントローラ、あるいはプレーヤが身につける(プレーヤが手に装着する)グローブ型コントローラなど実際の道具を模して作られたコントローラも含まれる。また入力機器には、入力機器と一体化されているゲーム装置、携帯型ゲーム装置、携帯電話なども含まれる。   The input unit 160 may be an input device including an acceleration sensor that detects triaxial acceleration, a gyro sensor that detects angular velocity, and an imaging unit. For example, the input device may be one that the player holds and moves, or one that the player wears and moves. The input device also includes a controller imitating an actual tool such as a sword-type controller held by the player or a glove-type controller worn by the player (attached to the hand of the player). The input device also includes a game device, a portable game device, a mobile phone, and the like integrated with the input device.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like.

オブジェクトデータ記憶部179には、オブジェクトデータが記憶される。例えば、オブジェクトデータ記憶部179には、頭部位、首部位、腕部位など、オブジェクト(プレーヤオブジェクト、他のオブジェクト)を構成する部位単位での特定点や、オブジェクト単位での代表点が記憶される。   The object data storage unit 179 stores object data. For example, the object data storage unit 179 stores specific points for each part constituting an object (player object, other object) such as a head part, a neck part, and an arm part, and representative points for each object. .

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)、メモリカードなどにより実現できる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM), a memory card, or the like.

処理部100は、情報記憶媒体180に入力されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。   The processing unit 100 performs various processes of the present embodiment based on a program (data) input to the information storage medium 180.

即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。また、情報記憶媒体180に、プレーヤの個人データやゲームのセーブデータなどを記憶してもよい。   That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit). The information storage medium 180 may store player personal data, game save data, and the like.

なお、本実施形態では、情報記憶媒体180にオブジェクトデータを記憶させ、所与のプログラムの実行によって、情報記憶媒体180に記憶されているオブジェクトデータをオブジェクトデータ記憶部179にロードしてもよい。   In the present embodiment, object data may be stored in the information storage medium 180, and the object data stored in the information storage medium 180 may be loaded into the object data storage unit 179 by executing a given program.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

通信部196は外部(例えばホスト装置や他のゲームシステム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, a host device or other game system), and functions thereof include hardware such as various processors or communication ASICs, programs, and the like. Can be realized.

なお、本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)を、ネットワークを介してサーバからダウンロードし、記憶部170や、情報記憶媒体180に記憶するようにしてもよい。このようなサーバの記憶部に記憶されているプログラムも本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment may be downloaded from a server via a network and stored in the storage unit 170 or the information storage medium 180. Such a program stored in the storage unit of the server can also be included in the scope of the present invention.

処理部100(プロセッサ)は、記憶部170内の主記憶部171をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs various processes using the main storage unit 171 in the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、代表点位置情報演算部110,オブジェクト空間設定部111、移動・動作処理部112、仮想カメラ制御部113、受け付け部114、分断状態判断部115、分断処理部116、分断ライン検出部117、ヒットエフェクト処理部118、ゲーム演算部119、描画部120、音生成部130を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes a representative point position information calculation unit 110, an object space setting unit 111, a movement / motion processing unit 112, a virtual camera control unit 113, a reception unit 114, a division state determination unit 115, a division processing unit 116, and a division line detection. Unit 117, hit effect processing unit 118, game calculation unit 119, drawing unit 120, and sound generation unit 130. Note that some of these may be omitted.

オブジェクト空間設定部111は、プレーヤオブジェクト、敵オブジェクト(他のオブジェクトの一例)、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 111 includes various objects (polygons, free-form surfaces, or surface objects) representing display objects such as player objects, enemy objects (an example of other objects), buildings, stadiums, cars, trees, pillars, walls, and maps (terrain). The object is arranged and set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects.

移動・動作処理部112は、プレーヤオブジェクト、敵オブジェクト、車、又は飛行機等の移動・動作演算(移動・動作シミュレーション)を行う。すなわち入力部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、オブジェクトをオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させる処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(各パーツオブジェクトの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 112 performs a movement / motion calculation (movement / motion simulation) of a player object, an enemy object, a car, an airplane, or the like. That is, based on operation data input by the player through the input unit 160, a program (movement / motion algorithm), various data (motion data), etc., the object is moved in the object space, or the object is moved (motion, animation). ) Is performed. Specifically, a simulation process for sequentially obtaining object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part object) every frame (1/60 second). I do. A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

また移動・動作処理部112は、モデルオブジェクト(キャラクタ)にモーション(アニメーション)を行わせるモーション処理(モーション再生、モーション生成)を行う。このモーション処理は、モデルオブジェクトのモーションを、モーションデータ記憶部172に記憶されているモーションデータに基づいて再生することなどで実現できる。   The movement / motion processing unit 112 performs motion processing (motion reproduction, motion generation) for causing the model object (character) to perform motion (animation). This motion processing can be realized by reproducing the motion of the model object based on the motion data stored in the motion data storage unit 172.

具体的にはモーションデータ記憶部172には、モデルオブジェクトのスケルトンを構成する各骨(モデルオブジェクトを構成するパーツオブジェクト、関節、モーション骨)の位置又は回転角度(親の骨に対する子の骨の3軸周りの回転角度)等を含むモーションデータが記憶されている。移動・動作処理部112は、このモーションデータをモーションデータ記憶部172から読み出し、読み出されたモーションデータに基づいてモデルオブジェクトのスケルトンを構成する各骨(パーツオブジェクト)を動かすことで(スケルトン形状を変形させることで)、モデルオブジェクトのモーションを再生する。   Specifically, the motion data storage unit 172 stores the position or rotation angle of each bone (part object, joint, and motion bone constituting the model object) constituting the skeleton of the model object (3 of the child bone relative to the parent bone). Motion data including the rotation angle around the axis) is stored. The movement / motion processing unit 112 reads the motion data from the motion data storage unit 172, and moves each bone (part object) constituting the skeleton of the model object based on the read motion data (the skeleton shape is changed). Play the model object's motion by transforming it).

仮想カメラ制御部113は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置や視線方向を制御する処理)を行う。   The virtual camera control unit 113 performs a virtual camera (viewpoint) control process for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, a process for controlling the position (X, Y, Z) or the rotation angle (rotation angle about the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position and the line-of-sight direction) is performed.

例えば仮想カメラによりプレーヤオブジェクトを後方から撮影する場合には、プレーヤオブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部111で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   For example, when the player object is photographed from behind by the virtual camera, the position or rotation angle (the direction of the virtual camera) of the virtual camera is controlled so that the virtual camera follows the change in the position or rotation of the player object. In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 111. Alternatively, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

受け付け部114は、プレーヤの入力情報を受け付ける。例えば、受け付け部114は、プレーヤの攻撃の入力情報、プレーヤの所定モード切替入力情報、方向指示の入力情報等を受け付ける。   The accepting unit 114 accepts player input information. For example, the receiving unit 114 receives player attack input information, player predetermined mode switching input information, direction instruction input information, and the like.

分断状態判断部115は、前記代表点の位置情報に基づき、オブジェクトの分断状態(分断の有無、分断された部位等)を判断する。   Based on the position information of the representative point, the divided state determination unit 115 determines the divided state of the object (the presence or absence of the division, the divided part, etc.).

分断処理部116は、入力情報に基づいてオブジェクトの分断の有無を判断し、分断ありと判断した場合にはオブジェクトを複数の部分オブジェクトに分断する分断処理を行う。例えば、プレーヤオブジェクトが他のオブジェクトを攻撃する攻撃方向に基づいて他のオブジェクトの分断面を設定し、他のオブジェクトを分断するか否かを判定し、他のオブジェクトを分断すると判定された場合に、他のオブジェクトを分断ラインに沿って分断する処理を行ってもよい。ここで、他のオブジェクトを分断ラインに沿って分断する処理とは、設定された分断面を境に、他のオブジェクトを複数のオブジェクトに分離させる処理を行う。分断処理部116は、他のオブジェクトを分断すると判定した場合に、分断面に基づきリアルタイムに複数のオブジェクトの頂点を求め、複数のオブジェクトを生成する処理を行う。   The division processing unit 116 determines whether or not the object is divided based on the input information. When it is determined that there is a division, the division processing unit 116 performs a division process for dividing the object into a plurality of partial objects. For example, when the player object sets a section of another object based on the attack direction in which the other object attacks, determines whether or not to divide the other object, and when it is determined to divide the other object A process of dividing another object along the dividing line may be performed. Here, the process of dividing the other object along the dividing line is a process of separating the other object into a plurality of objects with the set dividing section as a boundary. When it is determined that another object is to be divided, the division processing unit 116 obtains the vertices of the plurality of objects in real time based on the divided section, and performs processing for generating the plurality of objects.

分断ライン検出部117は、代表点間を結ぶ仮想的なラインを設定し、前記分断処理によって分断されたラインを検出し、分断されたラインを特定するための分断ライン情報を保持する。   The divided line detection unit 117 sets a virtual line connecting the representative points, detects a line divided by the dividing process, and holds divided line information for specifying the divided line.

ゲーム演算部118は、入力部160からの入力データやプログラムなどに基づいて、ゲーム処理を行う。ここでゲーム演算としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、プレーヤオブジェクト、敵オブジェクトやマップなどのオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The game calculation unit 118 performs game processing based on input data from the input unit 160, a program, and the like. Here, the game calculation includes a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for placing an object such as a player object, an enemy object or a map, a process for displaying an object, There is a process for calculating a result or a process for ending a game when a game end condition is satisfied.

またゲーム演算部はヒット判定をおこなってもよい。例えばプレーヤオブジェクトと敵オブジェクト(他のオブジェクトの一例)とのヒット判定を行う。ここで、プレーヤオブジェクト、敵オブジェクトとは、各オブジェクトが所持する武器(例えば、剣、ブーメラン、斧)などを含む。プレーヤオブジェクトと敵オブジェクトとがヒットしたか否かを判定する処理を行う場合には、プレーヤオブジェクトのヒット領域と、敵オブジェクトのヒット領域とに基づいて、第1のモデルオブジェクトと第2のモデルオブジェクトとがヒットしたか否かを判定してもよい。   In addition, the game calculation unit may perform hit determination. For example, hit determination between a player object and an enemy object (an example of another object) is performed. Here, the player object and the enemy object include weapons (eg, sword, boomerang, ax) possessed by each object. When the process of determining whether or not the player object and the enemy object are hit is performed, the first model object and the second model object are based on the hit area of the player object and the hit area of the enemy object. It may be determined whether or not.

ゲーム演算部118は、分断状態に基づき、ゲーム処理に用いるゲームパラメータ(成績、得点、体力、ライフ等)を演算し、ゲームパラメータに基づきゲーム演算を行う。   The game calculation unit 118 calculates game parameters (score, score, physical strength, life, etc.) used for game processing based on the divided state, and performs game calculation based on the game parameters.

ゲーム演算部118は、複数のステージを用意し、各ステージにおいて、プレーヤオブジェクトが、ステージに存在する所定数の敵オブジェクトを倒したか否かを判断する処理を行う。具体的には、ヒット判定結果に基づいて、プレーヤオブジェクトの体力値(ゲームパラメータの一例)や、敵オブジェクトの体力値(ゲームパラメータの一例)を変動させる処理を行う。例えば、プレーヤの攻撃の入力情報が検知されると、プレーヤの攻撃の入力情報に基づいて、プレーヤオブジェクトを移動・動作させ(攻撃のモーションを実行させ)、敵オブジェクトにヒットしたと判定されると、敵オブジェクトの体力値から所定値(例えば攻撃に応じたダメージ値)を減算する処理を行う。そして、敵オブジェクトの体力値が零になると、敵オブジェクトを倒したと判断する。特に、本実施形態のゲーム演算部118は、分断されたと判定された場合に、敵オブジェクトの体力値を零にする処理を行なうようにしている。   The game calculation unit 118 prepares a plurality of stages, and performs a process of determining whether or not the player object has defeated a predetermined number of enemy objects existing on the stage in each stage. Specifically, based on the hit determination result, a process of changing the physical strength value of the player object (an example of a game parameter) and the physical strength value of an enemy object (an example of a game parameter) is performed. For example, when input information of a player's attack is detected, it is determined that the enemy object has been hit based on the input information of the player's attack by moving and operating the player object (executing the attack motion). Then, a process of subtracting a predetermined value (for example, a damage value corresponding to the attack) from the physical strength value of the enemy object is performed. Then, when the health value of the enemy object becomes zero, it is determined that the enemy object has been defeated. In particular, the game calculation unit 118 according to the present embodiment performs a process of setting the health value of the enemy object to zero when it is determined that the game object has been divided.

また、プレーヤオブジェクトが敵オブジェクトからの攻撃を防御できず、敵オブジェクトからの攻撃を受けた場合には、プレーヤオブジェクトの体力値から所定値を減算する処理を行う。そして、プレーヤオブジェクトの体力値が零になると、ゲームが終了する。   Further, when the player object cannot defend against the attack from the enemy object and receives an attack from the enemy object, a process of subtracting a predetermined value from the physical strength value of the player object is performed. When the player object's physical strength value becomes zero, the game ends.

ヒットエフェクト処理部119は、プレーヤオブジェクトが敵オブジェクトにヒットしたと判定された場合には、ヒットエフェクト処理を行う。例えば、ヒットエフェクト処理部119は、敵オブジェクトが分断されたと判定された場合に、敵オブジェクトの分断面から、液体が放出する画像生成処理、光が放出する画像生成処理等を行う。   The hit effect processing unit 119 performs hit effect processing when it is determined that the player object has hit an enemy object. For example, when it is determined that the enemy object has been divided, the hit effect processing unit 119 performs an image generation process in which liquid is emitted, an image generation process in which light is emitted, and the like from a divided section of the enemy object.

エフェクトデータ記憶部174には、分断状態に対応づけてパターンの異なるエフェクト要素(例えばエフェクト用のオブジェクトやエフェクト用のテクスチャ)が記憶されている。ヒットエフェクト処理部119は、分断状態基づき、対応するエフェクト要素を選択し、選択したエフェクト要素を用いて画像生成を行うための処理を行う。   The effect data storage unit 174 stores effect elements (for example, effect objects and effect textures) having different patterns in association with the divided state. The hit effect processing unit 119 selects a corresponding effect element based on the division state, and performs processing for generating an image using the selected effect element.

またヒットエフェクト処理部119は分断状態に対応づけてパターンの異なるエフェクト処理をおこなってもよい。例えばピクセルシェーダーに切断時のエフェクト放出物を異なる描画パターンで描画させてもよい。   The hit effect processing unit 119 may perform effect processing with different patterns in association with the divided state. For example, the pixel shader may draw the effect emission at the time of cutting with different drawing patterns.

描画部120は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。いわゆる3次元ゲーム画像を生成する場合には、まず、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、或いは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブの頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(オブジェクトデータ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数のプリミティブ)を画像バッファ173(フレームバッファや中間バッファ(ワークバッファ)などのピクセル単位で画像情報を記憶できるバッファ。VRAM)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように描画処理を行う。   The drawing unit 120 performs drawing processing based on the results of various processing (game processing) performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. In the case of generating a so-called three-dimensional game image, first, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, or perspective transformation is performed, and drawing data ( Primitive vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Based on the drawing data (object data), an object (one or a plurality of primitives) after perspective transformation (after geometry processing) is imaged in units of pixels such as an image buffer 173 (frame buffer or intermediate buffer (work buffer)). Draw in a buffer (VRAM) that can store information. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. In addition, when there are a plurality of virtual cameras (viewpoints), the drawing process is performed so that an image seen from each virtual camera can be displayed as a divided image on one screen.

描画部120は、ジオメトリ処理部122、シェーディング処理部124、αブレンディング部126、陰面消去部128を含む。   The drawing unit 120 includes a geometry processing unit 122, a shading processing unit 124, an α blending unit 126, and a hidden surface removal unit 128.

ジオメトリ処理部122は、オブジェクトに対してジオメトリ処理を行う。具体的には、座標変換、クリッピング処理、透視変換、或いは光源計算等のジオメトリ処理を行う。そして、ジオメトリ処理後(透視変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、オブジェクトデータ記憶部179に保存される。   The geometry processing unit 122 performs geometry processing on the object. Specifically, coordinate processing, clipping processing, perspective conversion, or light source calculation is performed. The object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective transformation) is stored in the object data storage unit 179. The

シェーディング処理部124は、オブジェクトに対して陰影付けをするシェーディング処理を行う。具体的には、ジオメトリ処理部122で行われた光源計算の結果(陰影情報)に基づき、オブジェクトの描画ピクセルの輝度を調整する。必要に応じて、ジオメトリ処理部122で光源計算を行わずに、シェーディング処理部124で光源計算を行わせてもよい。シェーディング処理としては、例えば、フラットシェーディング(flat Shading)、あるいはグローシェーディング(Gourand Shading)やフォンシェーディング(Phong Shading)などのスムーズシェーディングをオブジェクトに対して行うことができる。   The shading processing unit 124 performs a shading process for shading an object. Specifically, the luminance of the drawing pixel of the object is adjusted based on the result of light source calculation (shadow information) performed by the geometry processing unit 122. If necessary, the light source calculation may be performed by the shading processing unit 124 without performing the light source calculation by the geometry processing unit 122. As the shading process, for example, smooth shading such as flat shading, glow shading, and hong shading can be performed on an object.

αブレンディング部126は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)を行う。例えば通常αブレンディングの場合には下式(1)〜(3)の処理を行う。   The α blending unit 126 performs translucent synthesis processing (normal α blending, addition α blending, subtraction α blending, or the like) based on the α value (A value). For example, in the case of normal α blending, the following processes (1) to (3) are performed.

=(1−α)×R+α×R (1)
=(1−α)×G+α×G (2)
=(1−α)×B+α×B (3)
R Q = (1−α) × R 1 + α × R 2 (1)
G Q = (1−α) × G 1 + α × G 2 (2)
B Q = (1−α) × B 1 + α × B 2 (3)

また、加算αブレンディングの場合には下式(4)〜(6)の処理を行う。   In addition, in the case of addition α blending, the following expressions (4) to (6) are performed.

=R+α×R (4)
=G+α×G (5)
=B+α×B (6)
R Q = R 1 + α × R 2 (4)
G Q = G 1 + α × G 2 (5)
B Q = B 1 + α × B 2 (6)

また、減算αブレンディングの場合には下式(7)〜(9)の処理を行う。   In the case of subtractive α blending, the processing of the following equations (7) to (9) is performed.

=R−α×R (7)
=G−α×G (8)
=B−α×B (9)
R Q = R 1 −α × R 2 (7)
G Q = G 1 −α × G 2 (8)
B Q = B 1 −α × B 2 (9)

ここで、R、G、Bは、画像バッファ173に既に描画されている画像(元画像)のRGB成分であり、R、G、Bは、画像バッファ173に描画すべき画像のRGB成分である。また、R、G、Bは、αブレンディングにより得られる画像のRGB成分である。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。 Here, R 1 , G 1 , B 1 are RGB components of an image (original image) already drawn in the image buffer 173, and R 2 , G 2 , B 2 should be drawn in the image buffer 173. This is the RGB component of the image. R Q , G Q , and B Q are RGB components of an image obtained by α blending. The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

隠面消去部128は、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ175(奥行きバッファ)を用いて、Zバッファ法(奥行き比較法、Zテスト)により隠面消去処理を行う。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファ175に格納されるZ値を参照する。そして参照されたZバッファ175のZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファ175のZ値を新たなZ値に更新する。   The hidden surface removal unit 128 performs hidden surface removal processing by the Z buffer method (depth comparison method, Z test) using the Z buffer 175 (depth buffer) in which the Z value (depth information) of the drawing pixel is stored. That is, when the drawing pixel corresponding to the primitive of the object is drawn, the Z value stored in the Z buffer 175 is referred to. Then, the Z value of the referenced Z buffer 175 is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is the front side when viewed from the virtual camera (for example, a small Z value). If it is, the drawing process of the drawing pixel is performed and the Z value of the Z buffer 175 is updated to a new Z value.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態のゲームシステムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。   Note that the game system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play.

また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよい。   Further, when a plurality of players play, game images and game sounds provided to the plurality of players may be generated using one terminal.

また、本実施形態のゲームシステムでは、ネットワーク(伝送ライン、通信回線)を介して接続された他の1又は複数のゲームシステムと、データ(例えば入力情報)を送受信する処理を行い、オンラインゲームを実現できるようにしてもよい。   In the game system of the present embodiment, an online game is performed by performing processing of transmitting / receiving data (for example, input information) to / from one or more other game systems connected via a network (transmission line, communication line). You may make it realizable.

2.本実施形態の手法の概要
2−1.ゲーム概要
図2は、本実施形態のゲームの概要を説明するための図である。
2. Outline of the method of the present embodiment 2-1. Game Outline FIG. 2 is a diagram for explaining an outline of the game of the present embodiment.

本実施形態のゲームシステムは、オブジェクト空間において、オブジェクトが分断される画像を生成するゲームシステムである。本実施形態では、オブジェクト空間に存在するプレーヤオブジェクトPOが敵オブジェクトEO(他のオブジェクトの一例)に対して攻撃を行う。本実施形態のゲームシステムは、プレーヤから入力された攻撃入力情報(縦切り攻撃入力情報、横切り攻撃入力情報)を受け付けると、プレーヤオブジェクトPOが装備する剣SDで敵オブジェクトEOを斬る攻撃モーションを行わせる処理を行う。   The game system of the present embodiment is a game system that generates an image in which an object is divided in an object space. In the present embodiment, the player object PO existing in the object space attacks the enemy object EO (an example of another object). When the game system according to the present embodiment receives attack input information (vertical attack input information and cross attack input information) input from the player, the game system performs an attack motion that cuts the enemy object EO with the sword SD equipped in the player object PO. Process.

例えば、本実施形態では、「縦斬り攻撃入力情報」を受け付けると、プレーヤオブジェクトPOに、剣SDを上から下へ振り下ろす「縦斬り」の攻撃動作を行わせ、「横斬り攻撃入力情報」を受け付けると、プレーヤオブジェクトPOに、剣SDを右から左へ或いは左から右へ振る「横斬り」の攻撃動作を行わせる。   For example, in the present embodiment, when “vertical slashing attack input information” is received, the player object PO is caused to perform a “vertical slashing” attack operation in which the sword SD is swung down from top to bottom. Is received, the player object PO is caused to perform a “horizontal slash” attacking action by swinging the sword SD from right to left or from left to right.

2−2.分断処理
また、本実施形態では、プレーヤから入力された攻撃入力情報を受け付けると、攻撃対象である敵オブジェクトEOを切断する処理(分断処理の一例)を行う。
2-2. In this embodiment, when attack input information input from a player is received, a process (an example of a split process) for cutting an enemy object EO that is an attack target is performed.

例えば、本実施形態では、「縦斬り攻撃入力情報」を受け付けると、図3(A)に示すように、攻撃対象となる敵オブジェクトEOに対して、攻撃方向である縦方向(Y軸方向)に平行な仮想面VPを設定し、図3(B)に示すように、敵オブジェクトEOを、仮想面VPを境に複数のオブジェクトEO1、EO2に分離する処理を行う。   For example, in the present embodiment, when “vertical slashing attack input information” is received, as shown in FIG. 3A, a vertical direction (Y-axis direction) that is an attacking direction against the enemy object EO to be attacked. A virtual plane VP parallel to the virtual plane VP is set, and as shown in FIG. 3B, the enemy object EO is separated into a plurality of objects EO1 and EO2 with the virtual plane VP as a boundary.

また「横斬り攻撃入力情報」を受け付けると、図4(A)に示すように、攻撃対象となる敵オブジェクトEOに対して、攻撃方向である横方向(X軸方向)に平行な仮想面VPを設定し、図4(B)に示すように、敵オブジェクトEOを、仮想面VPを境に複数のオブジェクトEO1〜EO4に分離する処理を行う。   When “lateral cut attack input information” is received, as shown in FIG. 4A, the virtual plane VP parallel to the lateral direction (X-axis direction) that is the attack direction with respect to the enemy object EO to be attacked. And the enemy object EO is separated into a plurality of objects EO1 to EO4 with the virtual plane VP as a boundary, as shown in FIG. 4B.

より詳細には、「縦斬り攻撃入力情報」を受け付けた場合には、図5(A)に示すように、プレーヤオブジェクトPOの代表点PPと敵オブジェクトEOの代表点EPとを通過する線を含み、攻撃方向である縦方向(Y軸方向)に平行な仮想面VPを設定する。また、図5(B)に示すように、プレーヤオブジェクトPOの方向PV(又は移動方向)に延び、縦方向(Y軸方向)に平行な仮想面VPを設定するようにしてもよい。   More specifically, when “vertical slashing attack input information” is received, as shown in FIG. 5A, a line passing through the representative point PP of the player object PO and the representative point EP of the enemy object EO is displayed. A virtual plane VP that is parallel to the vertical direction (Y-axis direction) that is the attack direction is set. Further, as shown in FIG. 5B, a virtual plane VP extending in the direction PV (or moving direction) of the player object PO and parallel to the vertical direction (Y-axis direction) may be set.

同様に、「横斬り攻撃入力情報」を受け付けた場合には、図6(A)に示すように、プレーヤオブジェクトPOの代表点PPと敵オブジェクトEOの代表点EPとを通過する線を含み、攻撃方向である横方向(X軸方向)に平行な仮想面VPを設定する。また、図6(B)に示すように、プレーヤオブジェクトPOの方向PV(又は移動方向)に延び、横方向(X軸方向)に平行な仮想面VPを設定するようにしてもよい。   Similarly, when “side-slashing attack input information” is received, as shown in FIG. 6A, the line includes a line passing through the representative point PP of the player object PO and the representative point EP of the enemy object EO, A virtual plane VP parallel to the lateral direction (X-axis direction) that is the attack direction is set. Further, as shown in FIG. 6B, a virtual plane VP extending in the direction PV (or moving direction) of the player object PO and parallel to the horizontal direction (X-axis direction) may be set.

このように仮想面VPは、プレーヤオブジェクトPOと敵オブジェクトEOの位置や、プレーヤオブジェクトPOの向き或いは攻撃方向に基づき設定される。また入力部からの方向指示の入力情報に基づき仮想面VPを移動するようにしてもよい。例えば図5(B)に示す例において、方向指示の入力情報に基づいて仮想面VPを横方向(プレーヤオブジェクトの方向PVに垂直な方向)に平行移動するようにしてもよいし、図6(B)に示す例において、方向指示の入力情報に基づいて仮想面VPを縦方向(プレーヤオブジェクトの方向PVに垂直な方向)に平行移動するようにしてもよい。   Thus, the virtual plane VP is set based on the positions of the player object PO and the enemy object EO, the direction of the player object PO, or the attack direction. Further, the virtual plane VP may be moved based on the input information of the direction instruction from the input unit. For example, in the example shown in FIG. 5B, the virtual plane VP may be translated in the horizontal direction (direction perpendicular to the player object direction PV) based on the input information of the direction instruction. In the example shown in B), the virtual plane VP may be translated in the vertical direction (direction perpendicular to the player object direction PV) based on the input information of the direction instruction.

2−3.分断対象となるオブジェクトの構成
本実施の形態の分断対象となるオブジェクトの構成(モデル情報)について説明する。
2-3. Configuration of Object to be Splitted A configuration (model information) of an object to be splitted according to the present embodiment will be described.

本実施形態で分断対象となるオブジェクトは、図7に示すように、モデルオブジェクトMOB(キャラクタ)が、複数のパーツオブジェクト(腰12、胸14、首16、頭18、右上腕20、右前腕22、右手24、左上腕26、左前腕28、左手30、右股R32、右すね34、右足36、左股38、左すね40、左足42)により構成されている。そして、これらのパーツオブジェクト(部位)の位置や回転角度(方向)は、スケルトンモデルを構成する骨B0〜B19の位置(関節J0〜J15の位置)や回転角度(親の骨に対する子の骨の相対的な回転角度)により特定される。なお、これらの骨、関節は仮想的なものであり、現実に表示されるオブジェクトではない。   As shown in FIG. 7, the model object MOB (character) includes a plurality of part objects (waist 12, chest 14, neck 16, head 18, upper right arm 20, right forearm 22). , Right hand 24, left upper arm 26, left forearm 28, left hand 30, right crotch R32, right shin 34, right foot 36, left crotch 38, left shin 40, and left foot 42). The positions and rotation angles (directions) of these part objects (parts) are the positions of the bones B0 to B19 constituting the skeleton model (positions of the joints J0 to J15) and the rotation angles (the bones of the child relative to the parent bone). Relative rotation angle). Note that these bones and joints are virtual and are not actually displayed objects.

本実施形態では、モデルオブジェクトMOBのスケルトンを構成する骨(モーション骨、関節、パーツオブジェクト)が親子(階層)構造を有している。例えば、手24、30の骨B7、B11の親は前腕22、28の骨B6、B10となり、B6、B10の親は上腕20、26の骨B5、B9となる。また、B5、B9の親は胸14の骨B1となり、B1の親は腰12の骨B0となる。また、足36、42の骨B15、B19の親はすね34、40の骨B14、B18となり、B14、B18の親は股32、38の骨B13、B17となり、B13、B17の親は腰12の骨B12、B16となる。   In the present embodiment, bones (motion bones, joints, part objects) constituting the skeleton of the model object MOB have a parent-child (hierarchical) structure. For example, the parents of the bones B7 and B11 of the hands 24 and 30 are the bones B6 and B10 of the forearms 22 and 28, and the parents of the B6 and B10 are the bones B5 and B9 of the upper arms 20 and 26. The parents of B5 and B9 become the bone B1 of the chest 14, and the parent of B1 becomes the bone B0 of the waist 12. The parents of the bones B15 and B19 of the legs 36 and 42 are the bones B14 and B18 of the shins 34 and 40, the parents of the B14 and B18 are the bones B13 and B17 of the crotch 32 and 38, and the parents of the B13 and B17 are the waist 12 Bones B12 and B16.

モーションデータ記憶部172には、これらの骨(パーツオブジェクト、関節)の位置、回転角度が、モーションデータとして記憶されている。なお骨の回転角度だけをモーションデータに含ませて、骨の位置(関節の位置)についてはモデルオブジェクトのモデルデータの中に含ませてもよい。   The motion data storage unit 172 stores the positions and rotation angles of these bones (part objects, joints) as motion data. Note that only the rotation angle of the bone may be included in the motion data, and the bone position (joint position) may be included in the model data of the model object.

例えば、歩きモーションが、M0、M1、M2・・・・MNという基準モーション(各フレームでのモーション)により構成されているとする。するとこれらの各基準モーションM0、M1、M2・・・・MNでの各骨の位置又は回転角度が、モーションデータとして予め記憶されている。そして、例えば基準モーションM0の各パーツオブジェクトの位置、回転角度を読み出し、次に基準モーションM1の各パーツオブジェクトの位置、回転角度を読み出すというように、基準モーションのモーションデータを時間経過に伴い順次読み出すことで、モーション処理(モーション再生)が実現される。   For example, it is assumed that the walking motion is composed of reference motions (motions in each frame) M0, M1, M2,. Then, the position or rotation angle of each bone in each of these reference motions M0, M1, M2,... MN is stored in advance as motion data. Then, for example, the position data and the rotation angle of each part object of the reference motion M0 are read out, and then the position and rotation angle of each part object of the reference motion M1 are read out. Thus, motion processing (motion playback) is realized.

なお、モーションデータ記憶部172に記憶するモーションデータは、一般的には、モーションキャプチャにより取得したり、デザイナが作成する。またモーションデータは、親の骨の位置、回転角度に対する子の骨の相対的な位置、相対的な回転角度(3軸周りの回転角度)で表される。例えば、親の骨BMPに対する子の骨BMCの、X軸、Y軸、Z軸回りの回転角度α、β、γが、モーションデータとして記憶されてもよい。   The motion data stored in the motion data storage unit 172 is generally obtained by motion capture or created by a designer. The motion data is represented by the position of the parent bone, the relative position of the child bone with respect to the rotation angle, and the relative rotation angle (rotation angle around three axes). For example, rotation angles α, β, and γ around the X axis, the Y axis, and the Z axis of the child bone BMC with respect to the parent bone BMP may be stored as motion data.

また、図7においてRPはモデルオブジェクトMOBの代表点であり、このRPは例えば腰(J0)の真下の位置(高さ零の位置)に設定されている。また図7の骨B1〜B19以外にも、モーション骨によるモデルオブジェクトの変形を補助する補助骨を設けてもよい。   Further, in FIG. 7, RP is a representative point of the model object MOB, and this RP is set at a position just below the waist (J0) (position of zero height), for example. In addition to the bones B1 to B19 in FIG. 7, auxiliary bones that assist the deformation of the model object by the motion bones may be provided.

2−4.代表点の位置情報演算処理
本実施の形態では、オブジェクトに複数の代表点を設定し、入力情報に基づいて代表点の位置情報(位置座標等)を演算する代表点位置情報演算処理を行う。
2-4. Representative Point Position Information Calculation Processing In this embodiment, representative point position information calculation processing is performed in which a plurality of representative points are set for an object, and position information (position coordinates, etc.) of the representative points is calculated based on input information.

図8は、本実施の形態のオブジェクトに設定される複数の代表点について説明するための図である。   FIG. 8 is a diagram for describing a plurality of representative points set in the object according to the present embodiment.

D1〜D32がオブジェクトに設定された代表点である。代表点D1〜D32はオブジェクトを構成する複数の部位の各部位に対応付けて(少なくとも1つ)設定されていてもよい。図7におけるRP(モデルオブジェクトMOBの代表点)は、モデルオブジェクトMOBの位置座標を設定するために用いられるが、以下に説明する代表点はオブジェクトのの各部位の位置を把握するために用いられてもよい。   D1 to D32 are representative points set for the object. The representative points D1 to D32 may be set in association with (at least one) each part of a plurality of parts constituting the object. The RP (representative point of the model object MOB) in FIG. 7 is used to set the position coordinates of the model object MOB. The representative points described below are used to grasp the position of each part of the object. May be.

代表点D1〜D4はオブジェクトの頭部に対応付けて設定された代表点である。オブジェクトの頭部を仮想的に4つの部位B1からB4(部位B1は左目付近の部位であり、部位B2は左目付近の部位であり、部位B3は口の左側付近の部位であり、部位B4は口の右側付近の部位)に分轄して、代表点D1からD4はそれぞれ部位B1〜B4に対応させてもよい。   The representative points D1 to D4 are representative points set in association with the head of the object. The head of the object is virtually divided into four parts B1 to B4 (part B1 is a part near the left eye, part B2 is a part near the left eye, part B3 is a part near the left side of the mouth, and part B4 is The representative points D1 to D4 may be made to correspond to the parts B1 to B4, respectively.

代表点D5、D6はオブジェクトの胸部に対応付けて設定された代表点である。オブジェクトの胸部を仮想的に2つの部位B5、B6(部位B5は左胸付近の部位であり、部位B6は右胸付近の部位である)に分轄して、代表点D5、D6はそれぞれ部位B5、64に対応させてもよい。   The representative points D5 and D6 are representative points set in association with the chest of the object. The chest of the object is virtually divided into two parts B5 and B6 (part B5 is a part near the left breast and part B6 is a part near the right breast), and representative points D5 and D6 are respectively part B5. , 64 may be supported.

代表点D7、D9はオブジェクトの左上腕部に対応付けて設定された代表点である。オブジェクトの左上腕部を仮想的に2つの部位B7、B9(部位B7は左上腕上部付近の部位であり、部位B9は左上腕下部付近の部位である)に分轄して、代表点D7、D9はそれぞれ部位B7、B9に対応させてもよい。   The representative points D7 and D9 are representative points set in association with the upper left arm of the object. The left upper arm part of the object is virtually divided into two parts B7 and B9 (part B7 is a part near the upper left arm and part B9 is a part near the lower left arm), and representative points D7 and D9. May correspond to sites B7 and B9, respectively.

代表点D8、D10はオブジェクトの右上腕部に対応付けて設定された代表点である。オブジェクトの右上腕部を仮想的に2つの部位B8、B10(部位B8は右上腕上部付近の部位であり、部位B10は右上腕下部付近の部位である)に分轄して、代表点D8、D10はそれぞれ部位B8、B10に対応させてもよい。   The representative points D8 and D10 are representative points set in association with the upper right arm of the object. The upper right arm of the object is virtually divided into two parts B8 and B10 (part B8 is a part near the upper right arm upper part and part B10 is a part near the lower right arm lower part), and representative points D8 and D10 May correspond to portions B8 and B10, respectively.

代表点D11、D13はオブジェクトの左下腕部に対応付けて設定された代表点である。オブジェクトの左下腕部を仮想的に2つの部位B11、B13(部位B11は左下腕上部付近の部位であり、部位B13は左下腕下部付近の部位である)に分轄して、代表点D11、D13はそれぞれ部位B11、B13に対応させてもよい。   The representative points D11 and D13 are representative points set in association with the lower left arm portion of the object. The left lower arm part of the object is virtually divided into two parts B11 and B13 (part B11 is a part near the upper left lower arm and part B13 is a part near the lower left arm), and representative points D11 and D13 May correspond to the parts B11 and B13, respectively.

代表点D12、D14はオブジェクトの右下腕部に対応付けて設定された代表点である。オブジェクトの右下腕部を仮想的に2つの部位B12、B14(部位B12は右下腕上部付近の部位であり、部位B14は右下腕下部付近の部位である)に分轄して、代表点D12、D14はそれぞれ部位B12、B14に対応させてもよい。   The representative points D12 and D14 are representative points set in association with the lower right arm of the object. The right lower arm part of the object is virtually divided into two parts B12 and B14 (part B12 is a part near the upper right lower arm, and part B14 is a part near the lower right arm lower part). D12 and D14 may correspond to the portions B12 and B14, respectively.

代表点D15、D17はオブジェクトの左手部に対応付けて設定された代表点である。オブジェクトの左手部を仮想的に2つの部位B15、B17(部位B15は左手上部付近の部位であり、部位B17は左手下部付近の部位である)に分轄して、代表点D15、D17はそれぞれ部位B15、B17に対応させてもよい。   The representative points D15 and D17 are representative points set in association with the left hand part of the object. The left hand part of the object is virtually divided into two parts B15 and B17 (part B15 is a part near the upper left hand and part B17 is a part near the lower left hand), and representative points D15 and D17 are respectively parts. You may make it respond | correspond to B15 and B17.

代表点D16、D18はオブジェクトの右手部に対応付けて設定された代表点である。オブジェクトの右手部を仮想的に2つの部位B16、B18(部位B16は右手上部付近の部位であり、部位B18は右手下部付近の部位である)に分轄して、代表点D16、D18はそれぞれ部位B16、B18に対応させてもよい。   The representative points D16 and D18 are representative points set in association with the right hand part of the object. The right hand part of the object is virtually divided into two parts B16 and B18 (part B16 is a part near the upper right hand and part B18 is a part near the lower right hand), and the representative points D16 and D18 are respectively parts. You may make it respond | correspond to B16 and B18.

代表点D19、D20はオブジェクトの腰部に対応付けて設定された代表点である。オブジェクトの腰部を仮想的に2つの部位B19、B20(部位B19は腰部付近の部位であり、部位B20は腰部付近の部位である)に分轄して、代表点D19、D20はそれぞれ部位B19、B20に対応させてもよい。   The representative points D19 and D20 are representative points set in association with the waist of the object. The lumbar part of the object is virtually divided into two parts B19 and B20 (part B19 is a part near the waist and part B20 is a part near the waist), and representative points D19 and D20 are parts B19 and B20, respectively. You may make it correspond.

代表点D21、D23はオブジェクトの左股部に対応付けて設定された代表点である。オブジェクトの左股部を仮想的に2つの部位B21、B23(部位B21は左股上部付近の部位であり、部位B23は左股下部付近の部位である)に分轄して、代表点D21、D23はそれぞれ部位B21、B23に対応させてもよい。   The representative points D21 and D23 are representative points set in association with the left crotch portion of the object. The left crotch part of the object is virtually divided into two parts B21, B23 (part B21 is a part near the upper left crotch, and part B23 is a part near the lower left crotch), and representative points D21, D23 May correspond to sites B21 and B23, respectively.

代表点D22、D24はオブジェクトの右股部に対応付けて設定された代表点である。オブジェクトの右股部を仮想的に2つの部位B22、B24(部位B22は右股上部付近の部位であり、部位B24は右股下部付近の部位である)に分轄して、代表点D22、D24はそれぞれ部位B22、B24に対応させてもよい。   The representative points D22 and D24 are representative points set in association with the right crotch portion of the object. The right crotch part of the object is virtually divided into two parts B22 and B24 (part B22 is a part near the upper right crotch and part B24 is a part near the lower right crotch), and representative points D22 and D24 are divided. May correspond to the parts B22 and B24, respectively.

代表点D25、D27はオブジェクトの左すね部に対応付けて設定された代表点である。オブジェクトの左すね部を仮想的に2つの部位B25、B27(部位B25は左すね上部付近の部位であり、部位B27は左すね下部付近の部位である)に分轄して、代表点D25、D27はそれぞれ部位B25、B27に対応させてもよい。   The representative points D25 and D27 are representative points set in association with the left shin portion of the object. The left shin part of the object is virtually divided into two parts B25 and B27 (part B25 is a part near the upper left shin and part B27 is a part near the lower shin), and representative points D25 and D27. May correspond to portions B25 and B27, respectively.

代表点D26、D28はオブジェクトの右すね部に対応付けて設定された代表点である。オブジェクトの右すね部を仮想的に2つの部位B26、B28(部位B26は左すね上部付近の部位であり、部位B28は左すね下部付近の部位である)に分轄して、代表点D26、D28はそれぞれ部位B26、B28に対応させてもよい。   The representative points D26 and D28 are representative points set in association with the right shin portion of the object. The right shin part of the object is virtually divided into two parts B26 and B28 (part B26 is a part near the upper left shin and part B28 is a part near the lower left shin), and representative points D26 and D28. May correspond to portions B26 and B28, respectively.

代表点D29、D31はオブジェクトの左足部に対応付けて設定された代表点である。オブジェクトの左足部を仮想的に2つの部位B29、B31(部位B29は左足上部付近の部位であり、部位B31は左足下部付近の部位である)に分轄して、代表点D29、D31はそれぞれ部位B29、B31に対応させてもよい。   The representative points D29 and D31 are representative points set in association with the left foot portion of the object. The left foot part of the object is virtually divided into two parts B29 and B31 (part B29 is a part near the upper left foot and part B31 is a part near the lower left foot), and the representative points D29 and D31 are respectively parts. You may make it respond | correspond to B29 and B31.

代表点D30、D32はオブジェクトの右足部に対応付けて設定された代表点である。オブジェクトの右足部を仮想的に2つの部位B30、B32(部位B30は右足上部付近の部位であり、部位B32は右足下部付近の部位である)に分轄して、代表点D30、D32はそれぞれ部位B30、B32に対応させてもよい。   The representative points D30 and D32 are representative points set in association with the right foot portion of the object. The right foot part of the object is virtually divided into two parts B30 and B32 (part B30 is a part near the upper right foot and part B32 is a part near the lower right foot), and the representative points D30 and D32 are respectively parts. You may make it respond | correspond to B30 and B32.

各代表点D1からD32は、例えば図7のスケルトンモデルを構成する骨B0〜B19の位置(関節J0〜J15の位置)に関連づけて、モデル情報として設定しておいてもよい。例えば骨B0〜B19上に代表点を設定してもよい。また関節J0〜J15を代表点としてもよい。   The representative points D1 to D32 may be set as model information in association with the positions of the bones B0 to B19 (positions of the joints J0 to J15) constituting the skeleton model of FIG. 7, for example. For example, representative points may be set on the bones B0 to B19. The joints J0 to J15 may be representative points.

そして各フレーム毎にオブジェクトの位置やモーション演算を行う際に、オブジェクトの位置情報や骨B0〜B19の位置(関節J0〜J15の位置)情報に基づき各代表点の位置座標を演算するようにしても良い。   When calculating the position and motion of the object for each frame, the position coordinates of each representative point are calculated based on the position information of the object and the positions of the bones B0 to B19 (positions of the joints J0 to J15). Also good.

図9は代表点の位置情報について説明するための図である。本実施の形態では、オブジェクトの代表点の位置情報を各フレーム毎に演算し、図9に示すように、オブジェクト情報310として、オブジェクトの代表点320の位置座標330を代表点320が属するオブジェクトOB1に関連づけて記憶させている。   FIG. 9 is a diagram for explaining position information of representative points. In this embodiment, the position information of the representative point of the object is calculated for each frame, and as shown in FIG. 9, the object coordinate OB1 to which the representative point 320 belongs is the position coordinate 330 of the representative point 320 of the object as the object information 310. It is stored in association with.

オブジェクトが有する各代表点320の位置情報330はたとえば、各代表点のワールド座標系における位置座標でもよいし、各オブジェクトのローカル座標系における位置座標でもよい。ただし、各オブジェクトのローカル座標系における位置座標としてもつ場合には、オブジェクトが複数の部分オブジェクトに分断された場合も同じローカル座標系の位置座標としてもつことが好ましい(例えば分断後も分断前のオブジェクトのローカル座標系における位置座標としてもってもよいし、分断後のいずれかの部分オブジェクトのローカル座標系における位置座標としてもってもよい)。   The position information 330 of each representative point 320 possessed by the object may be, for example, the position coordinate of each representative point in the world coordinate system or the position coordinate of each object in the local coordinate system. However, when each object has a position coordinate in the local coordinate system, it is preferable to have the position coordinate in the same local coordinate system even when the object is divided into a plurality of partial objects (for example, an object before the division before the division Or the position coordinates in the local coordinate system of one of the partial objects after the division.

またオブジェクトが有する各代表点の位置情報はオブジェクト情報として、オブジェクトに関連づけて保持されてもよい。オブジェクトが複数の部分オブジェクトに分断された後も、分断前のオブジェクトに関連づけてオブジェクトが有する各代表点の位置情報を管理するようにしてもよい。またオブジェクトが複数の部分オブジェクトに分断された後は、分断後の代表点の位置情報は、代表点が属する新たたな分断オブジェクトに関連づけて管理されてもよいし、いずれか一方のオブジェクトに関連づけて管理するようにしてもよい。例えば分断後の主たるオブジェクト(例えば分断後の本体にあたるほう)に関連づけて管理するようにしてもよい。   The position information of each representative point that the object has may be held as object information in association with the object. Even after the object is divided into a plurality of partial objects, the position information of each representative point of the object may be managed in association with the object before the division. Further, after the object is divided into a plurality of partial objects, the position information of the representative point after the division may be managed in association with a new divided object to which the representative point belongs, or may be associated with one of the objects. May be managed. For example, management may be performed in association with the main object after division (for example, the main object after division).

また各代表点の位置情報は、オブジェクトの分断前後に関わらず、オブジェクトが存在している間は、各フレーム毎にもとめるようにしても良いし、オブジェクトの分断後に分断された複数の部分オブジェクトに設定された前記複数の代表点の位置情報(位置座標等)を演算するようにしてもよい。   In addition, the position information of each representative point may be stopped for each frame as long as the object exists, regardless of before and after the division of the object, or the plurality of partial objects divided after the division of the object. You may make it calculate the positional information (position coordinates etc.) of the set representative points.

2−5.分断状態判断処理
本実施の形態では、前記代表点の位置情報に基づき、オブジェクトの分断状態(分断の有無、分断された部位等)を判断する。
2-5. In the present embodiment, based on the position information of the representative point, the divided state of the object (the presence or absence of division, the divided portion, etc.) is determined.

図10は、オブジェクトOB1(図8参照)が分断された場合の各代表点の距離の変化について説明するための図である。同図に示すようにオブジェクトOB1(図8参照)の頭部の右部分が分断されている。この場合分断後の代表点D1’と代表点D3’の距離K1’は、分断前の代表点D1’と代表点D3’の距離の距離K1と同じである。しかし分断後の代表点D1’と代表点D2’の距離L2は、分断前の代表点D1と代表点D2の距離の距離K2より長くなっている。代表点D1と代表点D3は同じ関節の同じ部位に設定された代表点であるため、分断されなければ距離は一定K1である。従って所与のフレームにおいて演算された代表点D1と代表点D3の距離がK1より大きくなった場合には、代表点D1が属する部位(ここではB1)と代表点D3が属する部位(ここではB3)が分断されていると判断することができる。   FIG. 10 is a diagram for explaining a change in the distance of each representative point when the object OB1 (see FIG. 8) is divided. As shown in the figure, the right part of the head of the object OB1 (see FIG. 8) is divided. In this case, the distance K1 'between the representative point D1' and the representative point D3 'after dividing is the same as the distance K1 between the representative point D1' and the representative point D3 'before dividing. However, the distance L2 between the representative point D1 'and the representative point D2' after the division is longer than the distance K2 between the representative point D1 and the representative point D2 before the division. Since the representative point D1 and the representative point D3 are representative points set in the same part of the same joint, the distance is a constant K1 unless divided. Therefore, when the distance between the representative point D1 and the representative point D3 calculated in a given frame is greater than K1, the part to which the representative point D1 belongs (here B1) and the part to which the representative point D3 belongs (here B3). ) Is divided.

また同図に示すように、オブジェクトOB1(図8参照)の右足部36が右すね部34から分断されている。この場合分断後の代表点D28’と代表点D30’の距離K3’は、分断前の代表点D28と代表点D30の距離の距離K3より長くなっている。ここで代表点D28と代表点D30は異なる関節の異なる部位に設定された代表点である。   As shown in the figure, the right foot portion 36 of the object OB1 (see FIG. 8) is divided from the right shin portion 34. In this case, the distance K3 'between the representative point D28' and the representative point D30 'after dividing is longer than the distance K3 between the representative point D28 and the representative point D30 before dividing. Here, the representative point D28 and the representative point D30 are representative points set in different parts of different joints.

図11は、分断前後の代表点D28と代表点D30の位置関係の変化について説明するための図である。右足部36と右すね部34は図示しない関節で接続されているため、右足部36と右すね部34の位置関係は変化する。例えば右足部36は右すね部34に対して、36−1〜36−3に示すように様々な位置関係を取ることができる。従って代表点D28と代表点D30の距離もK3−1〜K31−3と変化する。そこで変化可能な距離の最大値K3maxを求めておいて、代表点D28と代表点D30の距離が変化可能な距離の最大値K3maxより大きくなった場合には、代表点D1が属する部位(ここではB1)と代表点D3が属する部位(ここではB3)が分断されていると判断することができる。   FIG. 11 is a diagram for explaining a change in the positional relationship between the representative point D28 and the representative point D30 before and after the division. Since the right foot portion 36 and the right shin portion 34 are connected by a joint (not shown), the positional relationship between the right foot portion 36 and the right shin portion 34 changes. For example, the right foot portion 36 can take various positional relationships with the right shin portion 34 as shown in 36-1 to 36-3. Therefore, the distance between the representative point D28 and the representative point D30 also changes from K3-1 to K31-3. Therefore, the maximum value K3max of the changeable distance is obtained, and when the distance between the representative point D28 and the representative point D30 is larger than the maximum value K3max of the changeable distance, the part to which the representative point D1 belongs (here, It can be determined that the portion to which the representative point D3 and the representative point D3 belong (here B3) is divided.

2−6.分断ライン検出処理と分断ライン情報を用いた分断状態判断処理
本実施の形態の他の態様では、代表点間を結ぶ仮想的なラインを設定し、前記分断処理によって分断されたラインを検出し、分断されたラインを特定するための分断ライン情報を保持し、分断ライン情報に基づき、オブジェクトの分断状態を判断する。
2-6. In another aspect of this embodiment, a virtual line connecting representative points is set, and a line divided by the dividing process is detected. The division line information for specifying the divided line is held, and the division state of the object is determined based on the division line information.

図13は、代表点間に設定される仮想的なラインと、オブジェクトOB1(図8参照)が分断された場合の分断されるラインの検出について説明するための図である。同図に示すようにオブジェクトOB1が第1の仮想面410で分断された場合には、代表点D8と代表点D10を結ぶ仮想的なラインL1が分断されている。また同図に示すようにオブジェクトOB1が第2の仮想面420で分断された場合には、代表点D1と代表点D2を結ぶ仮想的なラインL2、代表点D3と代表点D4を結ぶ仮想的なラインL3、代表点D5と代表点D6を結ぶ仮想的なラインL4、代表点D19と代表点D20を結ぶ仮想的なラインL5が分断されている。   FIG. 13 is a diagram for explaining detection of a virtual line set between representative points and a divided line when the object OB1 (see FIG. 8) is divided. As shown in the figure, when the object OB1 is divided by the first virtual plane 410, a virtual line L1 connecting the representative point D8 and the representative point D10 is divided. As shown in the figure, when the object OB1 is divided by the second virtual plane 420, a virtual line L2 connecting the representative point D1 and the representative point D2, and a virtual line connecting the representative point D3 and the representative point D4. Line L3, a virtual line L4 connecting the representative point D5 and the representative point D6, and a virtual line L5 connecting the representative point D19 and the representative point D20 are divided.

本実施の形態では分断時の各代表点の位置情報と入力情報によって設定される分断用の仮想面の位置関係に基づき分断処理によって分断されたラインを検出する。そして分断されたラインを特定するための分断ライン情報を保持しておく。例えば図14(A)に示すように分断されたラインID452と、当該ラインに対応する代表点情報454(当該ラインの分断前の端点にあたる代表点ID)を分断ライン情報450として、分断ラインが属するオブジェクトOB1に関連づけて記憶させてもよい。   In the present embodiment, the line divided by the dividing process is detected based on the positional relationship between the position information of each representative point at the time of division and the virtual plane for division set by the input information. And the parting line information for specifying the parted line is hold | maintained. For example, as shown in FIG. 14A, the line ID 452 divided and the representative point information 454 corresponding to the line (representative point ID corresponding to the end point before dividing the line) are used as the divided line information 450, and the divided line belongs. The information may be stored in association with the object OB1.

このようにすると、分断ライン情報を参照することで、分断後の任意のタイミングでオブジェクトの分断状態を判断することが出来る。   In this way, the divided state of the object can be determined at an arbitrary timing after the division by referring to the division line information.

なお図7の関節J1〜J15を代表点とし、骨B1〜B19(骨は関節を繋ぐラインに相当)を代表点を繋ぐ仮想的なラインと考えて、分断される骨の情報を分断ライン情報として記憶してもよい。   In addition, considering the joints J1 to J15 in FIG. 7 as representative points and the bones B1 to B19 (the bones correspond to lines connecting the joints) as virtual lines connecting the representative points, the information on the bones to be divided is the division line information. May be stored as

この場合、図14(B)に示すように分断ライン情報460として、骨ID462と当該骨の分断の有無を示す分断フラグ464をもたせてもよい。   In this case, as shown in FIG. 14B, a bone ID 462 and a division flag 464 indicating whether or not the bone is divided may be provided as the division line information 460.

2−7.分断状態に応じたモーション選択
本実施の形態では、分断状態に対応づけてパターンの異なるモーションデータを記憶し、分断状態に基づき、対応するモーションデータを選択し、選択したモーションデータを用いて画像生成を行う。
2-7. In this embodiment, motion data with different patterns is stored in association with the divided state, the corresponding motion data is selected based on the divided state, and image generation is performed using the selected motion data. I do.

図12(A)(B)は、オブジェクトの分断状態のことなる例を示している。図12(A)は、オブジェクトOB1が、右股32と右すね34と右足36を含む第1の部分410とそれ以外の第2の部分420に分断された状態(第1の分断状態)を示している。   FIGS. 12A and 12B show different examples of the divided state of the object. FIG. 12A shows a state (first divided state) in which the object OB1 is divided into a first portion 410 including the right crotch 32, right shin 34, and right foot 36 and a second portion 420 other than the first portion 410. Show.

分断後は第1の部分410は第1の部分オブジェクトとなり、第2の部分420は第2の部分オブジェクトとなり、いずれも独立して移動動作する別個のオブジェクトとなる。   After the division, the first portion 410 becomes the first partial object, the second portion 420 becomes the second partial object, and both become separate objects that move independently.

図12(B)は、オブジェクトOB1が、左上腕26の下部と左下腕部28と左手部30を含む第3の部分430とそれ以外の第4の部分440に分断された状態(第2の分断状態)を示している。   FIG. 12B shows a state in which the object OB1 is divided into a third portion 430 including the lower portion of the left upper arm 26, the left lower arm portion 28, and the left hand portion 30 and a fourth portion 440 other than the third portion 430. Shows a divided state).

分断後は第3の部分430は第3の部分オブジェクトとなり、第4の部分440は第4の部分オブジェクトとなり、いずれも独立して移動動作する別個のオブジェクトとなる。   After the division, the third portion 430 becomes a third partial object, and the fourth portion 440 becomes a fourth partial object, and both become separate objects that move independently.

このような場合、分断後の第2の部分オブジェクトと第4の部分オブジェクトは、分断された部分が異なるので、使用するモーションデータも異なってくる。   In such a case, since the divided second portion object and the fourth partial object are different from each other, the motion data to be used is also different.

本実施の形態では、オブジェクトがどの部分が分断されたかに応じて異なる動作をさせるための分断された部位に応じたモーションデータが複数用意している。   In the present embodiment, a plurality of pieces of motion data are prepared in accordance with divided parts for different operations depending on which part of the object is divided.

例えば頭が分断された場合(第1の分断状態)では、本体(頭以外の部分)の動作を表現する場合にはモーションデータmd1を使用し、右腕が分断された場合(第2の分断状態)の本体(右腕以外の部分)の動作を表現する場合にはモーションデータmd2を使用し、左腕が分断された場合(第3の分断状態)の本体(左腕以外の部分)の動作を表現する場合にはモーションデータmd3を使用し、右足が分断された場合(第4の分断状態)の本体(右足以外の部分)の動作を表現する場合にはモーションデータmd4使用し、左足が分断された場合(第5の分断状態)の本体(左足以外の部分)の動作を表現する場合にはモーションデータmd5を使用するものとする。   For example, when the head is divided (first divided state), the motion data md1 is used to represent the movement of the main body (part other than the head), and the right arm is divided (second divided state). ) Of the main body (part other than the right arm) is used to express the motion of the main body (part other than the left arm) when the left arm is divided (third divided state). In this case, the motion data md3 is used, and the motion data md4 is used to represent the operation of the main body (part other than the right foot) when the right foot is divided (fourth divided state), and the left foot is divided. The motion data md5 is used to represent the operation of the main body (portion other than the left foot) in the case (the fifth divided state).

図12(A)の場合は第4の分断状態であるので、第2の部分オブジェクト420のモーションとしては、モーションデータmd4を選択する。また図12(B)の場合は第3の分断状態であるので、第4の部分オブジェクト440のモーションとしては、モーションデータmd3を選択する。   In the case of FIG. 12A, since the state is the fourth divided state, the motion data md4 is selected as the motion of the second partial object 420. In the case of FIG. 12B, since the third divided state, the motion data md3 is selected as the motion of the fourth partial object 440.

2−8.分断状態に応じたエフェクト選択
本実施形態では、プレーヤオブジェクトの攻撃により敵オブジェクトが切断された場合に、敵オブジェクトEOが受けたダメージを表すエフェクト表示物を、敵オブジェクトに関連付けて描画する。本実施の形態では敵オブジェクトの分断状態に応じて異なるパターのエフェクト標示物を標示する制御を行う。
2-8. Effect Selection According to Divided State In this embodiment, when an enemy object is disconnected due to an attack of a player object, an effect display object indicating damage received by the enemy object EO is drawn in association with the enemy object. In the present embodiment, control is performed so as to display effect display objects with different putters according to the division state of the enemy object.

図15(A)(B)は分断状態とエフェクトパターンについて説明するための図である。図15(A)は敵オブジェクトEOが、右股32で分断された状態(第1の分断状態)とそのときに分断後に表示されるエフェクト表示物450を示している。 図15(B)は敵オブジェクトEOが、左上腕26で分断された状態(第2の分断状態)とそのときに分断後に表示されるエフェクト表示物480を示している。   FIGS. 15A and 15B are diagrams for explaining the divided state and the effect pattern. FIG. 15A shows a state (first divided state) in which the enemy object EO is divided at the right crotch 32 and an effect display object 450 displayed after the division. FIG. 15B shows a state (second divided state) in which the enemy object EO is divided by the left upper arm 26 and the effect display object 480 displayed after the division at that time.

ここではエフェクト表示物として、分断によって敵オブジェクトEO(例えばロボット)から放出される液体(オイル)を表しているが、切断によって敵オブジェクトEOから放出される炎や光、或いはロボットを構成する部品を、エフェクト表示物として表示するようにしてもよい。   Here, as the effect display object, the liquid (oil) released from the enemy object EO (for example, the robot) by the division is shown, but the flame and light emitted from the enemy object EO by the cutting or the parts constituting the robot are shown. Alternatively, it may be displayed as an effect display object.

本実施の形態では図15(A)(B)に示すように敵オブジェクトEOの分断状態が異なると異なるパターンのエフェクト表示物を表示する。   In this embodiment, as shown in FIGS. 15A and 15B, effect display objects of different patterns are displayed when the division state of the enemy object EO is different.

異なるパターンのエフェクト表示物に対応した異なるモデルのエフェクト用オブジェクトを用意して、分断状態に応じて選択して、選択したエフェクト用オブジェクトを用いて画像生成を行うようにしてもよい。   It is also possible to prepare effect objects of different models corresponding to effect display objects of different patterns, select them according to the divided state, and generate an image using the selected effect objects.

また異なるパターンのエフェクト表示物に対応した異なるテクスチャを用意して、分断状態に応じて選択して、選択したテクスチャをもちいて画像生成を行うようにしてもよい。   Alternatively, different textures corresponding to effect display objects of different patterns may be prepared, selected according to the division state, and image generation may be performed using the selected texture.

また異なるパターンのエフェクト表示物に対応した異なるシェーディングパターンのプログラムを用意して、分断状態に応じて選択してピクセルシェーダーに実行させてもよい。   Also, different shading pattern programs corresponding to effect display objects of different patterns may be prepared, selected according to the division state, and executed by the pixel shader.

2−9.ゲームパラメータの演算
本実施形態では、分断状態に基づきゲームパラメータ(得点、体力、難易度等)を算出してもよい。
2-9. Calculation of Game Parameters In this embodiment, game parameters (scores, physical strength, difficulty level, etc.) may be calculated based on the divided state.

分断状態に基づき得点を算出する場合には、例えば倒した敵オブジェクトの分断状態に基づき分断された部位を判断して、部位に応じて設定された得点を加算するようにしてもよい。また分断状態に基づき分断された部位の数を判断し、部位の数に応じて設定された得点を加算するようにしても良い。   When the score is calculated based on the divided state, for example, the divided part may be determined based on the divided state of the defeated enemy object, and the score set according to the part may be added. Further, the number of divided parts may be determined based on the divided state, and a score set according to the number of parts may be added.

このようにすることで、敵オブジェクトEOに与えたダメージに応じた得点を得ることができる。本実施の形態によれば、代表点の位置情報や分断ライン情報に基づき分断状態が判断出来るので、ゲーム中任意のタイミングで分断状態の判断が出来る。また分断処理モジュール以外の他のモジュールにおいても代表点の位置情報や分断ライン情報に基づき分断状態が判断出来る。   In this way, a score corresponding to the damage given to the enemy object EO can be obtained. According to the present embodiment, since the divided state can be determined based on the position information of the representative points and the divided line information, the divided state can be determined at an arbitrary timing during the game. Further, in other modules other than the division processing module, the division state can be determined based on the representative point position information and the division line information.

3.処理
次に、本実施形態の処理の一例(代表点情報に基づき分断状態を判断を判断する場合)について図16のフローチャートを用いて説明する。本実施の形態では各フレーム毎に以下の処理を行う。
3. Processing Next, an example of processing according to the present embodiment (when determining the determination of the divided state based on representative point information) will be described with reference to the flowchart of FIG. In the present embodiment, the following processing is performed for each frame.

入力情報を受け付けると以下のステップS20〜S50の処理を行う(ステップS10)。   When the input information is received, the following steps S20 to S50 are performed (step S10).

まず前記入力情報に基づいてオブジェクトの位置座標を演算し、オブジェクトの位置座標に基づき代表点の位置座標を演算する(ステップS20)。   First, the position coordinates of the object are calculated based on the input information, and the position coordinates of the representative point are calculated based on the position coordinates of the object (step S20).

また入力情報に基づき敵オブジェクトとのヒットチェックを行う(ステップS30)。ヒット有りの場合には(ステップS40)、分断処理を行う(ステップS50)。入力情報が攻撃指示の入力情報である場合には、プレーヤオブジェクトから所定範囲内に位置する敵オブジェクトに対して、攻撃方向、プレーヤオブジェクトの位置、向き、敵オブジェクトの位置に基づき、仮想面を設定し、攻撃方向については、攻撃指示の入力情報(縦斬り攻撃入力情報であるか、横斬り攻撃入力情報であるか)に基づき判断して、敵オブジェクトと仮想面のヒットチェック処理を行い、ヒットした場合には敵オブジェクトを、設定した仮想面を境に複数のオブジェクトに切断(分離)する処理を行ってもよい。   Further, a hit check with the enemy object is performed based on the input information (step S30). If there is a hit (step S40), a dividing process is performed (step S50). If the input information is attack instruction input information, a virtual plane is set for an enemy object located within a predetermined range from the player object based on the attack direction, the position and orientation of the player object, and the position of the enemy object. The attack direction is determined based on the attack instruction input information (whether it is vertical slash attack input information or horizontal slash attack input information), and hit check processing of the enemy object and the virtual surface is performed, and the hit is performed. In this case, the enemy object may be cut (separated) into a plurality of objects with the set virtual plane as a boundary.

次にモーション選択タイミングである場合には(ステップS60)、代表点情報に基づき分断状態を判断し、分断状態に基づきモーションデータの選択を行う(ステップS70)。   Next, when it is the motion selection timing (step S60), the divided state is determined based on the representative point information, and the motion data is selected based on the divided state (step S70).

またゲームパラメータ算出タイミングである場合には(ステップS80)、代表点情報に基づき分断状態を判断し、分断状態に基づきゲームパラメータの算出を行う(ステップS90)。   If it is the game parameter calculation timing (step S80), the divided state is determined based on the representative point information, and the game parameter is calculated based on the divided state (step S90).

次に、本実施形態の他の処理の一例(分断ライン情報に基づき分断状態を判断を判断する場合)について図17のフローチャートを用いて説明する。本実施の形態では各フレーム毎に以下の処理を行う。   Next, an example of another process according to the present embodiment (in the case where the determination of the divided state is determined based on the divided line information) will be described with reference to the flowchart of FIG. In the present embodiment, the following processing is performed for each frame.

入力情報を受け付けると以下のステップS120〜S160の処理を行う(ステップS10)。   When the input information is received, the following steps S120 to S160 are performed (step S10).

まず前記入力情報に基づいてオブジェクトの位置座標を演算し、オブジェクトの位置座標に基づき代表点の位置座標を演算する(ステップS120)。   First, the position coordinates of the object are calculated based on the input information, and the position coordinates of the representative point are calculated based on the position coordinates of the object (step S120).

また入力情報に基づき敵オブジェクトとのヒットチェックを行う(ステップS130)。ヒット有りの場合には(ステップS140)、分断処理を行う(ステップS150)。入力情報が攻撃指示の入力情報である場合には、プレーヤオブジェクトから所定範囲内に位置する敵オブジェクトに対して、攻撃方向、プレーヤオブジェクトの位置、向き、敵オブジェクトの位置に基づき、仮想面を設定し、攻撃方向については、攻撃指示の入力情報(縦斬り攻撃入力情報であるか、横斬り攻撃入力情報であるか)に基づき判断して、敵オブジェクトと仮想面のヒットチェック処理を行い、ヒットした場合には敵オブジェクトを、設定した仮想面を境に複数のオブジェクトに切断(分離)する処理を行ってもよい。   Further, a hit check with the enemy object is performed based on the input information (step S130). If there is a hit (step S140), the dividing process is performed (step S150). If the input information is attack instruction input information, a virtual plane is set for an enemy object located within a predetermined range from the player object based on the attack direction, the position and orientation of the player object, and the position of the enemy object. The attack direction is determined based on the attack instruction input information (whether it is vertical slash attack input information or horizontal slash attack input information), and hit check processing of the enemy object and the virtual surface is performed, and the hit is performed. In this case, the enemy object may be cut (separated) into a plurality of objects with the set virtual plane as a boundary.

また代表点間を結ぶ仮想的なラインを設定し、前記分断処理によって分断されたラインを検出し、分断されたラインを特定するための分断ライン情報を保持する(ステップS160)
次にモーション選択タイミングである場合には(ステップS170)、分断ライン情報に基づき分断状態を判断し、分断状態に基づきモーションデータの選択を行う(ステップS180)。
Further, a virtual line connecting representative points is set, a line divided by the dividing process is detected, and divided line information for specifying the divided line is held (step S160).
Next, when it is the motion selection timing (step S170), the division state is determined based on the division line information, and the motion data is selected based on the division state (step S180).

またゲームパラメータ算出タイミングである場合には(ステップS190)、分断ライン情報に基づき分断状態を判断し、分断状態に基づきゲームパラメータの算出を行う(ステップS200)。   When it is the game parameter calculation timing (step S190), the division state is determined based on the division line information, and the game parameter is calculated based on the division state (step S200).

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。   The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

100 処理部、110 代表点位置情報演算部、111 オブジェクト空間設定部、
112 移動・動作処理部、113 仮想カメラ制御部、114 受け付け部、
115 分断状態判断部、116 分断処理部、117 分断ライン検出部、
118 ゲーム演算部、119 ヒットエフェクト処理部、120 描画部、
122 ジオメトリ処理部、124 シェーディング処理部、126 αブレンディング部、128 隠面消去部、130 音生成部、160 入力部、170 記憶部、171 主記憶部、172 モーションデータ記憶部、173 画像バッファ、174 エフェクトデータ記憶部、175 Zバッファ、179 オブジェクトデータ記憶部、
180 情報記憶媒体、190 表示部、192 音出力部、196 通信部
100 processing unit, 110 representative point position information calculation unit, 111 object space setting unit,
112 movement / motion processing unit, 113 virtual camera control unit, 114 receiving unit,
115 parting state determination unit, 116 parting processing unit, 117 parting line detection unit,
118 game calculation unit, 119 hit effect processing unit, 120 drawing unit,
122 geometry processing unit, 124 shading processing unit, 126 α blending unit, 128 hidden surface removal unit, 130 sound generation unit, 160 input unit, 170 storage unit, 171 main storage unit, 172 motion data storage unit, 173 image buffer, 174 Effect data storage unit, 175 Z buffer, 179 Object data storage unit,
180 information storage medium, 190 display unit, 192 sound output unit, 196 communication unit

Claims (5)

オブジェクト空間においてオブジェクトが分断される画像を生成するゲーム装置のためのプログラムであって、
入力情報を受け付ける受け付け手段と、
オブジェクトに複数の代表点を設定し、前記入力情報に基づいて代表点の位置情報を演算する代表点位置情報演算手段と、
前記入力情報に基づいてオブジェクトの分断の有無を判断し、分断ありと判断した場合にはオブジェクトを複数の部分オブジェクトに分断する分断処理を行う分断処理手段と、
前記代表点間を結ぶ仮想的なラインを設定し、前記分断処理によって分断されたラインを検出し、分断されたラインを特定するための分断ライン情報を分断ラインが属するオブジェクトに関連付けて保持する分断ライン検出手段と、
前記分断ライン情報に基づき、オブジェクトの分断状態を判断する分断状態判断手段と、
分断状態に基づき、画像生成処理またはゲームパラメータ演算処理の少なくとも1つを行う処理手段と、してコンピュータを機能させ、
前記処理手段は、
前記分断ライン情報に基づき、分断ラインが属する分断後の部分オブジェクトの移動や動作パターン、分断後の部分オブジェクトに付随するエフェクトパターンの少なくとも1つを決定して、決定した移動や動作パターン及びエフェクトパターンの少なくとも1つに従って画像生成処理を行う画像生成処理手段を含むことを特徴とするプログラム。
A program for a game device that generates an image in which an object is divided in an object space,
Receiving means for receiving input information;
Representative point position information calculating means for setting a plurality of representative points on the object and calculating position information of the representative points based on the input information;
Determining whether or not the object is divided based on the input information, and when it is determined that there is a division, a division processing unit that performs a division process for dividing the object into a plurality of partial objects;
A division that sets a virtual line connecting the representative points, detects a line divided by the division processing, and holds division line information for specifying the division line in association with an object to which the division line belongs Line detection means;
Based on the parting line information, a parting state judging means for judging a parting state of the object,
Based on the divided state, the computer functions as a processing unit that performs at least one of image generation processing or game parameter calculation processing ,
The processing means includes
Based on the dividing line information, at least one of the movement and operation pattern of the divided partial object to which the dividing line belongs and the effect pattern associated with the divided partial object is determined, and the determined movement, movement pattern, and effect pattern are determined. A program comprising image generation processing means for performing image generation processing according to at least one of the above.
請求項1において
前記代表点はオブジェクトを構成する部位に対応付けて設定されていることを特徴とするプログラム。
The program according to claim 1, wherein the representative point is set in association with a part constituting the object.
請求項1又は2において
前記画像生成処理手段は、
分断状態に対応づけてパターンの異なるモーションデータを記憶し、
分断状態に基づき、対応するモーションデータを選択し、選択したモーションデータを
用いて画像生成を行うことを特徴とするプログラム。
Oite <br/> the image generation processing means to claim 1 or 2,
Store motion data with different patterns in association with the divided state,
A program that selects corresponding motion data based on a divided state and generates an image using the selected motion data.
請求項1乃至のいずれかにおいて、
前記処理手段は、
分断状態に基づき、ゲーム処理に用いるゲームパラメータを演算し、ゲームパラメータに基づきゲーム演算を行うゲーム演算手段と、を含むことを特徴とするプログラム。
In any one of Claims 1 thru | or 3 ,
The processing means includes
And a game calculation means for calculating a game parameter used for the game process based on the divided state and performing a game calculation based on the game parameter.
オブジェクト空間においてオブジェクトが分断される画像を生成するゲームシステムであって、
入力情報を受け付ける受け付け手段と、
オブジェクトに複数の代表点を設定し、前記入力情報に基づいて代表点の位置情報を演算する代表点位置情報演算手段と、
前記入力情報に基づいてオブジェクトの分断の有無を判断し、分断ありと判断した場合にはオブジェクトを複数の部分オブジェクトに分断する分断処理を行う分断処理手段と、
前記代表点間を結ぶ仮想的なラインを設定し、前記分断処理によって分断されたラインを検出し、分断されたラインを特定するための分断ライン情報を分断ラインが属するオブジェクトに関連付けて保持する分断ライン検出手段と、
前記分断ライン情報に基づき、オブジェクトの分断状態を判断する分断状態判断手段と、
分断状態に基づき、画像生成処理またはゲームパラメータ演算処理の少なくとも1つを行う処理手段と、を含み、
前記処理手段は、
前記分断ライン情報に基づき、分断ラインが属する分断後の部分オブジェクトの移動や動作パターン、分断後の部分オブジェクトに付随するエフェクトパターンの少なくとも1つを決定して、決定した移動や動作パターン及びエフェクトパターンの少なくとも1つに従って画像生成処理を行う画像生成処理手段を含むことを特徴とするゲームシステム。
A game system for generating an image in which an object is divided in an object space,
Receiving means for receiving input information;
Representative point position information calculating means for setting a plurality of representative points on the object and calculating position information of the representative points based on the input information;
Determining whether or not the object is divided based on the input information, and when it is determined that there is a division, a division processing unit that performs a division process for dividing the object into a plurality of partial objects;
A division that sets a virtual line connecting the representative points, detects a line divided by the division processing, and holds division line information for specifying the division line in association with an object to which the division line belongs Line detection means;
Based on the parting line information, a parting state judging means for judging a parting state of the object,
Processing means for performing at least one of image generation processing or game parameter calculation processing based on the divided state,
The processing means includes
Based on the dividing line information, at least one of the movement and operation pattern of the divided partial object to which the dividing line belongs and the effect pattern associated with the divided partial object is determined, and the determined movement, movement pattern, and effect pattern are determined. An image generation processing means for performing an image generation process according to at least one of the above.
JP2009014822A 2009-01-26 2009-01-26 Program, information storage medium, and game system Active JP5241536B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009014822A JP5241536B2 (en) 2009-01-26 2009-01-26 Program, information storage medium, and game system
US12/694,167 US20100190556A1 (en) 2009-01-26 2010-01-26 Information storage medium, game program, and game system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009014822A JP5241536B2 (en) 2009-01-26 2009-01-26 Program, information storage medium, and game system

Publications (2)

Publication Number Publication Date
JP2010170505A JP2010170505A (en) 2010-08-05
JP5241536B2 true JP5241536B2 (en) 2013-07-17

Family

ID=42702581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009014822A Active JP5241536B2 (en) 2009-01-26 2009-01-26 Program, information storage medium, and game system

Country Status (1)

Country Link
JP (1) JP5241536B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3685829B2 (en) * 1994-12-29 2005-08-24 株式会社ナムコ 3D game device and image composition method
JP3822929B2 (en) * 1996-01-31 2006-09-20 株式会社バンダイナムコゲームス Image composition method and image composition apparatus
JP4632596B2 (en) * 2001-09-10 2011-02-16 株式会社バンダイナムコゲームス Image generation system, program, and information storage medium
JP2008119224A (en) * 2006-11-10 2008-05-29 Namco Bandai Games Inc Program, information storage medium, and game device

Also Published As

Publication number Publication date
JP2010170505A (en) 2010-08-05

Similar Documents

Publication Publication Date Title
US20100190556A1 (en) Information storage medium, game program, and game system
EP2466445B1 (en) Input direction determination terminal, method and computer program product
US9044669B2 (en) Program, information storage medium, and image generation system
EP2158948A2 (en) Image generation system, image generation method, and information storage medium
US20060217008A1 (en) Program, information storage medium, image generation system, and image generation method
JP2010033298A (en) Program, information storage medium, and image generation system
JP2008033521A (en) Program, information storage medium and image generation system
JP2010029398A (en) Program, information storage medium and image generation system
JP2008225985A (en) Image recognition system
JP7245605B2 (en) Game system, game providing method and program
JP3747050B1 (en) Program, information storage medium, and image generation system
JP2011053838A (en) Program, information storage medium, and image generation device
JP2013208373A (en) Program, information storage medium, and server
JP2020039403A (en) Program, game system and server system
JP2012234441A (en) Program, information storage medium, image generation system and server system
JP2008033522A (en) Program, information storage medium and image generation system
JP3786670B1 (en) Program, information storage medium, and image generation system
JP3748451B1 (en) Program, information storage medium, and image generation system
JP2007249521A (en) Program, information storage medium and image generation system
US6890261B2 (en) Game system, program and image generation method
JP2009129167A (en) Program, information storage medium, and image generation system
US7129945B2 (en) Image generation method, program and information storage medium
JP5241536B2 (en) Program, information storage medium, and game system
JP5558008B2 (en) Program, information storage medium, and game system
JP5054908B2 (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120125

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20120125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130402

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5241536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250