JP4642104B2 - Image generation system and information storage medium - Google Patents

Image generation system and information storage medium Download PDF

Info

Publication number
JP4642104B2
JP4642104B2 JP2008288251A JP2008288251A JP4642104B2 JP 4642104 B2 JP4642104 B2 JP 4642104B2 JP 2008288251 A JP2008288251 A JP 2008288251A JP 2008288251 A JP2008288251 A JP 2008288251A JP 4642104 B2 JP4642104 B2 JP 4642104B2
Authority
JP
Japan
Prior art keywords
motion
hit
posture
enemy character
storage medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2008288251A
Other languages
Japanese (ja)
Other versions
JP2009028561A (en
Inventor
篤 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2008288251A priority Critical patent/JP4642104B2/en
Publication of JP2009028561A publication Critical patent/JP2009028561A/en
Application granted granted Critical
Publication of JP4642104B2 publication Critical patent/JP4642104B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

本発明は、画像生成システム及び情報記憶媒体に関する。   The present invention relates to an image generation system and an information storage medium.

従来より、仮想的な3次元空間であるオブジェクト空間内の所与の視点から見える画像を生成する画像生成システムが知られており、いわゆる仮想現実を体験できるものとして人気が高い。ガンゲームを楽しむことができる画像生成システムを例にとれば、プレーヤ(操作者)は、銃などを模して作られたガン型コントローラ(シューティングデバイス)を用いて、画面に映し出される敵キャラクタ(オブジェクト)などの標的オブジェクトをシューティングすることで、3次元ゲームを楽しむ。   2. Description of the Related Art Conventionally, an image generation system that generates an image that can be seen from a given viewpoint in an object space that is a virtual three-dimensional space is known, and is popular as being able to experience so-called virtual reality. Taking an image generation system that can enjoy a gun game as an example, a player (operator) uses a gun-type controller (shooting device) imitating a gun or the like to display enemy characters (screened on the screen). Enjoy 3D games by shooting target objects such as objects.

さて、このような画像生成システムでは、プレーヤの仮想現実感の向上のために、よりリアルな画像を生成することが重要な技術的課題になっている。従って、敵キャラクタのモーションについてもリアルに表現できることが望まれる。そして、これまでの画像生成システムでは、予め用意されたモーションデータを選択し、選択されたモーションデータに基づきモーション再生することで敵キャラクタのモーションを表現していた。   In such an image generation system, it is an important technical problem to generate a more realistic image in order to improve the player's virtual reality. Therefore, it is desirable that the motion of the enemy character can be expressed realistically. In conventional image generation systems, motion data of an enemy character is expressed by selecting motion data prepared in advance and reproducing the motion based on the selected motion data.

しかしながら、このようにモーションデータに基づきモーション再生する手法には、以下のような問題点があった。
(1)敵キャラクタを撃っても、敵キャラクタはいつも同じ動きしか行わないため、モーションの表現が単調になる。
(2)敵キャラクタに追い撃ちをかけた場合に、1発目のショット(弾)のヒットにより開始したモーション再生が、2発目のショットのヒットにより打ち切られてしまい、敵キャラクタのモーションが不自然になる。
(3)敵キャラクタのモーションのバリエーションを増やすためには、それに比例してモーションデータを増やす必要がある。しかしながら、モーションデータを記憶するメモリの容量は有限であるため、モーションのバリエーションの増加には限界がある。
However, the method of reproducing the motion based on the motion data as described above has the following problems.
(1) Even if an enemy character is shot, since the enemy character always performs only the same movement, the expression of motion becomes monotonous.
(2) When an enemy character is chased, the motion playback started by the first shot (bullet) hit is interrupted by the second shot hit, and the enemy character's motion is not good. Become natural.
(3) In order to increase the motion variation of the enemy character, it is necessary to increase the motion data in proportion thereto. However, since the capacity of a memory for storing motion data is limited, there is a limit to the increase in motion variations.

また、これまでの画像生成システムでは、多数のショットがヒットすることにより、敵キャラクタがよろけながら後ずさりするというようなリアルなモーション表現を実現できなかったという課題もある。   In addition, the conventional image generation system has a problem in that a realistic motion expression in which an enemy character moves backward while moving by hitting a large number of shots cannot be realized.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、よりリアルなモーション表現を少ないデータ量で実現できる画像生成システム及び情報記憶媒体を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image generation system and an information storage medium capable of realizing a more realistic motion expression with a small amount of data. .

上記課題を解決するために、本発明は、画像を生成するための画像生成システムであって、複数の部位により構成されるオブジェクトが、接地している第1の部位を支点として倒れるように動くと共に、オブジェクトが倒れるのを制限する位置に設定された移動目標位置に、接地していない第2の部位が移動するように、オブジェクトのモーションを生成する手段と、モーションが生成されたオブジェクトの画像を含む画像を生成する手段とを含むことを特徴とする。また本発明に係る情報記憶媒体は、コンピュータにより使用可能な情報記憶媒体であって、上記手段を実現(実行)するための情報(プログラム或いはデータ等)を含むことを特徴とする。また本発明に係るプログラムは、コンピュータにより使用可能なプログラムであって、上記手段を実現(実行)するための処理ルーチンを含むことを特徴とする。   In order to solve the above-described problem, the present invention is an image generation system for generating an image, and an object composed of a plurality of parts moves so as to fall on the grounded first part as a fulcrum. And means for generating the motion of the object so that the second part that is not grounded moves to the movement target position set to a position that restricts the object from falling, and an image of the object in which the motion is generated And means for generating an image including. The information storage medium according to the present invention is an information storage medium that can be used by a computer, and includes information (program or data) for realizing (executing) the above means. The program according to the present invention is a program that can be used by a computer, and includes a processing routine for realizing (executing) the above means.

本発明によれば、まず、接地している第1の部位(例えば左足)を支点として倒れるようにオブジェクトが動く。そして、それと同時に、オブジェクトが倒れる(傾く)のを制限する位置(支える位置)である移動目標位置に、接地していない第2の部位(例えば右足)が移動する。このようにオブジェクトのモーションを生成することで、例えば、倒れそうでなかなか倒れず、よろけながら動くオブジェクトのモーションを表現できるようになる。これにより、モーション再生では得られないリアルで多様なモーション表現を実現できる。   According to the present invention, first, the object moves so as to fall down with the first part (for example, the left foot) in contact with the ground as a fulcrum. At the same time, the second part that is not in contact with the ground (for example, the right foot) moves to a movement target position that is a position (supporting position) that restricts the object from falling (tilting). By generating the motion of the object in this way, for example, it is possible to express the motion of the object that moves while swaying without falling easily. As a result, real and diverse motion expressions that cannot be obtained by motion playback can be realized.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、オブジェクトの仮想重心に仮想重力を作用させることで得られる力を、オブジェクトの代表点に作用させることで、前記第1の部位を支点として倒れるようにオブジェクトを動かすことを特徴とする。このようにすれば、あたかも本当の重力の作用によりオブジェクトがバランスを崩して倒れているかのように見せることができ、画像のリアル度を増すことができる。   The image generation system, the information storage medium, and the program according to the present invention may be configured such that the force obtained by applying virtual gravity to the virtual center of gravity of the object is applied to the representative point of the object, thereby supporting the first part as a fulcrum. It is characterized by moving the object to fall down. In this way, it is possible to make it appear as if the object has fallen out of balance due to the action of real gravity, and the realism of the image can be increased.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、前記第2の部位の前記移動目標位置が、オブジェクトの仮想重心を接地面に投影した位置に関して前記第1の部位と点対称の位置であることを特徴とする。このようにすれば、倒れそうなオブジェクトを安定的に支えることができるようになり、倒れそうでなかなか倒れないというオブジェクトの動きを表現できるようになる。   In the image generation system, the information storage medium, and the program according to the present invention, the movement target position of the second part is a point-symmetrical position with respect to the first part with respect to the position where the virtual center of gravity of the object is projected onto the ground plane. It is characterized by being. In this way, an object that is likely to fall can be stably supported, and the movement of the object that is likely to fall and cannot be easily fallen down can be expressed.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、前記第1、第2の部位が共に接地している場合には、前記第1、第2の部位のいずれか一方を浮かせることを特徴とする。このようにすれば、第1、第2の部位が接地した状態でオブジェクトが全く動かなくなるという事態を防止できるようになる。   The image generation system, the information storage medium, and the program according to the present invention float one of the first and second parts when both the first and second parts are grounded. Features. In this way, it is possible to prevent a situation in which the object does not move at all with the first and second parts grounded.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、オブジェクトの第Nの部位がヒットされた場合に、ヒット情報に基づく物理シミュレーションにより第Nの部位を動かすと共に第N+1の部位、第N+2の部位、第N+3の部位・・・・にヒット情報を順次伝達し、伝達されたヒット情報に基づく物理シミュレーションにより第N+1の部位、第N+2の部位、第N+3の部位・・・・を順次動かして、オブジェクトのモーションを生成することを特徴とする。   The image generation system, information storage medium, and program according to the present invention, when the Nth part of the object is hit, moves the Nth part by physical simulation based on the hit information, and the (N + 1) th part, the (N + 2) th part. The hit information is sequentially transmitted to the N + th part, the (N + 3) th part,..., And the N + 1th part, the N + 2th part, the N + 3th part,... Are sequentially moved by physical simulation based on the transmitted hit information. And generating motion of the object.

本発明によれば、オブジェクトの第Nの部位がヒットされると、ヒット情報に基づく物理シミュレーション(疑似的な物理シミュレーションを含む)により、第Nの部位が動く(回転又は移動する)ようになる。また、ヒット情報が第N+1、第N+2の部位等に順次伝達され、伝達されたヒット情報に基づいて第N+1、第N+2の部位等が動くようになる。本発明によれば、このようにしてオブジェクトのモーションが生成されるため、例えばヒット位置、ヒット方向等に応じて、オブジェクトが異なったモーションを行うようになる。この結果、リアルで多様なモーション表現を実現できる。   According to the present invention, when the Nth part of the object is hit, the Nth part moves (rotates or moves) by physical simulation (including pseudo physical simulation) based on the hit information. . Also, hit information is sequentially transmitted to the (N + 1) th, (N + 2) th portion, etc., and the (N + 1) th, (N + 2) th portion, etc. move based on the transmitted hit information. According to the present invention, since the motion of the object is generated in this way, the object performs a different motion depending on, for example, the hit position and the hit direction. As a result, real and diverse motion expressions can be realized.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、ヒット情報が、ヒット方向に向く力ベクトルであり、前記力ベクトルにより求められる回転モーメントにより各部位を動かすことを特徴とする。このようにすれば、力ベクトルで各部位を動かしたり、力ベクトルを各部位に伝達するだけという簡素な処理で、リアルで多様なモーション表現を実現できるようになる。   In the image generation system, the information storage medium, and the program according to the present invention, the hit information is a force vector directed in the hit direction, and each part is moved by a rotational moment obtained from the force vector. In this way, real and diverse motion expressions can be realized by a simple process of moving each part with a force vector and transmitting the force vector to each part.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、各部位に力ベクトルを伝達する際に、伝達する力ベクトルの大きさを順次減衰させることを特徴とする。このようにすれば、ヒット位置に近い部位ほど大きく動くようになり、リアルなモーション変化を簡素な処理で実現できるようになる。   The image generation system, information storage medium, and program according to the present invention are characterized by sequentially attenuating the magnitude of a force vector to be transmitted when the force vector is transmitted to each part. In this way, the portion closer to the hit position moves more greatly, and a realistic motion change can be realized with a simple process.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、各部位の角速度に応じた回転抵抗力を、各部位に作用させることを特徴とする。このようにすれば、各部位の角速度が過大になって、生成されるモーションが不自然なものになってしまう事態を防止できるようになる。   In addition, the image generation system, the information storage medium, and the program according to the present invention are characterized in that a rotational resistance force corresponding to the angular velocity of each part is applied to each part. In this way, it is possible to prevent a situation where the angular velocity of each part becomes excessive and the generated motion becomes unnatural.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、オブジェクトを所与の姿勢に戻すための復元力を、各部位に作用させることを特徴とする。このようにすれば、例えば、連続してヒットされた場合にも、なかなか倒されないようなオブジェクトを表現できるようになる。   The image generation system, information storage medium, and program according to the present invention are characterized in that a restoring force for returning an object to a given posture is applied to each part. In this way, for example, it is possible to express an object that is not easily defeated even when hits are made consecutively.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、オブジェクトがヒットされた場合に、オブジェクトのモーションをモーションデータに基づき再生する処理から、オブジェクトのモーションを物理シミュレーションにより生成する処理に切り替えることを特徴とする。   The image generation system, the information storage medium, and the program according to the present invention switch from the process of reproducing the object motion based on the motion data to the process of generating the object motion by physical simulation when the object is hit. It is characterized by.

本発明によれば、例えばオブジェクトがヒットされる前は、モーション再生によりオブジェクトが動き、オブジェクトがヒットされると、モーション生成によりオブジェクトが動くようになる。従って、ヒット前においては、モーション生成によってはその実現が難しいオブジェクトの動きを、モーション再生を利用して簡易に実現できるようになる。一方、ヒット後においては、モーション再生によっては多くのモーションデータ量が必要になるオブジェクトの多彩な動きを、モーション生成を利用して少ないデータ量で実現できるようになる。   According to the present invention, for example, before an object is hit, the object moves by motion reproduction, and when the object is hit, the object moves by motion generation. Therefore, before the hit, the movement of the object, which is difficult to realize by motion generation, can be easily realized by using the motion reproduction. On the other hand, after a hit, various motions of an object that requires a large amount of motion data depending on the motion playback can be realized with a small amount of data using motion generation.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、所与の条件が成立した場合に、オブジェクトのモーションを物理シミュレーションにより生成する処理から、オブジェクトのモーションをモーションデータに基づき再生する処理に切り替えることを特徴とする。   In addition, the image generation system, information storage medium, and program according to the present invention change from processing that generates object motion by physical simulation to processing that reproduces object motion based on motion data when a given condition is met. It is characterized by switching.

本発明によれば、所与の条件が成立する前は、モーション生成によりオブジェクトが動き、所与の条件が成立すると、モーション再生によりオブジェクトが動くようになる。このようにすれば、モーション生成によってはその実現が難しいオブジェクトの動きが必要な状況が生じた場合にも、容易にこれに対処できるようになる。   According to the present invention, before a given condition is established, the object moves by motion generation, and when the given condition is established, the object moves by motion reproduction. In this way, it becomes possible to easily cope with a situation in which a motion of an object that is difficult to realize depending on motion generation occurs.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、オブジェクトがヒットされてから所与の時間が経過した場合及びオブジェクトのパラメータが所与の値になった場合の少なくとも一方の場合に、オブジェクトのモーションを物理シミュレーションにより生成する処理から、オブジェクトのモーションをモーションデータに基づき再生する処理に切り替えることを特徴とする。但し、本発明における所与の条件は、このような、所与の時間が経過したという条件や、パラメータが所与の値になったという条件に限定されるものではない。   Further, the image generation system, the information storage medium, and the program according to the present invention are provided when at least one of a case where a given time has passed since the object was hit and a case where the parameter of the object has a given value. It is characterized in that the process of generating the object motion by physical simulation is switched to the process of reproducing the object motion based on the motion data. However, a given condition in the present invention is not limited to such a condition that a given time has passed and a condition that a parameter has a given value.

また本発明に係る画像生成システム、情報記憶媒体及びプログラムは、物理シミュレーションにより生成されるモーションとモーションデータに基づき再生されるモーションとを繋ぐ繋ぎモーションを、オブジェクトに行わせることを特徴とする。このようにすれば、モーション生成、モーション再生間の切り替え時において、モーションを滑らかに且つ自然に変化させることができるようになる。   The image generation system, information storage medium, and program according to the present invention are characterized by causing an object to perform a connecting motion that connects a motion generated by a physical simulation and a motion reproduced based on the motion data. In this way, the motion can be changed smoothly and naturally when switching between motion generation and motion playback.

以下、本発明の好適な実施形態について図面を用いて説明する。なお以下では、本発明を、ガン型コントローラを用いたガンゲーム(シューティングゲーム)に適用した場合を例にとり説明するが、本発明はこれに限定されず、種々のゲームに適用できる。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. Hereinafter, a case where the present invention is applied to a gun game (shooting game) using a gun-type controller will be described as an example. However, the present invention is not limited to this and can be applied to various games.

1.構成
図1に、本実施形態を業務用ゲームシステムに適用した場合の構成例を示す。
1. Configuration FIG. 1 shows a configuration example when the present embodiment is applied to an arcade game system.

プレーヤ500は、本物のマシンガンを模して作られたガン型コントローラ(広義にはシューティングデバイス)502を構える。そして、画面504に映し出される敵キャラクタ(広義にはオブジェクト)などの標的オブジェクトを狙ってシューティングすることでガンゲームを楽しむ。   The player 500 has a gun-type controller (shooting device in a broad sense) 502 that is made by imitating a real machine gun. Then, a gun game is enjoyed by shooting with a target object such as an enemy character (object in a broad sense) displayed on the screen 504.

特に、本実施形態のガン型コントローラ502は、引き金を引くと、仮想的なショット(弾)が高速で自動的に連射される。従って、あたかも本物のマシンガンを撃っているかのような仮想現実感をプレーヤに与えることができる。   In particular, when the gun-type controller 502 of this embodiment pulls a trigger, virtual shots (bullets) are automatically fired at high speed. Therefore, it is possible to give the player a virtual reality as if it were shooting a real machine gun.

なお、ショットのヒット位置(着弾位置)は、ガン型コントローラ502に光センサを設け、この光センサを用いて画面の走査光を検知することで検出してもよいし、ガン型コントローラ502から光(レーザー光)を発射し、この光の照射位置をCCDカメラなどを用いて検知することで検出してもよい。   The shot hit position (landing position) may be detected by providing an optical sensor in the gun-type controller 502 and detecting the scanning light of the screen using this optical sensor. (Laser light) may be emitted, and the irradiation position of this light may be detected by using a CCD camera or the like.

図2に、本実施形態のブロック図の一例を示す。なお同図において本実施形態は、少なくとも処理部100を含めばよく(或いは処理部100と記憶部140、或いは処理部100と記憶部140と情報記憶媒体150を含めばよく)、それ以外のブロック(例えば操作部130、画像生成部160、表示部162、音生成部170、音出力部172、通信部174、I/F部176、メモリーカード180等)については、任意の構成要素とすることができる。   FIG. 2 shows an example of a block diagram of the present embodiment. In this figure, the present embodiment may include at least the processing unit 100 (or may include the processing unit 100 and the storage unit 140, or the processing unit 100, the storage unit 140, and the information storage medium 150), and other blocks. (For example, the operation unit 130, the image generation unit 160, the display unit 162, the sound generation unit 170, the sound output unit 172, the communication unit 174, the I / F unit 176, the memory card 180, etc.) are optional components. Can do.

ここで処理部100は、システム全体の制御、システム内の各ブロックへの命令の指示、ゲーム演算などの各種の処理を行うものであり、その機能は、CPU(CISC型、RISC型)、DSP、或いはASIC(ゲートアレイ等)などのハードウェアや、所与のプログラム(ゲームプログラム)により実現できる。   Here, the processing unit 100 performs various processes such as control of the entire system, instruction instruction to each block in the system, and game calculation, and functions thereof are a CPU (CISC type, RISC type), DSP. Alternatively, it can be realized by hardware such as an ASIC (gate array or the like) or a given program (game program).

操作部130は、プレーヤが操作データを入力するためのものであり、その機能は、図1のガン型コントローラ502、レバー、ボタンなどのハードウェアにより実現できる。   The operation unit 130 is for the player to input operation data, and the function can be realized by hardware such as the gun-type controller 502, lever, button, and the like in FIG.

記憶部140は、処理部100、画像生成部160、音生成部170、通信部174、I/F部176などのワーク領域となるもので、その機能はRAMなどのハードウェアにより実現できる。   The storage unit 140 serves as a work area such as the processing unit 100, the image generation unit 160, the sound generation unit 170, the communication unit 174, and the I / F unit 176, and its functions can be realized by hardware such as a RAM.

情報記憶媒体(コンピュータにより使用可能な記憶媒体)150は、プログラムやデータなどの情報を格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いは半導体メモリ(ROM)などのハードウェアにより実現できる。処理部100は、この情報記憶媒体150に格納される情報に基づいて本発明(本実施形態)の種々の処理を行う。即ち情報記憶媒体150には、本発明(本実施形態)の手段(特に処理部100に含まれるブロック)を実現(実行)するための種々の情報(プログラム、データ)が格納される。   An information storage medium (storage medium usable by a computer) 150 stores information such as programs and data, and functions thereof are an optical disk (CD, DVD), a magneto-optical disk (MO), a magnetic disk, and a hard disk. It can be realized by hardware such as a magnetic tape or a semiconductor memory (ROM). The processing unit 100 performs various processes of the present invention (this embodiment) based on information stored in the information storage medium 150. That is, the information storage medium 150 stores various information (programs, data) for realizing (executing) the means (particularly, the blocks included in the processing unit 100) of the present invention (this embodiment).

なお、情報記憶媒体150に格納される情報の一部又は全部は、システムへの電源投入時等に記憶部140に転送されることになる。また情報記憶媒体150に記憶される情報は、本発明の処理を行うためのプログラムコード、画像情報、音情報、表示物の形状情報、テーブルデータ、リストデータ、プレーヤ情報や、本発明の処理を指示するための情報、その指示に従って処理を行うための情報等の少なくとも1つを含むものである。   Part or all of the information stored in the information storage medium 150 is transferred to the storage unit 140 when the system is powered on. Information stored in the information storage medium 150 includes program code, image information, sound information, shape information of display objects, table data, list data, player information, and processing of the present invention. It includes at least one of information for instructing, information for performing processing in accordance with the instruction, and the like.

画像生成部160は、処理部100からの指示等にしたがって、各種の画像を生成し表示部162に出力するものであり、その機能は、画像生成用ASIC、CPU、或いはDSPなどのハードウェアや、所与のプログラム(画像生成プログラム)、画像情報により実現できる。   The image generation unit 160 generates various images in accordance with instructions from the processing unit 100 and outputs them to the display unit 162. The function of the image generation unit 160 is hardware such as an image generation ASIC, CPU, or DSP, It can be realized by a given program (image generation program) and image information.

音生成部170は、処理部100からの指示等にしたがって、各種の音を生成し音出力部172に出力するものであり、その機能は、音生成用ASIC、CPU、或いはDSPなどのハードウェアや、所与のプログラム(音生成プログラム)、音情報(波形データ等)により実現できる。   The sound generation unit 170 generates various sounds in accordance with instructions from the processing unit 100 and outputs them to the sound output unit 172. The function of the sound generation unit 170 is a hardware such as a sound generation ASIC, CPU, or DSP. Alternatively, it can be realized by a given program (sound generation program) and sound information (waveform data, etc.).

通信部174は、外部装置(例えばホスト装置や他の画像生成システム)との間で通信を行うための各種の制御を行うものであり、その機能は、通信用ASIC、或いはCPUなどのハードウェアや、所与のプログラム(通信プログラム)により実現できる。   The communication unit 174 performs various controls for communicating with an external device (for example, a host device or other image generation system), and functions as a hardware such as a communication ASIC or a CPU. Alternatively, it can be realized by a given program (communication program).

なお本発明(本実施形態)の処理を実現するための情報は、ホスト装置(サーバー)が有する情報記憶媒体からネットワーク及び通信部174を介して情報記憶媒体150に配信するようにしてもよい。このようなホスト装置(サーバー)の情報記憶媒体の使用も本発明の範囲内に含まれる。   Note that information for realizing the processing of the present invention (this embodiment) may be distributed from the information storage medium of the host device (server) to the information storage medium 150 via the network and the communication unit 174. Use of such an information storage medium of the host device (server) is also included in the scope of the present invention.

また処理部100の機能の一部又は全部を、画像生成部160、音生成部170、又は通信部174の機能により実現するようにしてもよい。或いは、画像生成部160、音生成部170、又は通信部174の機能の一部又は全部を、処理部100の機能により実現するようにしてもよい。   Further, part or all of the functions of the processing unit 100 may be realized by the functions of the image generation unit 160, the sound generation unit 170, or the communication unit 174. Alternatively, part or all of the functions of the image generation unit 160, the sound generation unit 170, or the communication unit 174 may be realized by the function of the processing unit 100.

I/F部176は、処理部100からの指示等にしたがってメモリーカード(広義には、携帯型ゲーム機などを含む携帯型情報記憶装置)180との間で情報交換を行うためのインターフェースとなるものであり、その機能は、メモリーカードを挿入するためのスロットや、データ書き込み・読み出し用コントローラICなどにより実現できる。なお、メモリーカード180との間の情報交換を赤外線などの無線を用いて実現する場合には、I/F部176の機能は、半導体レーザ、赤外線センサーなどのハードウェアにより実現できる。   The I / F unit 176 serves as an interface for exchanging information with a memory card 180 (in a broad sense, a portable information storage device including a portable game machine) according to an instruction from the processing unit 100. This function can be realized by a slot for inserting a memory card, a controller IC for data writing / reading, and the like. In the case where information exchange with the memory card 180 is realized using radio waves such as infrared rays, the function of the I / F unit 176 can be realized by hardware such as a semiconductor laser and an infrared sensor.

処理部100は、ゲーム演算部110を含む。   The processing unit 100 includes a game calculation unit 110.

ここでゲーム演算部110は、コイン(代価)の受け付け処理、各種モードの設定処理、ゲームの進行処理、選択画面の設定処理、オブジェクト(キャラクタ、移動体)の位置や回転角度(X、Y又はZ軸回り回転角度)を決める処理、視点位置や視線角度を決める処理、オブジェクトのモーションを再生又は生成する処理、オブジェクト空間へオブジェクトを配置する処理、ヒットチェック処理、ゲーム結果(成果、成績)を演算する処理、複数のプレーヤが共通のゲーム空間でプレイするための処理、或いはゲームオーバー処理などの種々のゲーム演算処理を、操作部130からの操作データ、メモリーカード180からのデータ、ゲームプログラムなどに基づいて行う。   Here, the game calculation unit 110 accepts coins (costs), sets various modes, progresses the game, sets the selection screen, and positions and rotation angles (X, Y or Z-axis rotation angle), viewpoint position and line-of-sight angle determination process, object motion playback or generation process, object placement process in object space, hit check process, game results (results, results) Various game calculation processes such as a calculation process, a process for a plurality of players to play in a common game space, or a game over process, operation data from the operation unit 130, data from the memory card 180, game program, etc. Based on.

ゲーム演算部110は、ヒットチェック部112、モーション再生部114、モーション生成部116、切り替え部122を含む。   The game calculation unit 110 includes a hit check unit 112, a motion playback unit 114, a motion generation unit 116, and a switching unit 122.

ここで、ヒットチェック部112は、ガン型コントローラを用いてプレーヤが発射したショットがオブジェクトにヒットしたか否かを調べるヒットチェック処理を行う。なお、処理負担の軽減化のためには、オブジェクトの形状を簡易化した簡易オブジェクトを用いてヒットチェック処理を行うことが望ましい。   Here, the hit check unit 112 performs hit check processing for checking whether or not the shot shot by the player hits the object using the gun-type controller. In order to reduce the processing load, it is desirable to perform hit check processing using a simple object with a simplified object shape.

モーション再生部114は、オブジェクト(敵キャラクタ等)のモーションを、モーションデータ記憶部142に記憶されているモーションデータに基づいて再生する処理を行う。即ち、モーションデータ記憶部142には、オブジェクトの各基準モーションでの各部位(パーツ)の位置データや角度データを含むモーションデータが記憶されている。モーション再生部114は、このモーションデータを読み出し、このモーションデータに基づいてオブジェクトの各部位を動かすことで、オブジェクトのモーションを再生する。   The motion playback unit 114 performs processing for playing back the motion of an object (such as an enemy character) based on the motion data stored in the motion data storage unit 142. That is, the motion data storage unit 142 stores motion data including position data and angle data of each part (part) in each reference motion of the object. The motion reproducing unit 114 reads out the motion data, and reproduces the motion of the object by moving each part of the object based on the motion data.

モーション生成部116は、オブジェクトのモーションを、物理シミュレーション(物理計算を利用したシミュレーション。物理計算は擬似的な物理計算でもよい)により生成する処理を行う。即ち本実施形態では、ヒット(被弾)時等における、オブジェクト(敵キャラクタ等)のモーションを、モーションデータに基づくモーション再生ではなく、物理シミュレーションによりリアルタイムに生成するようにしている。このように物理シミュレーションによりモーションを生成することで、モーションデータに基づくモーション再生に比べて、バラエティ度が高くリアルなモーション表現を、使用データ量を抑えながら実現できるようになる。   The motion generation unit 116 performs processing for generating an object motion by physical simulation (simulation using physical calculation. The physical calculation may be pseudo physical calculation). In other words, in this embodiment, the motion of an object (such as an enemy character) at the time of a hit (shot) is generated in real time by physical simulation instead of motion playback based on motion data. By generating a motion by physical simulation in this way, it is possible to realize a realistic motion expression with a high degree of variety compared to motion playback based on motion data while suppressing the amount of data used.

モーション生成部116は、ヒット(被弾)時モーション生成部118と下半身モーション生成部120を含む。   The motion generation unit 116 includes a hit-time motion generation unit 118 and a lower body motion generation unit 120.

ここで、ヒット時モーション生成部118は、ヒット時におけるオブジェクトのモーションを生成する処理を行う。より具体的には、オブジェクトの第Nの部位がヒットされた場合には、ヒット情報(ヒット方向を向く力ベクトル等)に基づく物理シミュレーションにより、その第Nの部位を動かすと共に、隣の第N+1、第N+2、第N+3の部位等にヒット情報を順次伝達(伝搬)する(例えばその大きさを順次減衰させながら伝達する)。そして、伝達されたヒット情報に基づく物理シミュレーションにより、これらの第N+1、第N+2、第N+3の部位等を動かす。このようにしてオブジェクトのモーションを生成すれば、高速連射によりショットが連続してヒットした場合におけるオブジェクトのリアルなモーションを、少ない処理負担で表現できるようになる。   Here, the hit motion generation unit 118 performs processing for generating an object motion at the time of hit. More specifically, when the Nth part of the object is hit, the Nth part is moved and the adjacent N + 1th part is moved by physical simulation based on hit information (such as a force vector pointing in the hit direction). The hit information is sequentially transmitted (propagated) to the (N + 2) th, (N + 3) th portion, etc. (for example, the magnitude is sequentially attenuated). Then, these N + 1, N + 2, N + 3, etc. parts are moved by physical simulation based on the transmitted hit information. If the motion of the object is generated in this way, the realistic motion of the object when the shots are continuously hit by high-speed continuous shooting can be expressed with a small processing load.

また下半身モーション生成部120は、ヒット時のオブジェクトのよろけ動作をリアルに表現するために、オブジェクトの下半身についてのモーションを特別なアルゴリズムを用いて生成している。より具体的には、接地している第1の部位(例えば左足)を支点として倒れるようにオブジェクトを動かす。そして、オブジェクトが倒れるのを制限する位置(例えば仮想重心を接地面に投影した位置に関して第1の部位と点対称の位置)に、接地していない第2の部位(例えば右足)の移動目標位置を設定し、この移動目標位置に第2の部位を移動させる。このようにしてオブジェクトのモーションを生成すれば、よろけながらもなかなか倒れないというオブジェクトのモーション表現が可能になる。   In addition, the lower body motion generation unit 120 generates a motion of the lower body of the object using a special algorithm in order to realistically express the motion of the object at the time of hit. More specifically, the object is moved so that it falls down with the grounded first part (for example, the left foot) as a fulcrum. Then, the movement target position of the second part that is not grounded (for example, the right foot) at a position that restricts the object from falling (for example, a position that is point-symmetric with the first part with respect to the position at which the virtual center of gravity is projected onto the grounding surface). Is set, and the second part is moved to this movement target position. If the motion of the object is generated in this way, it is possible to express the motion of the object so that it does not fall easily.

切り替え部122は、例えばオブジェクトがヒットされた場合に、モーション再生からモーション生成に切り替える処理を行う。或いは、所与の条件が成立した場合(ヒットされてから所与の時間が経過したり、体力パラメータが零になった場合)に、モーション生成からモーション再生に切り替える処理を行う。このようにすれば、モーション生成による表現が難しい場面では、モーション再生によりオブジェクトの動きを表現し、少ないデータ量でバラエティ度の高い動きが要請される場面では、モーション生成によりオブジェクトの動きを表現できるようになる。   For example, when the object is hit, the switching unit 122 performs processing to switch from motion playback to motion generation. Alternatively, when a given condition is satisfied (when a given time has elapsed since the hit or when the physical strength parameter becomes zero), a process of switching from motion generation to motion playback is performed. In this way, the motion of the object can be represented by motion playback in a scene that is difficult to represent by motion generation, and the motion of the object can be represented by motion generation in a scene that requires a high variety of motion with a small amount of data. It becomes like this.

なお、本実施形態の画像生成システムは、1人のプレーヤのみがプレイできるシングルプレーヤモード専用のシステムにしてもよいし、このようなシングルプレーヤモードのみならず、複数のプレーヤがプレイできるマルチプレーヤモードも備えるシステムにしてもよい。   Note that the image generation system of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or not only the single player mode but also a multiplayer mode in which a plurality of players can play. The system may also be provided.

また複数のプレーヤがプレイする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末を用いて生成してもよい。   Further, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line) or the like. Alternatively, it may be generated using a plurality of terminals.

2.本実施形態の特徴
さて、本実施形態では、図3に示すように、敵キャラクタ(オブジェクト)10が、複数の部位(右手12、右前腕14、右上腕16、胸18、腰20、左手22、左前腕24、左上腕26、頭30、右足32、右すね34、右股36、左足42、左すね44、左股46)により構成されている。なお、これらの部位(パーツ)の位置や回転角度(方向)は、スケルトンモデルを構成する関節J0〜J13の位置や骨(アーク)A0〜A18の回転角度として表すことができる。但し、これらの骨、関節は仮想的なものであり、現実に表示されるオブジェクトではない。
2. In this embodiment, as shown in FIG. 3, the enemy character (object) 10 has a plurality of parts (right hand 12, right forearm 14, upper right arm 16, chest 18, waist 20, left hand 22). Left forearm 24, left upper arm 26, head 30, right foot 32, right shin 34, right crotch 36, left foot 42, left shin 44, and left crotch 46). Note that the positions and rotation angles (directions) of these parts (parts) can be expressed as the positions of joints J0 to J13 and the rotation angles of bones (arcs) A0 to A18 constituting the skeleton model. However, these bones and joints are virtual and are not objects that are actually displayed.

本実施形態では、敵キャラクタを構成する部位が親子(階層)構造を有している(実際には関節が親子構造を有する)。即ち、手12、22の親は前腕14、24であり、前腕14、24の親は上腕16、26であり、上腕16、26の親は胸18であり、胸18の親は腰20となる。また、頭30の親は胸18となる。また、足32、42の親はすね34、44であり、すね34、44の親は股36、46であり、股36、46の親は腰20となる。   In this embodiment, the parts constituting the enemy character have a parent-child (hierarchical) structure (actually, the joint has a parent-child structure). That is, the parents of the hands 12 and 22 are the forearms 14 and 24, the parents of the forearms 14 and 24 are the upper arms 16 and 26, the parents of the upper arms 16 and 26 are the chest 18, and the parent of the chest 18 is the waist 20. Become. The parent of the head 30 is the chest 18. The parents of the legs 32 and 42 are the shins 34 and 44, the parents of the shins 34 and 44 are the crotch 36 and 46, and the parents of the crotch 36 and 46 are the waist 20.

モーションデータ記憶部には、これらの部位(関節、骨)の位置及び回転角度が、モーションデータとして記憶されている。例えば、歩きモーションが、MP0、MP1、MP2・・・・MPNという基準モーションにより構成されているとする。するとこれらの各基準モーションMP0、MP1、MP2・・・・MPNでの各部位の位置及び回転角度が、モーションデータとして予め記憶されている。そして、例えば基準モーションMP0の各部位の位置及び回転角度を読み出し、次に基準モーションMP1の各部位の位置及び回転角度を読み出すというように、基準モーションのモーションデータを時間経過に伴い順次読み出すことで、モーション再生が実現される。   The motion data storage unit stores the positions and rotation angles of these parts (joints and bones) as motion data. For example, it is assumed that the walking motion is composed of reference motions MP0, MP1, MP2,... MPN. Then, the position and rotation angle of each part in each of these reference motions MP0, MP1, MP2,... MPN are stored in advance as motion data. Then, by sequentially reading out the motion data of the reference motion as time elapses, for example, reading the position and rotation angle of each part of the reference motion MP0 and then reading the position and rotation angle of each part of the reference motion MP1. , Motion playback is realized.

なお、モーションデータ記憶部に記憶するモーションデータは、一般的には、モーションキャプチャにより取得したり、デザイナが作成する。また、部位(関節、骨)の位置、回転角度は、親の部位の位置、回転角度に対する相対的な位置、相対的な回転角度で表される。   The motion data stored in the motion data storage unit is generally acquired by motion capture or created by a designer. The position and rotation angle of the part (joint and bone) are represented by the position of the parent part, the relative position with respect to the rotation angle, and the relative rotation angle.

本実施形態の第1の特徴は、ヒット時における敵キャラクタ(オブジェクト)のモーションを、物理シミュレーションを用いて生成する点にある。   The first feature of the present embodiment is that a motion of an enemy character (object) at the time of hit is generated using a physical simulation.

例えば図4において、敵キャラクタの前腕14にプレーヤのショット(弾)がヒットすると、まず、ヒット力ベクトルFH0(広義にはヒット情報)に基づき前腕14を動かす(回転させる、移動させる)。更に、このヒット力ベクトルFH0を、FH1、FH2、FH3、FH4として親の部位である上腕16、胸18、腰20に順次伝達(伝搬)する。そして、伝達されたヒット力ベクトルFH1〜FH4により、上腕16、胸18、腰20を動かす。本実施形態では、このようにして、ヒット時における敵キャラクタのモーションをリアルタイムに生成している。   For example, in FIG. 4, when a player's shot (bullet) hits the forearm 14 of the enemy character, first, the forearm 14 is moved (rotated or moved) based on the hit force vector FH0 (hit information in a broad sense). Further, this hit force vector FH0 is sequentially transmitted (propagated) as FH1, FH2, FH3 and FH4 to the upper arm 16, chest 18 and waist 20 which are the parent parts. Then, the upper arm 16, the chest 18, and the waist 20 are moved by the transmitted hit force vectors FH1 to FH4. In this embodiment, in this way, the motion of the enemy character at the time of hit is generated in real time.

より具体的には、ヒット力ベクトルFH0は、その方向が、ヒットの方向(ショットの軌道方向)に向き、その大きさが、ヒットの威力を表すベクトルである。そして、関節J1とヒット位置(着弾位置)HPを結ぶベクトルHVと、ヒット力ベクトルFH0との外積をとることで、回転モーメントが求められる。   More specifically, the hit force vector FH0 is a vector whose direction is in the hit direction (shot trajectory direction), and whose magnitude represents the hit power. Then, the rotational moment is obtained by taking the outer product of the vector HV connecting the joint J1 and the hit position (landing position) HP and the hit force vector FH0.

次に、この回転モーメントと前腕14の仮想質量に基づき、前腕14の角加速度が算出される。そして、算出された角加速度に基づき、前腕14の角速度が算出され、この角速度で前腕14がR0に示すように回転する。   Next, the angular acceleration of the forearm 14 is calculated based on this rotational moment and the virtual mass of the forearm 14. Based on the calculated angular acceleration, the angular velocity of the forearm 14 is calculated, and the forearm 14 rotates at this angular velocity as indicated by R0.

ヒット力ベクトルFH0(ヒット情報)は、その大きさが減衰されてFH1として親の部位である上腕16に伝達される。より具体的には、このFH1は関節J1に作用し、このFH1による回転モーメントで、上腕16がR1に示すように回転する。   The magnitude of the hit force vector FH0 (hit information) is attenuated and transmitted to the upper arm 16, which is the parent part, as FH1. More specifically, the FH1 acts on the joint J1, and the upper arm 16 rotates as indicated by R1 by the rotational moment generated by the FH1.

次に、胸18に伝達されたFH2は関節J2に作用し、このFH2による回転モーメントで、胸18がR2に示すように回転する。   Next, FH2 transmitted to the chest 18 acts on the joint J2, and the chest 18 rotates as indicated by R2 by the rotational moment by the FH2.

次に腰20に伝達されたFH3は関節J3に作用し、このFH3による回転モーメントで、腰20がR3に示すように回転する。また、腰20に伝達されたFH4は代表点RPに作用し、このFH4により、腰20がMT0に示すように移動する。なお、腰20がMT0の方向に移動すると、腰20以外の他の部位もMT0の方向に移動することになる。但し、この場合にも、腰20と他の部位との間の相対的な位置関係は変化しない。   Next, FH3 transmitted to the waist 20 acts on the joint J3, and the waist 20 rotates as indicated by R3 by the rotational moment by the FH3. Further, FH4 transmitted to the waist 20 acts on the representative point RP, and the waist 20 moves as indicated by MT0 by this FH4. When the waist 20 moves in the direction of MT0, other parts other than the waist 20 also move in the direction of MT0. However, also in this case, the relative positional relationship between the waist 20 and other parts does not change.

本実施形態により生成されたモーションの例を図5(A)、(B)、図6(A)、(B)に示す。このモーションは、敵キャラクタ10の頭にショットがヒットした場合に生成されたモーションの例である。   Examples of motion generated by this embodiment are shown in FIGS. 5A, 5B, 6A, and 6B. This motion is an example of a motion generated when a shot hits the head of the enemy character 10.

図5(A)〜図6(B)に示すように、本実施形態によれば、ヒット時における敵キャラクタ10のリアルなモーションを生成できる。そして、生成されるモーションは、ヒット位置やヒット方向やヒット力の大きさなどに応じて異なったものとなり、モーションデータに基づくモーション再生の手法に比べて、モーションのバリエーションを格段に増すことができる。   As shown in FIGS. 5A to 6B, according to the present embodiment, a realistic motion of the enemy character 10 at the time of hitting can be generated. The generated motion differs depending on the hit position, hit direction, and hit power, and the number of motion variations can be greatly increased compared to the motion playback method based on motion data. .

即ち、モーション再生の手法では、ヒット位置に応じた何種類ものモーションデータを予め別々に用意しておく必要がある。例えば、図4のように前腕がヒットされた場合用のモーションデータと、図5(A)〜図6(B)のように頭がヒットされた場合用のモーションデータとを別々に用意する必要がある。また、同じ頭がヒットされた場合も、前方向から頭がヒットされた場合用のモーションデータ、右方向から頭がヒットされた場合用のモーションデータ、後ろ方向から頭がヒットされた場合用のモーションデータ、左方向から頭がヒットされた場合用のモーションデータを別々に用意しておく必要がある。   That is, in the motion reproduction method, it is necessary to prepare several types of motion data corresponding to the hit positions separately in advance. For example, the motion data for when the forearm is hit as shown in FIG. 4 and the motion data for when the head is hit as shown in FIGS. 5 (A) to 6 (B) must be prepared separately. There is. In addition, even when the same head is hit, the motion data for when the head is hit from the front direction, the motion data for when the head is hit from the right direction, and the data for when the head is hit from the rear direction It is necessary to prepare motion data and motion data for when the head is hit from the left.

ところが、モーションデータを記憶するメモリの容量は有限である。従って、モーション再生の手法では、モーションのバリエーションの増加には限界がある。   However, the memory capacity for storing motion data is finite. Therefore, in the motion reproduction method, there is a limit to the increase in motion variations.

これに対して、本実施形態によれば、上記のようなモーションデータを用意することなく、ヒット位置やヒット方向やヒット力の大きさなどに応じて異なる多様なモーションを生成できる。例えばショットのヒット位置に応じて、敵キャラクタの反応が細かく変化するようになる。従って、リアルで多様なモーション表現を少ないデータ量で実現できるようになる。   On the other hand, according to the present embodiment, it is possible to generate various different motions according to the hit position, the hit direction, the magnitude of the hit force, etc. without preparing the motion data as described above. For example, the reaction of the enemy character changes finely according to the hit position of the shot. Therefore, real and various motion expressions can be realized with a small amount of data.

また、モーション再生の手法では、図5(A)〜図6(B)のような、頭ヒット時用のモーションを再生している際に、例えば前腕がヒットされると、頭ヒット時用のモーションの再生が途中で打ち切られてしまい、敵キャラクタの動きが不自然なものになってしまう。   In the motion reproduction method, when a head hit motion as shown in FIGS. 5 (A) to 6 (B) is reproduced, for example, if the forearm is hit, The playback of the motion is interrupted and the movement of the enemy character becomes unnatural.

これに対して、本実施形態によれば、頭がヒットされた後に前腕がヒットされても、モーションが途中で打ち切られるという事態が生じない。従って、ヒット時における敵キャラクタの動きを滑らかで連続的なものにすることができる。   On the other hand, according to this embodiment, even if the forearm is hit after the head is hit, a situation in which the motion is interrupted in the middle does not occur. Therefore, the movement of the enemy character at the time of hitting can be made smooth and continuous.

特に本実施形態では、図1で説明したように、プレーヤ500が所持するガン型コントローラ502は、マシンガンのようにショットを高速連射できるようになっているため、敵キャラクタに対して何発ものショットが連続してヒットする状況が生じる。更に本実施形態では、一発のショットが命中しただけでは敵キャラクタは消滅しないようになっている。従って、何発ものショットがヒットし、ショットがヒットする毎に、ヒット位置やヒット方向に応じてその動きが細かく変化するような敵キャラクタのモーションを表現する必要がある。   In particular, in the present embodiment, as described with reference to FIG. 1, the gun-type controller 502 possessed by the player 500 is capable of shooting shots at high speed like a machine gun, so that many shots can be made against enemy characters. A situation occurs in which hits continuously. Furthermore, in this embodiment, the enemy character is not extinguished only by hitting one shot. Therefore, it is necessary to express the motion of the enemy character so that the movement changes finely according to the hit position and the hit direction each time the shot is hit and the shot is hit.

モーション再生の手法により、このような高速連射時のモーション表現を実現しようとすると、必要なモーションデータの量が過大になってしまう。このため、モーション再生の手法では、このようなモーション表現は実質的に実現不可能となる。これに対して、図4で説明したモーション生成の手法によれば、このようなモーション表現を容易に実現できるようになる。   If the motion reproduction technique is used to realize such a motion expression at the time of high-speed continuous fire, the amount of necessary motion data becomes excessive. For this reason, such a motion expression cannot be substantially realized by the motion reproduction method. On the other hand, according to the motion generation method described with reference to FIG. 4, such motion expression can be easily realized.

さて、本実施形態では、各部位を動かすヒット情報として、ヒット力ベクトルを採用している。そして、図7(A)に示すように、例えばヒット力ベクトルFHNにより回転モーメントLN×FHNを求め、求められた回転モーメントにより、第Nの部位を動かす(回転させる)。そして、ヒット力ベクトルFHN+1、FHN+2を、隣の第N+1、第N+2の部位に順次伝達し、これらのヒット力ベクトルで第N+1、第N+2の部位を動かす。より具体的には、フレームKでは、FHNを第Nの部位に作用させ、フレームK+1ではFHN+1を第N+1の部位に作用させ、フレームK+2ではFHN+2を第N+2の部位に作用させる。   In the present embodiment, hit force vectors are employed as hit information for moving each part. Then, as shown in FIG. 7A, for example, the rotational moment LN × FHN is obtained from the hit force vector FHN, and the Nth part is moved (rotated) by the obtained rotational moment. Then, hit force vectors FHN + 1 and FHN + 2 are sequentially transmitted to the adjacent N + 1th and N + 2 parts, and the N + 1th and N + 2 parts are moved by these hit force vectors. More specifically, in frame K, FHN acts on the Nth part, in frame K + 1, FHN + 1 acts on the N + 1 part, and in frame K + 2, FHN + 2 acts on the N + 2 part.

このようにすることで、ヒット力ベクトルの衝撃により敵キャラクタの各部位が動く様子を、ヒット力ベクトルを隣の部位に順次伝達するだけという簡易な処理で、リアルに表現できるようになる。   In this way, the movement of each part of the enemy character due to the impact of the hit force vector can be realistically expressed with a simple process of sequentially transmitting the hit force vector to the adjacent part.

そして、この場合に本実施形態では、各部位にヒット力ベクトルを順次伝達する際に、伝達するヒット力ベクトルの大きさを順次減衰(減衰率は例えば90%程度)させている。即ち、|FHN|>|FHN+1|>|FHN+2|というように、ヒット力ベクトルの大きさを減衰させる。このようにすることで、ヒット位置に近い部位ほど大きく動くようになり、現実世界の事象により近いリアルなモーション変化を、ヒット力ベクトルの大きさを減少させるだけという簡易な処理で実現できるようになる。   In this case, in this embodiment, when the hit force vector is sequentially transmitted to each part, the magnitude of the hit force vector to be transmitted is sequentially attenuated (attenuation rate is about 90%, for example). That is, the magnitude of the hit force vector is attenuated such that | FHN |> | FHN + 1 |> | FHN + 2 |. By doing this, the part closer to the hit position moves more greatly, so that a realistic motion change closer to the real world event can be realized with a simple process of simply reducing the magnitude of the hit force vector Become.

また本実施形態では、各部位の角速度に応じた回転抵抗力を、各部位に作用させるようにしている。   Moreover, in this embodiment, the rotational resistance according to the angular velocity of each site | part is made to act on each site | part.

例えば図7(B)に示すように、第Nの部位には、第Nの部位の角速度ωNの大きさに応じた回転抵抗力FRNを作用させる。また、第N+1の部位には、第N+1の部位の角速度ωN+1の大きさに応じた回転抵抗力FRN+1を回転と逆方向に作用させる。また、第N+2の部位には、第N+2の部位の角速度ωN+2の大きさに応じた回転抵抗力FRN+2を回転と逆方向に作用させる。   For example, as shown in FIG. 7B, a rotational resistance force FRN corresponding to the magnitude of the angular velocity ωN of the Nth part is applied to the Nth part. Further, a rotational resistance force FRN + 1 corresponding to the magnitude of the angular velocity ωN + 1 of the (N + 1) th portion is applied to the (N + 1) th portion in the direction opposite to the rotation. Further, a rotational resistance force FRN + 2 corresponding to the magnitude of the angular velocity ωN + 2 of the N + 2 part is applied to the N + 2 part in the direction opposite to the rotation.

このような回転抵抗力を作用させることで、各部位の角速度が急激に変化してしまい不自然なモーションになってしまう事態を効果的に防止できるようになる。   By applying such a rotational resistance force, it is possible to effectively prevent a situation in which the angular velocity of each part changes abruptly and unnatural motion occurs.

また本実施形態では、敵キャラクタを所与の姿勢に戻すための復元力を、各部位に作用させている。   In this embodiment, the restoring force for returning the enemy character to a given posture is applied to each part.

例えば図8に示すように、ヒット力ベクトルFHにより敵キャラクタの姿勢が変化した場合に、敵キャラクタを、点線で示されるデフォルトの姿勢に戻すようにする。   For example, as shown in FIG. 8, when the posture of the enemy character is changed by the hit force vector FH, the enemy character is returned to the default posture indicated by the dotted line.

このようにすれば、高速連射により何発ものショットがヒットすることで、敵キャラクタの姿勢が極端に崩れてしまうというような事態を防止できる。ショットが連続してヒットしても、ヒットする毎に復元力により敵キャラクタが元のデフォルト姿勢に少しずつ戻るようになるからである。これにより、多くのショットがヒットしても、なかなか倒されないような敵キャラクタを表現できるようになり、マシンガンゲームに好適な敵キャラクタをゲームに登場させることができるようになる。   In this way, it is possible to prevent a situation in which the posture of the enemy character is extremely collapsed by hitting many shots by high-speed continuous fire. This is because even if the shots are hit consecutively, the enemy character gradually returns to the original default posture by the restoring force every time it hits. Thereby, even if many shots are hit, it becomes possible to express an enemy character that is not easily defeated, and an enemy character suitable for a machine gun game can be made to appear in the game.

なお、敵キャラクタをデフォルト姿勢に戻す処理は、各部位のデフォルトの回転角度を記憶部に保持しておき、このデフォルトの角度に、各部位の角度を戻すように処理することで実現できる。   The process of returning the enemy character to the default posture can be realized by holding the default rotation angle of each part in the storage unit and performing the process of returning the angle of each part to the default angle.

本実施形態の第2の特徴は、敵キャラクタのヒット時に、モーションデータに基づくモーション再生から物理シミュレーションによるモーション生成に切り替える点にある。   The second feature of the present embodiment is that, when an enemy character is hit, switching from motion playback based on motion data to motion generation by physical simulation.

例えば図9(A)のE1に示すように、敵キャラクタがヒットされる前においては、モーション再生により敵キャラクタの動きが表現される。即ち、所定の場所に移動したり、物陰に隠れたり、プレーヤの前に出現したりする敵キャラクタの動きについては、モーションデータに基づくモーション再生により表現する。   For example, as indicated by E1 in FIG. 9A, before the enemy character is hit, the motion of the enemy character is expressed by motion reproduction. That is, the movement of the enemy character that moves to a predetermined place, hides behind the object, or appears in front of the player is expressed by motion reproduction based on the motion data.

一方、E2に示すように、敵キャラクタがヒットされると、モーション再生からモーション生成に切り替わる。即ち、例えば図4で説明したようなモーション生成手法により、ヒット時の敵キャラクタの動きを表現する。   On the other hand, as shown in E2, when an enemy character is hit, the motion playback is switched to the motion generation. That is, for example, the motion of the enemy character at the time of the hit is expressed by the motion generation method described with reference to FIG.

ヒット前における敵キャラクタの動きに対しては、プレーヤのゲーム操作の影響がそれほど及ばない。従って、モーションデータに基づくモーション再生だけで、敵キャラクタの動きを十分に表現できる。また、物陰に隠れたり、プレーヤの前に出現する動きなどを、モーション生成で実現しようとすると、処理の複雑化、処理負担の増大化を招く。   The influence of the game operation of the player is not so much on the movement of the enemy character before the hit. Therefore, the movement of the enemy character can be sufficiently expressed only by the motion reproduction based on the motion data. In addition, if it is attempted to generate a motion that is hidden behind the object or appears in front of the player by motion generation, the processing becomes complicated and the processing load increases.

一方、ヒット時における敵キャラクタの動きに対しては、プレーヤのゲーム操作の影響が強く及ぶ。即ち、プレーヤがどの敵キャラクタをどの方向からどのように射撃するかは、プレーヤの任意であり、ゲーム前には全く予期できない。このため、ヒット時においては、プレーヤのゲーム操作(射撃操作)に応じて、敵キャラクタの動きを細かく変化させる必要がある。従って、モーション再生よりも、図4で説明したようなモーション生成により敵キャラクタの動きを表現する方が望ましい。また、ヒット時の動きについては、物陰に隠れたり、プレーヤの前に出現する動きなどに比べて、物理シミュレーションに基づくモーション生成に適している。   On the other hand, the player's game operation has a strong influence on the movement of the enemy character at the time of a hit. In other words, it is up to the player to determine which enemy character the player shoots from which direction, and cannot be predicted at all before the game. For this reason, at the time of a hit, it is necessary to finely change the movement of the enemy character in accordance with the game operation (shooting operation) of the player. Therefore, it is preferable to express the movement of the enemy character by generating a motion as described in FIG. 4 rather than reproducing the motion. In addition, the movement at the time of hit is more suitable for motion generation based on a physical simulation than the movement that hides behind the object or appears in front of the player.

本実施形態では、以上の点に着目して、図9(A)のE2に示すように、敵キャラクタのヒット時に、モーション再生からモーション生成に切り替えている。これにより、状況に応じた適切な処理で、敵キャラクタを動かすことができるようになる。   In the present embodiment, paying attention to the above points, as shown by E2 in FIG. 9A, the mode is switched from motion reproduction to motion generation when an enemy character hits. As a result, the enemy character can be moved by an appropriate process according to the situation.

本実施形態の第3の特徴は、所与の条件が成立した場合に、物理シミュレーションによるモーション生成からモーションデータに基づくモーション再生に切り替える点にある。   The third feature of the present embodiment is that, when a given condition is satisfied, switching from motion generation based on physical simulation to motion playback based on motion data.

例えば図9(A)のE3では、ヒット後に所与の時間TMが経過したため、モーション生成からモーション再生に切り替えている。   For example, in E3 of FIG. 9A, since a given time TM has elapsed after the hit, the mode is switched from motion generation to motion playback.

即ち、E4のように短時間で連続して敵キャラクタにショットがヒットしている場合には、図4で説明したようなモーション生成により敵キャラクタを動かす。これにより、ショットがヒットする毎にヒット位置やヒット方向に応じてその動きが細かく変化する敵キャラクタを表現できる。   That is, when the shot hits the enemy character continuously in a short time as in E4, the enemy character is moved by the motion generation as described in FIG. This makes it possible to represent an enemy character whose movement changes finely according to the hit position and hit direction each time a shot is hit.

一方、E3のように、ショットがヒットした後に所与の時間TMが経過した場合には、敵キャラクタに対する連射はもはや行われていないと考えられる。従って、この場合には、モーションデータに基づくモーション再生を行うようにする。このようにすることで、プレーヤにより攻撃された後に、他の場所に移動したり、物陰に隠れたりするなどの敵キャラクタの動きを表現できるようになる。   On the other hand, when a given time TM elapses after the shot hit as in E3, it is considered that the enemy character is no longer fired anymore. Therefore, in this case, motion playback based on motion data is performed. By doing so, it becomes possible to express the movement of the enemy character such as moving to another place or hiding behind the object after being attacked by the player.

また図9(B)のE5では、敵キャラクタの体力パラメータが0(所与の値)になったため、モーション生成からモーション再生に切り替えている。即ち、この場合には、敵キャラクタを完全に転倒させるモーションを再生し、敵キャラクタを消滅させる。   Further, at E5 in FIG. 9B, the enemy character's physical strength parameter is 0 (given value), so the motion generation is switched to the motion reproduction. That is, in this case, a motion that completely falls the enemy character is reproduced, and the enemy character disappears.

このように、体力パラメータが0になった場合には、その敵キャラクタの運命は、消滅するという運命にもはや決まっており、プレーヤのゲーム操作の影響が及ぶ余地がない。従って、この場合には、モーション生成ではなくモーション再生により敵キャラクタの動きを表現する。このようにすれば、予め用意されたモーションデータに基づいてリアルに敵キャラクタを転倒させることが可能になり、ゲームの演出効果を高めることができる。   Thus, when the physical strength parameter becomes 0, the fate of the enemy character is already determined to be extinguished, and there is no room for the influence of the game operation of the player. Therefore, in this case, the movement of the enemy character is expressed not by motion generation but by motion playback. In this way, it is possible to cause the enemy character to fall down realistically based on the motion data prepared in advance, and the game effect can be enhanced.

なお、モーション生成とモーション再生を切り替える場合には、物理シミュレーションにより生成されるモーションとモーションデータに基づき再生されるモーションとを繋ぐ繋ぎモーションを再生(或いは生成)することが望ましい。   When switching between motion generation and motion reproduction, it is desirable to reproduce (or generate) a connection motion that connects a motion generated by a physical simulation and a motion reproduced based on the motion data.

例えば図10(A)では、F1が、モーション生成とモーション再生の切り替えポイントになっている。従って、この場合には、生成された最後のモーションMGMと、再生される最初のモーションMP0とを繋ぐ繋ぎモーションを再生(又は生成)するようにする。   For example, in FIG. 10A, F1 is a switching point between motion generation and motion reproduction. Therefore, in this case, a connection motion that connects the last generated motion MGM and the first motion MP0 to be played back is played back (or generated).

また図10(B)では、F2が、モーション生成とモーション再生の切り替えポイントになっている。従って、この場合には、生成された最後のモーションMGNと、再生される最初のモーションMP0とを繋ぐ繋ぎモーションを再生(又は生成)するようにする。   In FIG. 10B, F2 is a switching point between motion generation and motion playback. Therefore, in this case, a connection motion that connects the last generated motion MGN and the first motion MP0 to be played back is played back (or generated).

このようにすれば、モーション生成のどの時点で切り替わっても、モーションを滑らかに繋ぐことが可能となり、生成される画像の画質やリアル度を高めることができる。   In this way, it is possible to smoothly connect the motions at any point of motion generation, and the image quality and realism of the generated image can be improved.

なお、繋ぎモーションの再生は、図11に示すようなモーション補間により実現することが望ましい。即ち、モーションM0、M1を、重み係数αを0から1に変化させながら、例えばM2=α×M0+(1−α)×M1という計算式により補間して、モーションM2を得る(実際には、位置や回転角度を上記計算式により補間する)。この場合、図10(A)、(B)のMGM、MGNが図11のM0になり、MP0がM1になり、得られる繋ぎモーションがM2になる。   Note that it is desirable to reproduce the joint motion by motion interpolation as shown in FIG. That is, the motions M0 and M1 are interpolated by, for example, the calculation formula M2 = α × M0 + (1−α) × M1 while changing the weighting coefficient α from 0 to 1, to obtain the motion M2 (in practice, Interpolate the position and rotation angle using the above formula). In this case, MGM and MGN in FIGS. 10A and 10B become M0 in FIG. 11, MP0 becomes M1, and the obtained joint motion becomes M2.

本実施形態の第4の特徴は、接地している方の足(第1の部位)を支点として倒れるように敵キャラクタ(オブジェクト)が動くと共に、敵キャラクタが倒れるのを制限する位置に、接地していない方の足(第2の部位)が移動するように、敵キャラクタのモーションを生成する点にある。   The fourth feature of the present embodiment is that the enemy character (object) moves so as to fall on the grounded foot (first part) as a fulcrum, and at the position where the enemy character is restricted from falling. The point is that the motion of the enemy character is generated so that the foot (second portion) that is not moving moves.

例えば図12のG1では、左足50が接地しており、右足52が非接地になっている。この場合には、FD0に示すように、接地している左足50を支点として倒れる(傾く)ように敵キャラクタの下半身を動かす。更に、敵キャラクタが倒れるのを制限する位置(支える位置)である移動目標位置54に、非接地の右足52を移動させる。   For example, in G1 of FIG. 12, the left foot 50 is grounded and the right foot 52 is not grounded. In this case, as shown in FD0, the lower body of the enemy character is moved so as to fall (tilt) with the grounded left foot 50 as a fulcrum. Further, the non-grounded right foot 52 is moved to the movement target position 54 which is a position (supporting position) that restricts the enemy character from falling down.

そして、図12のG2に示すように両足50、52が接地すると、腰60から遠い方の足である左足50を浮かせる。次に、G3のFD1に示すように、接地している右足52を支点として倒れるように敵キャラクタの下半身を動かすと共に、敵キャラクタが倒れるのを制限する移動目標位置56に、非接地の左足50を移動させる。そして、G4に示すように両足50、52が接地する。   Then, as shown by G2 in FIG. 12, when both feet 50 and 52 are grounded, the left foot 50, which is the foot far from the waist 60, is lifted. Next, as shown by FD1 of G3, the lower half of the enemy character is moved so that it falls down with the grounded right foot 52 as a fulcrum, and the ungrounded left foot 50 is moved to a movement target position 56 that restricts the enemy character from falling down. Move. And as shown to G4, both legs 50 and 52 are earth | grounded.

このようにすることで、ショットの連続ヒットにより敵キャラクタがよろけながら後ずさりする様子をリアルに表現できるようになる。   In this way, it is possible to realistically represent the situation in which the enemy character moves back and forth due to continuous hits of shots.

本実施形態により生成されたモーションの例を図13(A)〜図17(B)に示す。ここで、図13(A)〜図15(B)は、生成されたモーションを左前方から見た図であり、図16(A)〜図17(B)は、生成されたモーションを下方から見た図である。これらの図から理解されるように、本実施形態では、倒れそうで倒れず、よろめきながら腰をふらふらさせて後ずさりする敵キャラクタの動きを、リアルに表現することに成功している。   Examples of motion generated by this embodiment are shown in FIGS. 13 (A) to 17 (B). Here, FIGS. 13A to 15B are views of the generated motion viewed from the left front, and FIGS. 16A to 17B show the generated motion from below. FIG. As can be understood from these figures, in this embodiment, the movement of the enemy character that is likely to fall down and does not fall down and staggers while swinging back is successfully expressed realistically.

即ち、前述の図4の手法でヒット時におけるモーションを生成すると、ショットのヒットにより敵キャラクタがバランスを崩して、不自然な姿勢で床(接地面)に立ったままになるという事態が生じる。例えば、敵キャラクタの右足だけがヒットされた場合には、右足だけが宙に浮いた状態で敵キャラクタが床に立ったままの状態になる可能性がある。   That is, when the motion at the time of hit is generated by the method of FIG. 4 described above, a situation occurs in which the enemy character loses balance due to the hit of the shot and remains on the floor (ground plane) in an unnatural posture. For example, if only the right foot of the enemy character is hit, there is a possibility that the enemy character is standing on the floor with only the right foot floating in the air.

図12の手法により敵キャラクタの下半身を特別なアルゴリズムで動作させれば、上記のような事態を防止できる。即ち、図12のG1に示すように右足52が宙に浮いた場合には、FD0に示すように敵キャラクタは倒れるように動くと共に、倒れるのを支える移動目標位置54に右足52が移動する。従って、敵キャラクタの右足52だけが長時間にわたり宙に浮いたままになるという事態が防止されると共に、ヒットの衝撃により敵キャラクタが後ずさりしたかのように見せることができるようになる。   The above situation can be prevented by operating the lower half of the enemy character with a special algorithm by the method of FIG. That is, when the right foot 52 floats in the air as indicated by G1 in FIG. 12, the enemy character moves so as to fall as indicated by FD0, and the right foot 52 moves to the movement target position 54 that supports the fall. Accordingly, it is possible to prevent the situation where only the right foot 52 of the enemy character remains in the air for a long time, and it is possible to make it appear as if the enemy character has moved backwards due to the impact of the hit.

特に、敵キャラクタに連続してショットがヒットした場合には、この連続ヒットの衝撃により敵キャラクタが徐々に後ずさりしているかのように見せることができ(図13(A)〜図17(B)参照)、これまでにないリアルなモーションを生成できる。しかも、敵キャラクタの接地していない方の足は、倒れるのを支える位置に常に移動するようになる。従って、敵キャラクタは、体力パラメータが0にならない限り、転倒しないようになる。従って、マシンガンのように高速でショットを連射できるガンゲームに最適なモーション表現を実現できる。   In particular, when a shot hits an enemy character continuously, it can appear as if the enemy character is slowly moving backward due to the impact of this continuous hit (FIGS. 13A to 17B). See), and can produce unprecedented realistic motion. In addition, the enemy character's ungrounded foot always moves to a position that supports falling. Accordingly, the enemy character does not fall unless the physical strength parameter becomes zero. Therefore, it is possible to realize motion expression that is optimal for a gun game that can shoot shots at high speed like a machine gun.

さて、本実施形態では図18(A)に示すように、敵キャラクタの仮想重心62に仮想重力Gを作用させる。そして、この仮想重力Gにより得られる力FGを腰60(敵キャラクタの代表点)に作用させることで、左足50を支点として倒れるように敵キャラクタを動かしている。なお、仮想重心62は、敵キャラクタの上半身の部位の位置(関節位置)とそれらの部位の仮想質量とに基づいて求められる。   In the present embodiment, as shown in FIG. 18A, virtual gravity G is applied to the virtual gravity center 62 of the enemy character. Then, by applying the force FG obtained by the virtual gravity G to the waist 60 (representative point of the enemy character), the enemy character is moved so as to fall down with the left foot 50 as a fulcrum. The virtual center of gravity 62 is obtained based on the positions (joint positions) of the upper body parts of the enemy character and the virtual masses of those parts.

このように、仮想重心62に仮想重力Gを作用させることにより得られる力FGを腰60に作用させて敵キャラクタを倒すようにすれば、あたかも、敵キャラクタがバランスを崩して倒れているかのように見せることができ、モーションのリアル度を格段に向上できる。   In this way, if the force FG obtained by applying the virtual gravity G to the virtual center of gravity 62 is applied to the waist 60 to defeat the enemy character, it is as if the enemy character has fallen out of balance. It can be seen in the image, and the realism of the motion can be greatly improved.

また本実施形態では、接地していない右足52の移動目標位置を以下のようにして設定している。即ち、まず、仮想重心62の床(接地面)63への投影位置64を求める。そして、この投影位置64に関して、接地している左足50と点対称の位置に、右足52の移動目標位置54を設定する。このような移動目標位置54に右足52を移動すれば、仮想重心62に仮想重力が作用した場合にも、敵キャラクタを安定的に支えることができ、敵キャラクタが完全に転倒してしまうのを防止できる。これにより、倒れそうでなかなか倒れず、徐々に後ずさりするという敵キャラクタの動きを表現できるようになる。   In this embodiment, the target position of the right foot 52 that is not grounded is set as follows. That is, first, the projection position 64 of the virtual center of gravity 62 onto the floor (grounding surface) 63 is obtained. Then, the movement target position 54 of the right foot 52 is set at a position symmetrical to the grounded left foot 50 with respect to the projection position 64. By moving the right foot 52 to such a movement target position 54, even when virtual gravity acts on the virtual center of gravity 62, the enemy character can be stably supported, and the enemy character can be completely overturned. Can be prevented. As a result, it is possible to express the movement of the enemy character, which is likely to fall down and does not fall down easily and gradually moves backward.

また本実施形態では、両足(第1、第2の部位)が共に接地している場合には、片方の足を浮かせるようにしている。   In the present embodiment, when both feet (first and second parts) are grounded, one of the feet is allowed to float.

即ち図19(A)に示すように、左足50、右足52が共に接地している場合には、図19(B)に示すように、腰60から遠い方の足である左足50を浮かせる。このようにすることで、両足が接地した状態で敵キャラクタが全く動かなくなるという事態を防止できる。そして、プレーヤからのショットがヒットする毎に、徐々に後ずさりするという敵キャラクタのリアルな動きを表現できるようになる。   That is, when both the left foot 50 and the right foot 52 are grounded as shown in FIG. 19A, the left foot 50 that is the foot farther from the waist 60 is lifted as shown in FIG. 19B. By doing so, it is possible to prevent a situation in which the enemy character does not move at all with both feet in contact with the ground. Each time a shot from the player hits, it is possible to express a realistic movement of the enemy character that gradually moves backward.

3.本実施形態の処理
次に、本実施形態の詳細な詳細例について、図20、図21、図22、図23、図24のフローチャートを用いて説明する。
3. Processing of the present embodiment Next, detailed detailed examples of the present embodiment will be described with reference to the flowcharts of FIGS. 20, 21, 22, 23 and 24.

図20は、モーション再生とモーション生成の切り替え処理に関するフローチャートである。   FIG. 20 is a flowchart relating to a process of switching between motion playback and motion generation.

まず、モーションデータに基づくモーション再生を行う(ステップS1)。例えば、所定の場所に移動したり、物陰に隠れたり、プレーヤの前に現れるというような敵キャラクタの動きは、モーション再生により実現する。   First, motion playback based on motion data is performed (step S1). For example, the movement of an enemy character such as moving to a predetermined place, hiding in a shadow, or appearing in front of a player is realized by motion reproduction.

次に、プレーヤからのショットがヒットしたか否かを判断し(ステップS2)、ヒットしなかった場合には、ステップS1に戻りモーション再生を続行する。一方、ヒットした場合には、体力パラメータが0か否かを判断する(ステップS3)。そして、体力パラメータが0でない場合には、図9(A)のE2に示すように、物理シミュレーションによるモーション生成処理に移行する(ステップS4)。   Next, it is determined whether or not a shot from the player has been hit (step S2). If no hit has been made, the process returns to step S1 to continue motion playback. On the other hand, if there is a hit, it is determined whether the physical strength parameter is 0 (step S3). If the physical strength parameter is not 0, the process proceeds to a motion generation process by physical simulation as indicated by E2 in FIG. 9A (step S4).

次に、ヒット後から所与の時間が経過したか否かを判断し(ステップS5)、経過していない場合には、プレーヤからのショットがヒットしたか否かを判断する(ステップS6)。そして、ヒットした場合には、ステップS3で体力パラメータが0か否かを判断し、0でない場合にはステップS4のモーション生成処理を続行する。一方、ヒットしなかった場合には、ステップS3の体力パラメータの判断処理を行うことなく、ステップS4のモーション生成処理を続行する。   Next, it is determined whether or not a given time has elapsed after the hit (step S5). If not, it is determined whether or not a shot from the player has been hit (step S6). If it hits, it is determined in step S3 whether or not the physical strength parameter is 0. If not, the motion generation process in step S4 is continued. On the other hand, if there is no hit, the motion generation process in step S4 is continued without performing the physical strength parameter determination process in step S3.

ステップS5で所与の時間が経過したと判断された場合には、図10(A)、(B)で説明したように、繋ぎモーションを再生(又は生成)する処理を行う(ステップS7)。そして、図9(A)のE3に示すように、モーション再生処理に切り替える。   If it is determined in step S5 that the given time has elapsed, as described with reference to FIGS. 10A and 10B, processing for reproducing (or generating) the joint motion is performed (step S7). Then, as indicated by E3 in FIG. 9A, the process is switched to the motion reproduction process.

ステップS3で、体力パラメータが0であると判断された場合には、転倒モーションへの繋ぎモーションを再生(又は生成)する(ステップS8)。そして、図9(B)のE5に示すように、転倒モーションの再生処理に移行し(ステップS9)、敵キャラクタを消滅させる(ステップS10)。   If it is determined in step S3 that the physical strength parameter is 0, the connecting motion to the falling motion is reproduced (or generated) (step S8). Then, as indicated by E5 in FIG. 9B, the process shifts to a fall motion reproduction process (step S9), and the enemy character disappears (step S10).

図21、図22は、ヒット時のモーション生成処理に関するフローチャートである。   21 and 22 are flowcharts related to the motion generation process at the time of a hit.

まず、処理対象となる部位が、ヒットされた部位又はヒット力ベクトルが伝達された部位かを判断し(ステップT1)、そのような部位でない場合にはステップT5に移行する。一方、そのような部位である場合には、図4で説明したように、その部位におけるヒット位置HPとヒット力ベクトルFH0を得る(ステップT2)。なお、ステップT1での判断は、ヒットされた又はヒット力ベクトルが伝達された場合にオンにセットされるヒットフラグに基づいて行われることになる。   First, it is determined whether the part to be processed is a hit part or a part to which a hit force vector is transmitted (step T1). If it is not such a part, the process proceeds to step T5. On the other hand, if it is such a part, as described in FIG. 4, the hit position HP and the hit force vector FH0 at that part are obtained (step T2). Note that the determination in step T1 is made based on a hit flag that is turned on when a hit or a hit force vector is transmitted.

次に、図7(A)で説明したように、ヒット力ベクトルを、その大きさを減衰させながら、親の部位に伝達する(ステップT3)。なお、ヒット力ベクトルが伝達された部位については、そのヒットフラグがオンにセットされる。   Next, as described with reference to FIG. 7A, the hit force vector is transmitted to the parent site while the magnitude thereof is attenuated (step T3). Note that the hit flag is set to ON for the portion to which the hit force vector is transmitted.

次に、ヒット力ベクトルに基づき回転モーメントを算出し、その回転モーメントに基づき部位の角速度を算出する(ステップT4)。例えば図7(A)の第Nの部位では、回転モーメントLN×FHNが算出され、この回転モーメントに基づき第Nの部位の角速度が算出される。   Next, the rotational moment is calculated based on the hit force vector, and the angular velocity of the part is calculated based on the rotational moment (step T4). For example, in the Nth part of FIG. 7A, the rotational moment LN × FHN is calculated, and the angular velocity of the Nth part is calculated based on this rotational moment.

次に、図7(B)で説明したように、部位の角速度に比例した回転抵抗力を算出し、その回転抵抗力に基づき部位の角速度を変化(減少)させる(ステップT5)。そして、図8で説明したように、敵キャラクタをデフォルトの姿勢に戻すための復元力を算出し、その復元力に基づき部位の角速度を変化させる(ステップT6)。   Next, as described in FIG. 7B, the rotational resistance force proportional to the angular velocity of the part is calculated, and the angular velocity of the part is changed (decreased) based on the rotational resistance force (step T5). Then, as described in FIG. 8, the restoring force for returning the enemy character to the default posture is calculated, and the angular velocity of the part is changed based on the restoring force (step T6).

次に、処理対象となる部位が腰である場合には、ヒット力ベクトルに基づき腰の移動速度を算出する(ステップT7)。例えば図4において、FH4に基づいて腰20(代表点RP)の移動速度を算出する。   Next, when the part to be processed is the waist, the waist moving speed is calculated based on the hit force vector (step T7). For example, in FIG. 4, the moving speed of the waist 20 (representative point RP) is calculated based on FH4.

次に、処理対象となる部位が腰の場合には、算出された移動速度と角速度に基づいて、その位置と回転速度を更新し、それ以外の部位の場合には、算出された角速度に基づき、その回転角度を更新する(ステップT8)。即ち、当該フレームでの、各部位の位置や回転角度を求める。   Next, if the part to be processed is the waist, the position and rotation speed are updated based on the calculated moving speed and angular velocity, and if it is other part, based on the calculated angular speed. The rotation angle is updated (step T8). That is, the position and rotation angle of each part in the frame are obtained.

最後に、全ての部位についての処理が終了したか否かを判断し(ステップT9)、終了していない場合にはステップT1に戻る。   Finally, it is determined whether or not the processing for all the parts has been completed (step T9). If not, the process returns to step T1.

図23、図24は、敵キャラクタの下半身モーションの生成処理に関するフローチャートである。   FIG. 23 and FIG. 24 are flowcharts related to the lower body motion generation process of the enemy character.

まず、両足とも浮いているか否かを判断する(ステップU1)。そして、両足が浮いている場合には、腰及び両足に仮想重力を作用させ、敵キャラクタを自由落下させる(ステップU2)。   First, it is determined whether or not both feet are floating (step U1). If both feet are floating, virtual gravity is applied to the waist and both feet to allow the enemy character to fall freely (step U2).

一方、いずれかの足が浮いている場合には、現在の上半身の各部位の位置と各部位の仮想質量に基づき、図18(A)で説明したような仮想重心62を算出する(ステップU3)。そして、接地している足の位置(両足接地の場合には両足の中点)を支点として仮想重心に仮想重力を作用させたときの力を算出する(ステップU4)。即ち図18(A)の力FGを算出する。   On the other hand, if any of the legs are floating, the virtual center of gravity 62 as described in FIG. 18A is calculated based on the current position of each part of the upper body and the virtual mass of each part (step U3). ). Then, the force when virtual gravity is applied to the virtual center of gravity is calculated using the position of the grounded foot (the midpoint of both feet in the case of both-foot grounding) as a fulcrum (step U4). That is, the force FG in FIG.

次に、算出された力を腰(代表点)に作用させて、腰の移動速度を変化させる(ステップU5)。即ち図18(A)の力FGにより腰を移動させる。   Next, the calculated force is applied to the waist (representative point) to change the moving speed of the waist (step U5). That is, the waist is moved by the force FG in FIG.

次に、図19(A)で説明したように、両足が接地しているか否かを判断し(ステップU7)、両足が接地している場合には腰から遠い方の足を浮かせる(ステップU8)。即ち、図19(B)では左足50を浮かせる。   Next, as described with reference to FIG. 19A, it is determined whether or not both feet are grounded (step U7). If both feet are grounded, the foot far from the waist is lifted (step U8). ). That is, in FIG. 19B, the left foot 50 is lifted.

次に、図18(B)で説明したように、仮想重心の投影位置に関して接地している方の足と点対称の位置に、接地していない方の足の移動目標位置を設定する(ステップU9)。そして、接地していない方の足を、移動目標位置に移動させる(ステップU10)。即ち、図18(B)では、右足52を移動目標位置54に移動させる。   Next, as described with reference to FIG. 18B, the movement target position of the non-grounded foot is set at a point-symmetrical position with respect to the grounded foot with respect to the projected position of the virtual center of gravity (step U9). Then, the foot that is not in contact with the ground is moved to the movement target position (step U10). That is, in FIG. 18B, the right foot 52 is moved to the movement target position 54.

そして最後に、両股及び両すねの位置及び回転角度を、腰と両足の位置に基づきインバースキネマティクスにより算出する(ステップU11)。   Finally, the positions and rotation angles of both groins and shins are calculated by inverse kinematics based on the positions of the waist and both feet (step U11).

4.ハードウェア構成
次に、本実施形態を実現できるハードウェアの構成の一例について図25を用いて説明する。同図に示すシステムでは、CPU1000、ROM1002、RAM1004、情報記憶媒体1006、音生成IC1008、画像生成IC1010、I/Oポート1012、1014が、システムバス1016により相互にデータ送受信可能に接続されている。そして前記画像生成IC1010にはディスプレイ1018が接続され、音生成IC1008にはスピーカ1020が接続され、I/Oポート1012にはコントロール装置1022が接続され、I/Oポート1014には通信装置1024が接続されている。
4). Hardware Configuration Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. In the system shown in the figure, a CPU 1000, a ROM 1002, a RAM 1004, an information storage medium 1006, a sound generation IC 1008, an image generation IC 1010, and I / O ports 1012, 1014 are connected to each other via a system bus 1016 so that data can be transmitted and received. A display 1018 is connected to the image generation IC 1010, a speaker 1020 is connected to the sound generation IC 1008, a control device 1022 is connected to the I / O port 1012, and a communication device 1024 is connected to the I / O port 1014. Has been.

情報記憶媒体1006は、プログラム、表示物を表現するための画像データ、音データ等が主に格納されるものである。例えば家庭用ゲームシステムではゲームプログラム等を格納する情報記憶媒体としてDVD、ゲームカセット、CDROM等が用いられる。また業務用ゲームシステムではROM等のメモリが用いられ、この場合には情報記憶媒体1006はROM1002になる。   The information storage medium 1006 mainly stores programs, image data for expressing display objects, sound data, and the like. For example, in a home game system, a DVD, a game cassette, a CDROM, or the like is used as an information storage medium for storing a game program or the like. In the arcade game system, a memory such as a ROM is used. In this case, the information storage medium 1006 is a ROM 1002.

コントロール装置1022はゲームコントローラ、操作パネル等に相当するものであり、プレーヤがゲーム進行に応じて行う判断の結果をシステム本体に入力するための装置である。   The control device 1022 corresponds to a game controller, an operation panel, and the like, and is a device for inputting a result of determination made by the player in accordance with the progress of the game to the system main body.

情報記憶媒体1006に格納されるプログラム、ROM1002に格納されるシステムプログラム(システム本体の初期化情報等)、コントロール装置1022によって入力される信号等に従って、CPU1000はシステム全体の制御や各種データ処理を行う。RAM1004はこのCPU1000の作業領域等として用いられる記憶手段であり、情報記憶媒体1006やROM1002の所与の内容、あるいはCPU1000の演算結果等が格納される。また本実施形態を実現するための論理的な構成を持つデータ構造は、このRAM又は情報記憶媒体上に構築されることになる。   In accordance with a program stored in the information storage medium 1006, a system program stored in the ROM 1002 (system body initialization information, etc.), a signal input by the control device 1022, the CPU 1000 controls the entire system and performs various data processing. . The RAM 1004 is a storage means used as a work area of the CPU 1000 and stores the given contents of the information storage medium 1006 and the ROM 1002 or the calculation result of the CPU 1000. A data structure having a logical configuration for realizing the present embodiment is constructed on the RAM or the information storage medium.

更に、この種のシステムには音生成IC1008と画像生成IC1010とが設けられていてゲーム音やゲーム画像の好適な出力が行えるようになっている。音生成IC1008は情報記憶媒体1006やROM1002に記憶される情報に基づいて効果音やバックグラウンド音楽等のゲーム音を生成する集積回路であり、生成されたゲーム音はスピーカ1020によって出力される。また、画像生成IC1010は、RAM1004、ROM1002、情報記憶媒体1006等から送られる画像情報に基づいてディスプレイ1018に出力するための画素情報を生成する集積回路である。なおディスプレイ1018として、いわゆるヘッドマウントディスプレイ(HMD)と呼ばれるものを使用することもできる。   Furthermore, this type of system is provided with a sound generation IC 1008 and an image generation IC 1010 so that game sounds and game images can be suitably output. The sound generation IC 1008 is an integrated circuit that generates game sounds such as sound effects and background music based on information stored in the information storage medium 1006 and the ROM 1002, and the generated game sounds are output by the speaker 1020. The image generation IC 1010 is an integrated circuit that generates pixel information to be output to the display 1018 based on image information sent from the RAM 1004, the ROM 1002, the information storage medium 1006, and the like. As the display 1018, a so-called head mounted display (HMD) can be used.

また、通信装置1024は画像生成システム内部で利用される各種の情報を外部とやりとりするものであり、他の画像生成システムと接続されてゲームプログラムに応じた所与の情報を送受したり、通信回線を介してゲームプログラム等の情報を送受することなどに利用される。   The communication device 1024 exchanges various types of information used inside the image generation system with the outside, and is connected to other image generation systems to send and receive given information according to the game program, It is used to send and receive information such as game programs via a line.

そして図1〜図24で説明した種々の処理は、プログラムやデータなどの情報を格納した情報記憶媒体1006、この情報記憶媒体1006からの情報等に基づいて動作するCPU1000、画像生成IC1010或いは音生成IC1008等によって実現される。なお画像生成IC1010、音生成IC1008等で行われる処理は、CPU1000あるいは汎用のDSP等によりソフトウェア的に行ってもよい。   The various processes described with reference to FIGS. 1 to 24 include an information storage medium 1006 that stores information such as programs and data, a CPU 1000 that operates based on information from the information storage medium 1006, an image generation IC 1010, or sound generation. This is realized by the IC 1008 or the like. The processing performed by the image generation IC 1010, the sound generation IC 1008, and the like may be performed by software using the CPU 1000 or a general-purpose DSP.

図1に示すような業務用ゲームシステムに本実施形態を適用した場合には、内蔵されるシステムボード(サーキットボード)1106に対して、CPU、画像生成IC、音生成IC等が実装される。そして、本実施形態の処理(本発明の手段)を実行(実現)するための情報は、システムボード1106上の情報記憶媒体である半導体メモリ1108に格納される。以下、この情報を格納情報と呼ぶ。   When this embodiment is applied to an arcade game system as shown in FIG. 1, a CPU, an image generation IC, a sound generation IC, and the like are mounted on a built-in system board (circuit board) 1106. Information for executing (implementing) the processing (means of the present invention) of this embodiment is stored in a semiconductor memory 1108 that is an information storage medium on the system board 1106. Hereinafter, this information is referred to as storage information.

図26(A)に、本実施形態を家庭用のゲームシステムに適用した場合の例を示す。プレーヤはディスプレイ1200に映し出されたゲーム画像を見ながら、ゲームコントローラ1202、1204を操作してゲームを楽しむ。この場合、上記格納情報は、本体システムに着脱自在な情報記憶媒体であるDVD1206、メモリーカード1208、1209等に格納されている。   FIG. 26A shows an example in which the present embodiment is applied to a home game system. The player enjoys the game by operating the game controllers 1202 and 1204 while viewing the game image displayed on the display 1200. In this case, the stored information is stored in a DVD 1206, a memory card 1208, 1209, or the like, which is an information storage medium detachable from the main system.

図26(B)に、ホスト装置1300と、このホスト装置1300と通信回線(LANのような小規模ネットワークや、インターネットのような広域ネットワーク)1302を介して接続される端末1304-1〜1304-nとを含む画像生成システムに本実施形態を適用した場合の例を示す。この場合、上記格納情報は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、半導体メモリ等の情報記憶媒体1306に格納されている。端末1304-1〜1304-nが、CPU、画像生成IC、音処理ICを有し、スタンドアロンでゲーム画像、ゲーム音を生成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を生成するためのゲームプログラム等が端末1304-1〜1304-nに配送される。一方、スタンドアロンで生成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を生成し、これを端末1304-1〜1304-nに伝送し端末において出力することになる。   FIG. 26B shows a host device 1300 and terminals 1304-1 to 1304- connected to the host device 1300 via a communication line (small network such as a LAN or wide area network such as the Internet) 1302. An example in which the present embodiment is applied to an image generation system including n will be described. In this case, the stored information is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a semiconductor memory that can be controlled by the host device 1300, for example. When the terminals 1304-1 to 1304-n have a CPU, an image generation IC, and a sound processing IC and can generate game images and game sounds stand-alone, the host device 1300 receives game images and games. A game program or the like for generating sound is delivered to the terminals 1304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, which is transmitted to the terminals 1304-1 to 1304-n and output at the terminal.

なお、図26(B)の構成の場合に、本発明の処理を、ホスト装置(サーバー)と端末とで分散して処理するようにしてもよい。また、本発明を実現するための上記格納情報を、ホスト装置(サーバー)の情報記憶媒体と端末の情報記憶媒体に分散して格納するようにしてもよい。   In the case of the configuration shown in FIG. 26B, the processing of the present invention may be distributed between the host device (server) and the terminal. The storage information for realizing the present invention may be distributed and stored in the information storage medium of the host device (server) and the information storage medium of the terminal.

また通信回線に接続する端末は、家庭用ゲームシステムであってもよいし業務用ゲームシステムであってもよい。そして、業務用ゲームシステムを通信回線に接続する場合には、業務用ゲームシステムとの間で情報のやり取りが可能であると共に家庭用ゲームシステムとの間でも情報のやり取りが可能な携帯型情報記憶装置(メモリーカード、携帯型ゲーム機)を用いることが望ましい。   The terminal connected to the communication line may be a home game system or an arcade game system. And, when the arcade game system is connected to a communication line, portable information storage that can exchange information with the arcade game system and exchange information with the home game system. It is desirable to use a device (memory card, portable game machine).

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。   The present invention is not limited to that described in the above embodiment, and various modifications can be made.

例えば、本発明のうち従属請求項に係る発明においては、従属先の請求項の構成要件の一部を省略する構成とすることもできる。また、本発明の1の独立請求項に係る発明の要部を、他の独立請求項に従属させることもできる。   For example, in the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted. Moreover, the principal part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.

また、各部位を動かす物理シミュレーションの手法は、図4などで説明した手法が特に望ましいが、これに限定されるものでなく種々の変形実施が可能である。また、ヒット情報は、処理の簡素化のためにはヒット力ベクトルであることが特に望ましいが、これに限定されるものではなく、少なくとも各部位を動かすための情報であればよい。   In addition, the physical simulation method for moving each part is particularly preferably the method described with reference to FIG. 4 and the like, but is not limited thereto, and various modifications can be made. The hit information is particularly preferably a hit force vector for simplification of processing, but is not limited to this, and may be information for moving at least each part.

また、本実施形態では、敵キャラクタについてのモーション生成やモーション再生について主に説明したが、モーション生成やモーション再生の対象となるオブジェクトは敵キャラクタに限定されず、プレーヤキャラクタや移動体など種々のオブジェクトを考えることができる。   In this embodiment, motion generation and motion playback for enemy characters have been mainly described. However, objects for motion generation and motion playback are not limited to enemy characters, and various objects such as player characters and moving objects can be used. Can think.

また、本実施形態では、ショットによりオブジェクトがヒットされる場合を例にとり説明したが、本発明におけるオブジェクトのヒットは、これに限定されず、例えば、剣によるヒットや、パンチやキックによるヒット等も含まれる。   In this embodiment, the case where an object is hit by a shot has been described as an example. However, the hit of an object in the present invention is not limited to this, and for example, hits by a sword, hits by punch or kick, etc. included.

また、モーション生成とモーション再生を切り替える発明においては、モーション生成の手法は、図4などで説明した手法に限定されるものではなく、何らかの物理シミュレーション(疑似物理シミュレーション)の要素を含むものであればよい。また、モーション生成とモーション再生の切り替えイベントとしては、本実施形態で説明したイベント(オブジェクトのヒット等)以外にも種々のイベントを考えることができる。   Further, in the invention for switching between motion generation and motion playback, the motion generation method is not limited to the method described in FIG. 4 or the like, as long as it includes an element of some physical simulation (pseudo physical simulation). Good. In addition to the events described in the present embodiment (such as object hits), various events can be considered as motion generation and motion playback switching events.

また、図18(A)の手法では、仮想重心に仮想重力を作用させることで得られる力を、オブジェクト(敵キャラクタ)の代表点(腰)に作用させることで、オブジェクトに倒し動作を行わせているが、オブジェクトに倒し動作を行わせる手法は、このような手法に限定されるものではない。例えば、オブジェクトの代表点など、仮想重心以外の点に仮想重力を作用させてオブジェクトに倒し動作を行わせたり、このような仮想重力を用いないでオブジェクトに倒し動作を行わせるなど、種々の手法を採用できる。   In the method of FIG. 18A, the force obtained by applying virtual gravity to the virtual center of gravity is applied to the representative point (waist) of the object (enemy character), thereby causing the object to perform a tilting action. However, the method of causing the object to perform the tilting motion is not limited to such a method. For example, various methods such as causing a virtual gravity to act on a point other than the virtual center of gravity, such as a representative point of the object, to cause the object to tilt, or causing the object to tilt without using such virtual gravity. Can be adopted.

また、本実施形態では、第1、第2の部位が足である場合について主に説明したが、第1、第2の部位は足に限定されず、手などでもよい。   Moreover, although this embodiment mainly demonstrated the case where the 1st, 2nd site | part was a leg | foot, the 1st, 2nd site | part is not limited to a leg | foot, A hand etc. may be sufficient.

また、接地していない第2の部位の移動目標位置は、図18(B)で説明した位置が特に望ましいが、これとは異なる位置に第2の部位を移動させるようにすることもできる。   Further, the movement target position of the second part that is not grounded is particularly preferably the position described with reference to FIG. 18B, but the second part may be moved to a position different from this.

また本発明はガンゲーム以外にも種々のゲーム(ガンゲーム以外のシューティングゲーム、格闘ゲーム、ロボット対戦ゲーム、スポーツゲーム、競争ゲーム、ロールプレイングゲーム、音楽演奏ゲーム、ダンスゲーム等)に適用できる。   In addition to the gun game, the present invention can be applied to various games (shooting games other than gun games, fighting games, robot fighting games, sports games, competitive games, role playing games, music playing games, dance games, etc.).

また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、画像生成システム、ゲーム画像を生成するシステムボード等の種々の画像生成システムに適用できる。   The present invention also relates to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, an image generation system, and a system board for generating game images. Applicable.

本実施形態を業務用ゲームシステムに適用した場合の構成例を示す図である。It is a figure which shows the structural example at the time of applying this embodiment to an arcade game system. 本実施形態の画像生成システムのブロック図の例である。It is an example of the block diagram of the image generation system of this embodiment. 複数の部位により構成される敵キャラクタ(オブジェクト)の例について示す図である。It is a figure shown about the example of the enemy character (object) comprised by a some site | part. 本実施形態におけるヒット時のモーション生成手法について説明するための図である。It is a figure for demonstrating the motion generation method at the time of a hit in this embodiment. 図5(A)、(B)は、本実施形態により生成されるモーションの例について示す図である。5A and 5B are diagrams illustrating examples of motion generated according to the present embodiment. 図6(A)、(B)も、本実施形態により生成されるモーションの例について示す図である。FIGS. 6A and 6B are also diagrams illustrating examples of motion generated by the present embodiment. 図7(A)、(B)は、ヒット力ベクトルの大きさを減衰させながら親の部位に伝達する手法や、角速度に応じた回転抵抗力を各部位に作用させる手法について説明するための図である。FIGS. 7A and 7B are diagrams for explaining a technique for transmitting the magnitude of the hit force vector to the parent part while attenuating the magnitude, and a technique for applying a rotational resistance force according to the angular velocity to each part. It is. 敵キャラクタをデフォルトの姿勢に戻す手法について説明するための図である。It is a figure for demonstrating the method of returning an enemy character to a default attitude | position. 図9(A)、(B)は、モーション生成とモーション再生を切り替える手法について説明するための図である。9A and 9B are diagrams for explaining a method of switching between motion generation and motion playback. 図10(A)、(B)は、繋ぎモーションを再生(又は生成)する手法について説明するための図である。FIGS. 10A and 10B are diagrams for explaining a technique for reproducing (or generating) a joint motion. モーション補間について説明するための図である。It is a figure for demonstrating motion interpolation. 敵キャラクタの下半身モーションの生成について説明するための図である。It is a figure for demonstrating the production | generation of the lower body motion of an enemy character. 図13(A)、(B)は、本実施形態により生成された下半身モーションを左前方から見た図である。FIGS. 13A and 13B are views of the lower body motion generated according to the present embodiment as viewed from the left front. 図14(A)、(B)も、本実施形態により生成された下半身モーションを左前方から見た図である。FIGS. 14A and 14B are views of the lower body motion generated according to the present embodiment as viewed from the left front. 図15(A)、(B)も、本実施形態により生成された下半身モーションを左前方から見た図である。FIGS. 15A and 15B are views of the lower body motion generated according to the present embodiment as viewed from the left front. 図16(A)、(B)は、本実施形態により生成された下半身モーションを下方から見た図である。FIGS. 16A and 16B are views of the lower body motion generated according to the present embodiment as viewed from below. 図17(A)、(B)も、本実施形態により生成された下半身モーションを下方から見た図である。FIGS. 17A and 17B are views of the lower body motion generated according to the present embodiment as viewed from below. 図18(A)、(B)は、仮想重心に仮想重力を作用させる手法や、接地していない足の移動目標位置を設定する手法について説明するための図である。FIGS. 18A and 18B are diagrams for describing a method of applying virtual gravity to the virtual center of gravity and a method of setting a movement target position of a foot that is not in contact with the ground. 図19(A)、(B)は、両足接地の場合に片方の足を浮かせる手法について説明するための図である。FIGS. 19A and 19B are diagrams for explaining a method of floating one foot in the case of both-foot contact. 本実施形態の処理の詳細例について示すフローチャートである。It is a flowchart shown about the detailed example of the process of this embodiment. 本実施形態の処理の詳細例について示すフローチャートである。It is a flowchart shown about the detailed example of the process of this embodiment. 本実施形態の処理の詳細例について示すフローチャートである。It is a flowchart shown about the detailed example of the process of this embodiment. 本実施形態の処理の詳細例について示すフローチャートである。It is a flowchart shown about the detailed example of the process of this embodiment. 本実施形態の処理の詳細例について示すフローチャートである。It is a flowchart shown about the detailed example of the process of this embodiment. 本実施形態を実現できるハードウェアの構成の一例を示す図である。It is a figure which shows an example of the structure of the hardware which can implement | achieve this embodiment. 図26(A)、(B)は、本実施形態が適用される種々の形態のシステムの例を示す図である。FIGS. 26A and 26B are diagrams showing examples of various forms of systems to which the present embodiment is applied.

符号の説明Explanation of symbols

10 敵キャラクタ(オブジェクト)
12、22 手
14、24 前腕
16、26 上腕
18 胸
20 腰
30 頭
32、42 足
34、44 すね
36、46 股
50 左足
52 右足
54、56 移動目標位置
60 腰
62 仮想重心
63 床(接地面)
64 仮想重心の投影位置
A0〜A18 骨
J0〜J13 関節
RP 代表点
FH、FH0〜FH4、FHN〜FHN+2 ヒット力ベクトル
ωN〜ωN+2 角速度
FRN〜FRN+2 回転抵抗力
100 処理部
110 ゲーム演算部
112 ヒットチェック部
114 モーション再生部
116 モーション生成部
118 ヒット時モーション生成部
120 下半身モーション生成部
122 切り替え部
130 操作部
140 記憶部
142 モーションデータ記憶部
150 情報記憶媒体
160 画像生成部
162 表示部
170 音生成部
172 音出力部
174 通信部
176 I/F部
180 メモリーカード
10 Enemy character (object)
12, 22 Hand 14, 24 Forearm 16, 26 Upper arm 18 Chest 20 Waist 30 Head 32, 42 Feet 34, 44 Shank 36, 46 Crotch 50 Left foot 52 Right foot 54, 56 Movement target position 60 Waist 62 Virtual center of gravity 63 Floor (ground surface) )
64 Virtual center of gravity projection positions A0 to A18 Bone J0 to J13 Joint RP Representative points FH, FH0 to FH4, FHN to FHN + 2 Hit force vectors ωN to ωN + 2 Angular velocity FRN to FRN + 2 Rotational resistance 100 Processing unit 110 Game operation unit 112 Hit check unit 114 Motion playback unit 116 Motion generation unit 118 Hit-time motion generation unit 120 Lower body motion generation unit 122 Switching unit 130 Operation unit 140 Storage unit 142 Motion Data storage unit 150 Information storage medium 160 Image generation unit 162 Display unit 170 Sound generation unit 172 Sound output unit 174 Communication unit 176 I / F unit 180 Memory card

Claims (10)

画像を生成するための画像生成システムであって、
複数の部位それぞれの関節及び骨により構成されるスケルトンモデルを用いて、ヒット時における複数の部位により構成されるオブジェクトのモーションを生成した後に、オブジェクトの姿勢を所与の姿勢に戻すオブジェクトのモーションを生成するモーション生成部と、
モーションが生成されたオブジェクトの画像を含む画像を生成する画像生成部と、を含み、
前記モーション生成部が、
ヒットされた部位及びヒットされた部位に隣接する1又は複数の部位それぞれについて、部位の骨を回転させる処理及び部位の関節を移動させる処理の少なくとも一方を行うことによって、ヒット時におけるオブジェクトのモーションを生成した後に、オブジェクトの姿勢を所与の姿勢に戻すオブジェクトのモーションを生成することを特徴とする画像生成システム。
An image generation system for generating an image,
Using the skeleton model composed of the joints and bones of each of the plurality of parts, after generating the motion of the object composed of the plurality of parts at the time of the hit, the object motion is returned to the given posture. A motion generator to generate,
An image generation unit that generates an image including an image of the object in which the motion is generated ,
The motion generation unit
By performing at least one of the process of rotating the bone of the part and the process of moving the joint of the part for each of the hit part and one or a plurality of parts adjacent to the hit part, the motion of the object at the time of the hit An image generation system that generates a motion of an object that returns the posture of the object to a given posture after the generation.
請求項1において、In claim 1,
前記モーション生成部が、The motion generation unit
所与の姿勢に戻すための復元力を各部位に作用させて、オブジェクトの姿勢を所与の姿勢に戻すオブジェクトのモーションを生成することを特徴とする画像生成システム。An image generation system that generates a motion of an object that returns a posture of an object to a given posture by applying a restoring force for returning the posture to a given posture to each part.
請求項1又は2において、
前記モーション生成部が、
各部位の骨の回転角度を各部位の所定の回転角度に戻すことによって、オブジェクトの姿勢を所与の姿勢に戻すオブジェクトのモーションを生成することを特徴とする画像生成システム。
In claim 1 or 2 ,
The motion generation unit
An image generation system that generates motion of an object that returns the posture of the object to a given posture by returning the rotation angle of the bone of each portion to a predetermined rotation angle of each portion .
請求項1〜3のいずれかにおいて、
前記モーション生成部が、
オブジェクトが連続してヒットされる場合には、ヒットされる度に、ヒット時におけるオブジェクトのモーションを生成した後にオブジェクトの姿勢を所与の姿勢に戻すオブジェクトのモーションを生成することを特徴とする画像生成システム。
In any one of claims 1 to 3,
The motion generation unit
An image characterized by generating an object motion for returning an object posture to a given posture after generating an object motion at the time of hit when the object is hit continuously Generation system.
請求項1〜のいずれかにおいて、
前記モーション生成部が、
ヒット方向を含むヒット情報に基づいて、ヒット時におけるオブジェクトのモーションを生成することを特徴とする画像生成システム。
In any one of Claims 1-4 ,
The motion generation unit
An image generation system that generates motion of an object at the time of hit based on hit information including a hit direction.
コンピュータが使用可能な情報記憶媒体であって、
複数の部位それぞれの関節及び骨により構成されるスケルトンモデルを用いて、ヒット時における複数の部位により構成されるオブジェクトのモーションを生成した後に、オブジェクトの姿勢を所与の姿勢に戻すオブジェクトのモーションを生成するモーション生成部と、
モーションが生成されたオブジェクトの画像を含む画像を生成する画像生成部として、コンピュータを機能させるためのプログラムを記憶する情報記憶媒体であって、
前記モーション生成部が、
ヒットされた部位及びヒットされた部位に隣接する1又は複数の部位それぞれについて、部位の骨を回転させる処理及び部位の関節を移動させる処理の少なくとも一方を行うことによって、ヒット時におけるオブジェクトのモーションを生成した後に、オブジェクトの姿勢を所与の姿勢に戻すオブジェクトのモーションを生成することを特徴とする情報記憶媒体。
An information storage medium usable by a computer,
Using the skeleton model composed of the joints and bones of each of the plurality of parts, after generating the motion of the object composed of the plurality of parts at the time of the hit, the object motion is returned to the given posture. A motion generator to generate,
An information storage medium for storing a program for causing a computer to function as an image generation unit that generates an image including an image of an object for which motion has been generated ,
The motion generation unit
By performing at least one of the process of rotating the bone of the part and the process of moving the joint of the part for each of the hit part and one or a plurality of parts adjacent to the hit part, the motion of the object at the time of the hit An information storage medium that generates a motion of an object that returns the posture of the object to a given posture after the generation .
請求項6において、In claim 6,
前記モーション生成部が、The motion generation unit
所与の姿勢に戻すための復元力を各部位に作用させて、オブジェクトの姿勢を所与の姿勢に戻すオブジェクトのモーションを生成することを特徴とする情報記憶媒体。An information storage medium that generates a motion of an object that returns a posture of the object to a given posture by applying a restoring force for returning the posture to a given posture to each part.
請求項6又は7において、
前記モーション生成部が、
各部位の骨の回転角度を各部位の所定の回転角度に戻すことによって、オブジェクトの姿勢を所与の姿勢に戻すオブジェクトのモーションを生成することを特徴とする情報記憶媒体。
In claim 6 or 7 ,
The motion generation unit
An information storage medium characterized by generating a motion of an object that returns the posture of the object to a given posture by returning the rotation angle of the bone of each portion to a predetermined rotation angle of each portion .
請求項6〜8のいずれかにおいて、
前記モーション生成部が、
オブジェクトが連続してヒットされる場合には、ヒットされる度に、ヒット時におけるオブジェクトのモーションを生成した後にオブジェクトの姿勢を所与の姿勢に戻すオブジェクトのモーションを生成することを特徴とする情報記憶媒体。
In any one of Claims 6-8 ,
The motion generation unit
When the object is hit continuously, the object motion is generated to generate a motion of the object at the time of hitting and then to return the object posture to a given posture. Storage medium.
請求項6〜のいずれかにおいて、
前記モーション生成部が、
ヒット方向を含むヒット情報に基づいて、ヒット時におけるオブジェクトのモーションを生成することを特徴とする情報記憶媒体。
In any of the claims 6-9,
The motion generation unit
An information storage medium that generates a motion of an object at the time of hit based on hit information including a hit direction.
JP2008288251A 2008-11-10 2008-11-10 Image generation system and information storage medium Expired - Lifetime JP4642104B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008288251A JP4642104B2 (en) 2008-11-10 2008-11-10 Image generation system and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008288251A JP4642104B2 (en) 2008-11-10 2008-11-10 Image generation system and information storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP17131499A Division JP4278072B2 (en) 1999-06-17 1999-06-17 Image generation system and information storage medium

Publications (2)

Publication Number Publication Date
JP2009028561A JP2009028561A (en) 2009-02-12
JP4642104B2 true JP4642104B2 (en) 2011-03-02

Family

ID=40399713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008288251A Expired - Lifetime JP4642104B2 (en) 2008-11-10 2008-11-10 Image generation system and information storage medium

Country Status (1)

Country Link
JP (1) JP4642104B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08196745A (en) * 1995-01-23 1996-08-06 Namco Ltd Three-dimensional game apparatus and hit checking method
JPH09138863A (en) * 1995-11-13 1997-05-27 Matsushita Electric Ind Co Ltd Three-dimensional motion generator
JPH1011601A (en) * 1996-06-24 1998-01-16 Hudson Soft Co Ltd Movement generating method for virtual object and storage medium based on the same method
JPH1021420A (en) * 1996-07-05 1998-01-23 Namco Ltd Picture composition device/method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08196745A (en) * 1995-01-23 1996-08-06 Namco Ltd Three-dimensional game apparatus and hit checking method
JPH09138863A (en) * 1995-11-13 1997-05-27 Matsushita Electric Ind Co Ltd Three-dimensional motion generator
JPH1011601A (en) * 1996-06-24 1998-01-16 Hudson Soft Co Ltd Movement generating method for virtual object and storage medium based on the same method
JPH1021420A (en) * 1996-07-05 1998-01-23 Namco Ltd Picture composition device/method

Also Published As

Publication number Publication date
JP2009028561A (en) 2009-02-12

Similar Documents

Publication Publication Date Title
US7084855B2 (en) Image generation method, program, and information storage medium
JP4301471B2 (en) Image generation system and information storage medium
JP4794343B2 (en) Image generation system, program, and information storage medium
JP4775989B2 (en) Image generation system, program, and information storage medium
US20100245365A1 (en) Image generation system, image generation method, and computer program product
JP4187182B2 (en) Image generation system, program, and information storage medium
JP4278072B2 (en) Image generation system and information storage medium
US6614436B2 (en) Image generation device and information storage medium
JP5767682B2 (en) Game program and game system
JP4278070B2 (en) Image generation system and information storage medium
JP4278071B2 (en) Image generation system and information storage medium
JP6935218B2 (en) Simulation system and program
JP4097236B2 (en) Image generating apparatus and information storage medium
JP4642118B2 (en) Image generation system and information storage medium
JP3844396B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4642104B2 (en) Image generation system and information storage medium
JP4656622B2 (en) Image generation system, program, and information storage medium
JP4251589B2 (en) Image generation system and information storage medium
JP2009045273A (en) Program, information storage medium, and game system
JP4420729B2 (en) Program, information storage medium, and image generation system
JP3990050B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP5273694B2 (en) GAME SYSTEM, PROGRAM, INFORMATION STORAGE MEDIUM, AND SERVER
JP2010237883A (en) Program, information storage medium, and image generation system
JP2009134767A (en) Image generation system and information storage medium
GB2395645A (en) Motion correction of on-screen targets in shooting game

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100901

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101130

R150 Certificate of patent or registration of utility model

Ref document number: 4642104

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term