JP2009028188A - Program, information storage medium and game machine - Google Patents

Program, information storage medium and game machine Download PDF

Info

Publication number
JP2009028188A
JP2009028188A JP2007193901A JP2007193901A JP2009028188A JP 2009028188 A JP2009028188 A JP 2009028188A JP 2007193901 A JP2007193901 A JP 2007193901A JP 2007193901 A JP2007193901 A JP 2007193901A JP 2009028188 A JP2009028188 A JP 2009028188A
Authority
JP
Japan
Prior art keywords
model
camera
motion
virtual
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007193901A
Other languages
Japanese (ja)
Inventor
Masahiko Tokushima
雅彦 徳島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2007193901A priority Critical patent/JP2009028188A/en
Publication of JP2009028188A publication Critical patent/JP2009028188A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method which easily realizes control of a virtual camera so that the image of a character model can be an intended one and enables a reduction in manufacture processes concerning the motion of the character model and the virtual camera. <P>SOLUTION: A subjective camera CM0 and an objective camera CM1 are incorporated as a part of the frame of a skeleton model MS of a character, motion of the subjective camera CM0 and the objective camera CM1 is controlled by motion data same as the parts, such as the arms and the legs. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、コンピュータに、仮想3次元空間の画像を生成させて所定のゲームを実行させるためのプログラム等に関する。   The present invention relates to a program for causing a computer to generate a virtual three-dimensional space image and execute a predetermined game.

近年のコンピュータグラフィックスを用いたビデオゲームでは、ポリゴンモデルで表現される人や動物などの多関節のキャラクタを運動させる場合、キャラクタの身体を関節構造で連結し階層構造した運動モデル(例えば、スケルトンモデルなど)で構成し、モーションデータに従って予め対応付けられた運動モデルの各部位を移動させて、運動モデルに基づいて表示用のパーツオブジェクトを配置することで、キャラクタに一連の動作をさせる方法が採用されている(例えば、特許文献1参照)。
特許第3380158号公報
In video games using computer graphics in recent years, when an articulated character such as a human being or an animal represented by a polygon model is moved, a motion model (for example, a skeleton) in which character bodies are connected by a joint structure. Model), moving each part of the motion model associated in advance according to the motion data, and placing a part object for display based on the motion model, thereby causing the character to perform a series of actions. (For example, refer to Patent Document 1).
Japanese Patent No. 3380158

さて、例えばFPS(ファーストパーソンシューティング)などに代表される一人称視点タイプのビデオゲームの場合、ゲーム画面はプレーヤキャラクタの主観視点から見たゲーム空間を元に生成されるのが一般的である。また、そうしたFPSのようなアクション系のゲームでは、あるプレーヤキャラクタの主観に他のプレーヤキャラクタの様子が写ることが多々あるので、キャラクタを客観視したときの見映えの良い姿と動作(モーション)が要求されるのも良く知られるところである。   In the case of a first-person viewpoint type video game represented by, for example, FPS (First Person Shooting), the game screen is generally generated based on a game space viewed from the subjective viewpoint of the player character. In addition, in an action game such as FPS, the appearance of another player character is often reflected in the subjectivity of a certain player character, so that the appearance and motion (motion) when the character is viewed objectively Is well known.

ところが、見映えの良い姿と動作を実現するためのキャラクタモデル(パーツオブジェクト及び運動モデルを含む)と、そのモーションデータとを製作し、このキャラクタモデルに単純に主観視点用の仮想カメラ(主観カメラ)を固定してしまうと、視界に不必要な身体・躯体のパーツが写り込んだり、見映えの良い派手な動作が故に仮想カメラが振れるなどして、ゲーム画面が見難くなり操作性が悪化してしまうケースが多い。   However, a character model (including part objects and motion models) and motion data for realizing a good-looking appearance and movement are produced, and a virtual camera (subjective camera) for a subjective viewpoint is simply created in this character model. ) Is fixed, the parts of the body / body that are unnecessary for the field of vision are reflected, or the virtual camera shakes because of the flashy movement that looks good, making the game screen difficult to see and the operability deteriorated. There are many cases where this happens.

したがって、従来はキャラクタモデルを客観視したときの当該キャラクタモデルの見映えの良いゲーム画面と、キャラクタモデル自身の視点である主観視でゲーム空間を眺めたときのゲーム画面の見易さとを両立させるために、一つのキャラクタモデルについて主観用と客観用の二つの運動モデル及びそれぞれの運動モデルに対するモーションデータをわざわざ製作するとともに、更に、主観視点用と客観視点用の仮想カメラそれぞれのカメラワークを別途製作する手法がとられてきた。その製作工数は、ゲームに登場するキャラクタが増えれば増えるほど増大し、ゲーム製作における大きな負担となっている。   Therefore, in the past, the game screen with good appearance of the character model when the character model is objectively viewed and the visibility of the game screen when viewing the game space with the subjective view that is the viewpoint of the character model itself are compatible. Therefore, both the subjective and objective motion models for each character model and the motion data for each motion model are both produced, and the camera work for each of the virtual cameras for the subjective viewpoint and the objective viewpoint is added separately. The technique of making has been taken. The number of man-hours for production increases as the number of characters appearing in the game increases, which is a heavy burden in game production.

本発明は、こうした事情を鑑みてなされたものであり、その目的とするところは、キャラクタモデルの撮影画像が所望する画像となるような仮想カメラの制御を簡単に実現するとともに、キャラクタモデル及び仮想カメラのモーションに係る製作工程を削減することのできる手法を実現することである。   The present invention has been made in view of such circumstances, and an object of the present invention is to easily realize control of a virtual camera such that a photographed image of a character model becomes a desired image, It is to realize a technique capable of reducing the manufacturing process related to the camera motion.

上記の課題を解決する第1の発明はコンピュータに、仮想3次元空間の画像を生成させて所定のゲームを実行させるためのプログラムであって、
関節構造を有するモデル(例えば、図3の1プレーヤキャラクタCP1、2プレーヤキャラクタCP2、図4の1プレーヤキャラクタCP1、2プレーヤキャラクタCP2の階層構造)に仮想カメラ(図3の主観カメラCM0、客観カメラCM1)を骨格の一部として組み込み、当該仮想カメラに対応する関節構造を有するモデルとして形成するモデル形成手段(例えば、図12のキャラクタモデルデータ514)、
前記モデル形成手段により形成されたモデルを前記仮想3次元空間に配置するモデル配置手段(例えば、図12の処理部200、モデル配置制御部212、図15のステップS4)、
前記モデル配置手段により配置されたモデルを前記複数の仮想カメラと一体に動作制御するモデル動作制御手段(例えば、図12の処理部200、モデル動作制御部218、図15のステップS16)、
前記仮想カメラから見た前記仮想3次元空間の画像を生成する画像生成手段(例えば、図12の処理部200、画像生成部260、図15のステップS22)、としてコンピュータを機能させるためのプログラムである。
A first invention for solving the above problem is a program for causing a computer to generate a virtual three-dimensional space image and to execute a predetermined game,
A model having a joint structure (for example, a hierarchical structure of one player character CP1 and two player characters CP2 in FIG. 3 and one player character CP1 and two player characters CP2 in FIG. 4) and a virtual camera (subjective camera CM0 and objective camera in FIG. 3). CM1) as a part of the skeleton, model forming means for forming a model having a joint structure corresponding to the virtual camera (for example, character model data 514 in FIG. 12),
Model placement means for placing the model formed by the model formation means in the virtual three-dimensional space (for example, the processing unit 200, the model placement control unit 212 in FIG. 12, step S4 in FIG. 15),
Model motion control means (for example, the processing unit 200 in FIG. 12, the model motion control unit 218, and step S16 in FIG. 15) for controlling the motion of the model placed by the model placement means integrally with the plurality of virtual cameras.
A program for causing a computer to function as image generation means (for example, the processing unit 200 in FIG. 12, the image generation unit 260, and step S22 in FIG. 15) that generates an image of the virtual three-dimensional space viewed from the virtual camera. is there.

また、第14の発明は、仮想3次元空間の画像を生成して所定のゲームを実行するゲーム装置であって、関節構造を有するモデルに仮想カメラを骨格の一部として組み込み、当該仮想カメラに対応する関節構造を有するモデルとして形成するモデル形成手段と、前記モデル形成手段により形成されたモデルを前記仮想3次元空間に配置するモデル配置手段と、前記モデル配置手段により配置されたモデルを前記複数の仮想カメラと一体に動作制御するモデル動作制御手段と、前記仮想カメラから見た前記仮想3次元空間の画像を生成する画像生成手段と、を備えたゲーム装置である。   A fourteenth aspect of the invention is a game apparatus for generating a virtual three-dimensional space image and executing a predetermined game, wherein a virtual camera is incorporated as a part of a skeleton in a model having a joint structure, and the virtual camera is incorporated into the virtual camera. Model forming means for forming a model having a corresponding joint structure, model placing means for placing the model formed by the model forming means in the virtual three-dimensional space, and the plurality of models placed by the model placing means A model motion control means for controlling the movement integrally with the virtual camera, and an image generation means for generating an image of the virtual three-dimensional space viewed from the virtual camera.

第1及び第14の発明によれば、関節構造を有するモデルの骨格の一部に仮想カメラが組み込まれているため、腕部や脚部を動作させるのと同じようにして仮想カメラのモーションを制御することができる。そうしてこの仮想カメラを視点として仮想3次元空間の画像(ゲーム空間画像)を生成することができる。
したがって、仮想カメラそれぞれをキャラクタモデルの一部として制御できるため、仮想カメラの制御を簡単化することができるとともに、キャラクタモデル及び仮想カメラのモーションに係る製作工程を削減することができる。
According to the first and fourteenth inventions, since the virtual camera is incorporated into a part of the skeleton of the model having a joint structure, the motion of the virtual camera is controlled in the same manner as operating the arms and legs. Can be controlled. Thus, an image (game space image) in a virtual three-dimensional space can be generated with this virtual camera as a viewpoint.
Therefore, since each virtual camera can be controlled as a part of the character model, the control of the virtual camera can be simplified, and the production process relating to the motion of the character model and the virtual camera can be reduced.

第2の発明は、前記モデル形成手段が、複数の仮想カメラを前記モデルの骨格の一部として組み込み、各仮想カメラそれぞれに対応する関節構造を有するモデルとして形成するように前記コンピュータを機能させ、前記仮想3次元空間を撮影する仮想カメラを、前記配置されたモデルの骨格の一部として成る複数の仮想カメラの中から選択する仮想カメラ選択手段(例えば、図12の処理部200、仮想カメラ選択部222、図15のステップS20)として前記コンピュータを機能させ、
前記画像生成手段が、前記選択された仮想カメラから見た前記仮想3次元空間の画像を生成するように前記コンピュータを機能させるための第1の発明のプログラムである。
According to a second aspect of the present invention, the model forming means causes the computer to function so that a plurality of virtual cameras are incorporated as part of the skeleton of the model and formed as a model having a joint structure corresponding to each virtual camera. Virtual camera selection means (for example, the processing unit 200 of FIG. 12, virtual camera selection) that selects a virtual camera that captures the virtual three-dimensional space from a plurality of virtual cameras that are part of the skeleton of the arranged model. Unit 222, step S20) of FIG.
The program according to the first invention for causing the computer to function so that the image generation means generates an image of the virtual three-dimensional space viewed from the selected virtual camera.

第2の発明によれば、第1の発明と同様の効果を奏するとともに、モデルの一部に組み込んだ複数の仮想カメラから仮想カメラを選択して、仮想3次元空間の画像を生成するときの視点とすることができる。仮想カメラ毎に位置や姿勢、動き、撮影画角などを変え、適宜仮想カメラを選択するだけで、モデルを撮影するアングルや構図を自在に切り換える事が可能になる。   According to the second invention, the same effect as the first invention can be obtained, and a virtual camera is selected from a plurality of virtual cameras incorporated in a part of the model to generate an image in the virtual three-dimensional space. It can be a viewpoint. By simply changing the position, orientation, movement, shooting angle of view, etc. for each virtual camera and selecting the appropriate virtual camera, the angle and composition for shooting the model can be switched freely.

第3の発明は、前記ゲームの現在の進行状況が、特定の仮想カメラに切り換える状況にあることを検出するためのカメラ切換状況条件を満足したことを検出する切換状況検出手段(例えば、図12の処理部200、図15のステップS10)として前記コンピュータを機能させ、前記仮想カメラ選択手段が、前記切換状況検出手段の検出に応じて前記特定の仮想カメラを選択するように前記コンピュータを機能させるための第2の発明のプログラムである。   According to a third aspect of the present invention, there is provided switching status detecting means for detecting that the current progress status of the game satisfies a camera switching status condition for detecting that the game is in a status of switching to a specific virtual camera (for example, FIG. 12). The processing unit 200, step S10 in FIG. 15) causes the computer to function, and the virtual camera selection means causes the computer to function so as to select the specific virtual camera in response to detection by the switching status detection means. This is a program of the second invention.

第3の発明によれば、第2の発明と同様の効果を奏するとともに、ゲームの現在の進行状況に応じて特定の仮想カメラを選択することができる。つまり、モデルのモーションは同じでも、様々な状況に応じたモデルの写し方を設定できる。したがって、状況別にモデルのモーションを設けなくとも、少ない工程で見せ方のバリエーションを増やすことができるようになる。   According to the third aspect, the same effect as the second aspect can be achieved, and a specific virtual camera can be selected according to the current progress of the game. In other words, even if the motion of the model is the same, it is possible to set how to copy the model according to various situations. Therefore, it is possible to increase the variation of how to show the image with fewer steps without providing a model motion for each situation.

第4の発明は、前記複数の仮想カメラそれぞれに対応する関節構造を含む前記モデルの各関節構造の動きが規定されたモーションデータが予め複数種類用意されており、前記モデル動作制御手段が、所定のコントローラに入力されたプレーヤによる前記モデルの動作指示入力に従って前記モデルに適用するモーションデータを前記複数種類のモーションデータの中から選択するモーションデータ選択手段(例えば、図12の処理部200、モーションデータ選択部214、図15のステップS10)を有し、前記選択されたモーションデータに従って前記モデルの動作を制御するように前記コンピュータを機能させるための第2又は第3の発明のプログラムである。   According to a fourth aspect of the present invention, a plurality of types of motion data in which movement of each joint structure of the model including joint structures corresponding to each of the plurality of virtual cameras is defined are prepared in advance, and the model motion control unit is Motion data selection means for selecting motion data to be applied to the model from the plurality of types of motion data in accordance with the model operation instruction input by the player input to the controller (for example, the processing unit 200 in FIG. 12, motion data) 15 is a program according to the second or third aspect of the invention for causing the computer to function so as to control the operation of the model in accordance with the selected motion data.

従来のゲーム製作過程ではキャラクタのモーションはビジュアルセンスに富んだ専門のモーションデザイナーが設定し、それを撮影する仮想カメラのカメラワークは別の工程で別のスタッフが製作するのが一般的である。
しかし、第4の発明によれば、第2又は第3の発明と同様の効果を奏するとともに、モーションデータを複数種類用意しておいてゲームコントローラからの操作入力に応じてモーションを選択することで、キャラクタの動作をモーションデータの選択でコントロールできる。つまり、キャラクタのモーション毎に仮想カメラのモーションを設定できる。よって、キャラクタのモーションを設定するときに、そのキャラクタのモーションをより効果的に映す仮想カメラのモーションを設定することが可能となり、ゲーム製作工数をより削減することができるとともに、ゲームの演出品質をより高めることができる。
In the conventional game production process, the motion of a character is set by a specialized motion designer with a rich visual sense, and the camera work of a virtual camera that shoots it is usually produced by another staff in a separate process.
However, according to the fourth invention, the same effects as those of the second or third invention can be obtained, and a plurality of types of motion data can be prepared and a motion can be selected according to an operation input from the game controller. , Character movement can be controlled by selecting motion data. That is, the motion of the virtual camera can be set for each motion of the character. Therefore, when setting the motion of the character, it is possible to set the motion of the virtual camera that reflects the motion of the character more effectively, which can further reduce the game production man-hours and improve the game performance quality. Can be increased.

第5の発明は、前記モデル動作制御手段が、前記コントローラに前記モデルの動作指示入力が為された際に、前記モデルに適用中のモーションデータが有るか否かを判定する適用中モーション有無判定手段(例えば、図12の処理部200、ゲーム演算部210、図15のステップS12)と、
前記適用中モーション有無判定手段により有りと判定された場合に、当該適用中のモーションデータと、前記モーションデータ選択手段により適用しようとするモーションデータとして選択されたモーションデータとから、両者のモーションデータによる前記複数の仮想カメラそれぞれを含む前記モデルの動きを補間して前記モデルの動作を制御するモーション補間制御手段(例えば、図12の処理部200、モーション補間部216、図15のステップS14)と、を有するように前記コンピュータを機能させるための第4の発明のプログラムである。
According to a fifth aspect of the present invention, the model motion control means determines whether or not there is motion data being applied to the model when the model motion instruction is input to the controller. Means (for example, the processing unit 200 in FIG. 12, the game calculation unit 210, step S12 in FIG. 15),
When it is determined by the applying motion presence / absence determination means that the motion data being applied and the motion data selected as the motion data to be applied by the motion data selection means, Motion interpolation control means (for example, the processing unit 200 in FIG. 12, the motion interpolation unit 216, and step S14 in FIG. 15) for controlling the operation of the model by interpolating the movement of the model including each of the plurality of virtual cameras; A program according to a fourth aspect of the invention for causing the computer to function.

第5の発明によれば、第4の発明と同様の効果を奏するとともに、モデルに適用中のモーションデータが有る場合に、現在適用中のモーションデータによる動作から、モーションデータ選択手段により選択されたモーションデータによる次の動作へ、モデルの動作を補完して繋ぐことができる。このモーションの補間には関節構造の一部である仮想カメラの「モーション(従来におけるカメラワーク)」が勿論含まれる。したがって、キャラクタのモーションに切り換えが発生してもそれに伴って、仮想カメラのモーションも自動的に補間されるので、モーションの切り換えを跨いでも破綻の無い自由なカメラワークを実現できる。こうした効果は、キャラクタのモーションと仮想カメラのカメラワークとが別システムで制御されていた従来の構成では実現できないものである。   According to the fifth invention, the same effect as that of the fourth invention is achieved, and when there is motion data being applied to the model, the motion data selection unit selects the motion data currently being applied. The model movement can be complemented and linked to the next movement based on the motion data. This motion interpolation naturally includes “motion (conventional camera work)” of a virtual camera which is a part of the joint structure. Therefore, even if the character motion is switched, the motion of the virtual camera is automatically interpolated accordingly, so that free camera work without failure can be realized even across the motion switching. Such an effect cannot be realized by the conventional configuration in which the motion of the character and the camera work of the virtual camera are controlled by different systems.

第6の発明は、前記選択されたモーションデータに従って前記モデル動作制御手段により前記モデルの一部として動作制御される前記仮想カメラと、前記仮想3次元空間に配置された他のオブジェクトとの干渉を判定する干渉判定手段(例えば、図12の処理部200、カメラ位置補正部220、図16のステップS50)、前記干渉判定手段により干渉すると判定された場合に、干渉を回避する当該仮想カメラの位置を探索演算する非干渉位置探索演算手段(例えば、図12の処理部200、カメラ位置補正部220、図16のステップS54)、前記干渉判定手段により干渉すると判定された場合に、当該仮想カメラの前記モーションデータに基づく位置を、前記非干渉位置探索演算手段により探索された位置に補正するカメラ位置補正手段(例えば、図12の処理部200、カメラ位置補正部220、図16のステップS56)、として前記コンピュータを機能させるための第4又は第5の発明のプログラムである。   According to a sixth aspect of the present invention, there is provided interference between the virtual camera whose operation is controlled as a part of the model by the model motion control unit according to the selected motion data, and another object arranged in the virtual three-dimensional space. Interference determination means for determining (for example, the processing unit 200 in FIG. 12, the camera position correction unit 220, step S50 in FIG. 16), and the position of the virtual camera that avoids interference when it is determined by the interference determination means Non-interference position search calculation means (for example, the processing unit 200 in FIG. 12, the camera position correction unit 220, step S54 in FIG. 16), and when the interference determination means determines that interference occurs, Camera position correction for correcting the position based on the motion data to the position searched by the non-interference position search calculation means Stage (e.g., processing unit 200 in FIG. 12, camera position correcting unit 220, step S56 in FIG. 16) is the fourth or fifth program invention for the computer to function as a.

第6の発明によれば、第4又は第5の発明と同様の効果を奏するとともに、モデルの一部として動作制御された結果、仮想カメラが仮想3次元空間に配置された他のオブジェクトと干渉する場合、干渉を回避する仮想カメラの位置を探索演算して求めて当該位置に補正することができる。したがって、例えば仮想カメラと干渉した他のオブジェクトのポリゴン等が画面に写り込むといった事態を防ぐことができる。   According to the sixth invention, the same effect as that of the fourth or fifth invention is achieved, and the virtual camera interferes with another object arranged in the virtual three-dimensional space as a result of the operation being controlled as a part of the model. In this case, the position of the virtual camera that avoids the interference can be obtained by searching for and corrected to that position. Therefore, for example, it is possible to prevent a situation in which a polygon or the like of another object that interferes with the virtual camera appears on the screen.

第7の発明は、前記非干渉位置探索演算手段が、前記仮想カメラの周囲所定範囲から、空き空間の条件として予め定められた空き空間条件を満たす位置を探索演算するように前記コンピュータを機能させるための第6の発明のプログラムである。   In a seventh aspect, the computer functions so that the non-interference position search calculation means searches and calculates a position that satisfies a predetermined empty space condition as a free space condition from a predetermined range around the virtual camera. The program of the 6th invention for this.

第7の発明によれば、第6の発明と同様の効果を奏するととともに予め定められた条件を満たす空き空間を探索して仮想カメラの位置を補正することができる。したがって、空き空間の条件を適切に設定することで撮影により適切な位置へ補正することができる。   According to the seventh aspect, it is possible to correct the position of the virtual camera by searching for an empty space that has the same effect as the sixth aspect and satisfies a predetermined condition. Therefore, it can correct | amend to an appropriate position by imaging | photography by setting the condition of empty space appropriately.

第8の発明は、前記複数の仮想カメラには、少なくとも前記モデルの一人称視点に相当する主観カメラと、前記モデルを三人称視点で撮影する客観カメラとの少なくとも2台が含まれており、前記モデル動作制御手段が、前記モデルを構成する部位のうち、前記モデルの一人称視点用の部位として予め定められた一人称視点用部位の内部又は近傍位置に前記主観カメラの位置を設定して、前記モデルを動作制御し、前記画像生成手段が、前記仮想カメラ選択手段により前記主観カメラが選択されている場合に、前記一人称視点用部位を非表示として前記主観カメラから見た前記仮想3次元空間の画像を生成する、ように前記コンピュータを機能させるための第2〜第7の何れかの発明のプログラムである。   In an eighth aspect of the invention, the plurality of virtual cameras include at least two of a subjective camera corresponding to at least a first-person viewpoint of the model and an objective camera that captures the model from a third-person viewpoint. The motion control means sets the position of the subjective camera in or near a first-person viewpoint part predetermined as a first-person viewpoint part of the model among the parts constituting the model, When the subjective camera is selected by the virtual camera selection unit, the image generation unit controls an operation of the virtual three-dimensional space image viewed from the subjective camera without displaying the first-person viewpoint part. A program according to any one of the second to seventh inventions for causing the computer to function.

第8の発明によれば、第2〜第7の発明と同様の効果を奏するとともに、主観カメラをより一人称視点として適当な位置に設定しつつ、撮影画像内に不要な部位が写らない様にすることができる。   According to the eighth invention, the same effects as those of the second to seventh inventions are achieved, and an unnecessary part is not captured in the photographed image while setting the subjective camera in a more suitable first person viewpoint. can do.

第9の発明は、前記複数の仮想カメラには、少なくとも前記モデルの一人称視点に相当する主観カメラと、前記モデルを三人称視点で撮影する客観カメラとの少なくとも2台が含まれており、ゲーム進行状況が、前記モデルに有利又は不利な状況の条件として予め定められた状況条件に合致したことを検出する状況条件合致検出手段(例えば、図12の処理部200、図15のステップS20)として前記コンピュータを機能させ、前記仮想カメラ選択手段が、前記状況条件合致検出手段の検出に応じて、前記客観カメラを選択する状況条件合致時カメラ選択手段(例えば、図12の処理部200、図15のステップS20、図6の有利/不利状態532p)を有するように前記コンピュータを機能させるための第2〜第8の何れかの発明のプログラムである。   According to a ninth aspect, the plurality of virtual cameras include at least two of a subjective camera corresponding to at least a first-person viewpoint of the model and an objective camera that captures the model from a third-person viewpoint. As the situation condition match detection means (for example, the processing unit 200 in FIG. 12 and step S20 in FIG. 15) for detecting that the situation matches a situation condition predetermined as a condition of an advantageous or disadvantageous situation for the model. The computer is caused to function, and the virtual camera selection unit selects the objective camera in response to the detection by the situation condition match detection unit (for example, the processing unit 200 in FIG. 12 and the processing unit 200 in FIG. 15). Step S20, the invention according to any one of the second to eighth inventions for causing the computer to function so as to have the advantage / disadvantage state 532p) of FIG. Is a program.

第9の発明によれば、第2〜第8の何れかの発明と同様の効果を奏するとともに、状況に応じて客観視点によるゲーム画面とすることで、状況をより把握し易いカメラワークを実現することができる。   According to the ninth aspect of the invention, the same effects as in any of the second to eighth aspects of the invention can be achieved, and a camera screen with an objective viewpoint according to the situation can be realized to realize a camera work that makes it easier to grasp the situation. can do.

第10の発明は、前記ゲームは前記モデルが攻撃をする又は攻撃を受けることによって進行が制御されるゲームであり、
前記複数の仮想カメラには、少なくとも前記モデルの一人称視点に相当する主観カメラ(例えば、図5の主観カメラCM0)と、前記モデルの攻撃時に前記モデルを三人称視点で撮影する攻撃時客観カメラ(例えば、図5の客観カメラCM2)と、前記モデルが攻撃を受けた際に前記モデルを三人称視点で撮影する被攻撃時客観カメラ(例えば、図5の客観カメラCM1)との少なくとも3台が含まれており、
前記モデルが攻撃をすることを検出する攻撃検出手段(例えば、図12の処理部200、図15のステップS10)、
前記モデルが攻撃を受けることを検出する被攻撃検出手段(例えば、図12の処理部200、図15のステップS10)、
前記仮想カメラ選択手段が、前記攻撃検出手段の検出に応じて前記攻撃時客観カメラを選択し、前記被攻撃検出手段の検出に応じて前記被攻撃時客観カメラを選択するように前記コンピュータを機能させるための第2〜第8の何れかの発明のプログラムである。
In a tenth aspect of the invention, the game is a game whose progress is controlled by the model attacking or receiving an attack,
The plurality of virtual cameras include at least a subjective camera corresponding to the first person viewpoint of the model (for example, subjective camera CM0 in FIG. 5), and an objective camera at the time of attack that captures the model from the third person viewpoint when the model is attacked (for example, 5 and objective camera at the time of attack (for example, objective camera CM1 in FIG. 5) that captures the model from a third person viewpoint when the model is attacked. And
Attack detection means for detecting that the model attacks (for example, the processing unit 200 in FIG. 12, step S10 in FIG. 15),
Attack detection means for detecting that the model is attacked (for example, the processing unit 200 in FIG. 12, step S10 in FIG. 15),
The virtual camera selection unit selects the objective camera at the time of attack in response to detection by the attack detection unit, and functions the computer to select the objective camera at the time of attack in response to detection by the attacked detection unit. This is a program according to any one of the second to eighth inventions.

第10の発明によれば、第2〜第8の発明の何れかと同様の効果を奏するとともに、キャラクタが攻撃をしている場合と攻撃を受けている場合とで、その時々に応じた客観カメラに切り替わって選択されるため、攻撃に係る状況に適したカメラワークを実現することができる。   According to the tenth invention, the objective camera has the same effects as any of the second to eighth inventions, and according to the time when the character is attacking and when the character is under attack. Therefore, camera work suitable for the situation related to the attack can be realized.

第11の発明は、前記ゲームは第1プレーヤの操作入力に従って制御される第1モデルと、第2プレーヤの操作入力に従った制御又はコンピュータ制御される第2モデルとが互いに攻撃して対戦するゲームであり、
前記モデル形成手段が、前記第1モデル及び前記第2モデルそれぞれについて、当該モデルの一人称視点に相当する主観カメラと、当該モデルが攻撃を受けた際に当該モデルを三人称視点で撮影する被攻撃時客観カメラとの少なくとも2台を骨格の一部として組み込んでモデルを形成するように前記コンピュータを機能させ、
前記第1モデルによる前記第2モデルへの攻撃を検出する第1モデル攻撃検出手段(例えば、図12の処理部200、図15のステップS10)として前記コンピュータを機能させ、
前記仮想カメラ選択手段が、前記第1モデル攻撃検出手段による検出に応じて前記第2モデルの被攻撃時客観カメラを選択するように前記コンピュータを機能させるための第2〜第10の何れかの発明のプログラムである。
In an eleventh aspect of the invention, the first game controlled according to the operation input of the first player and the second model controlled or computer controlled according to the operation input of the second player attack each other to play a battle. A game,
For each of the first model and the second model, the model forming unit captures a subjective camera corresponding to the first person viewpoint of the model and a third person viewpoint when the model is attacked. Make the computer function to form a model by incorporating at least two objective cameras as part of the skeleton,
Causing the computer to function as first model attack detection means (for example, the processing unit 200 in FIG. 12, step S10 in FIG. 15) for detecting an attack on the second model by the first model;
Any one of the second to tenth functions for causing the computer to function so that the virtual camera selection means selects the second model attacked objective camera in response to the detection by the first model attack detection means It is a program of the invention.

第11の発明によれば、第2〜第10の発明と同様の効果を奏するとともに、第1モデルが攻撃をしているにも拘わらず、攻撃を受けた第2モデルの側の被攻撃時客観カメラを視点としたゲーム画面が表示されることとなる。ゲーム画面には、第2モデルがやられている状況が映し出されるため、攻撃側である第1プレーヤに、爽快な気分を味合わせる映像演出が可能になる。   According to the eleventh invention, the same effects as those of the second to tenth inventions can be obtained, and the second model that has been attacked is attacked even though the first model is attacking. A game screen from the viewpoint of the objective camera is displayed. Since the situation where the second model is being played is displayed on the game screen, it is possible to produce a video effect that makes the first player on the attacking side feel refreshed.

第12の発明は、前記ゲームは第1プレーヤの操作入力に従って制御される第1モデルと、第2プレーヤの操作入力に従った制御又はコンピュータ制御される第2モデルとが互いに攻撃して対戦するゲームであり、前記モデル形成手段が、前記第1モデル及び前記第2モデルそれぞれについて、当該モデルの一人称視点に相当する主観カメラと、当該モデルの攻撃時に当該モデルを三人称視点で撮影する攻撃時客観カメラ(例えば、図7の客観カメラCM1)との少なくとも2台を骨格の一部として組み込んでモデルを形成するように前記コンピュータを機能させ、
前記第2モデルによる前記第1モデルへの攻撃を検出する第2モデル攻撃検出手段(例えば、図12の処理部200、図15のステップS10)として前記コンピュータを機能させ、
前記仮想カメラ選択手段が、前記第2モデル攻撃検出手段による検出に応じて前記第2モデルの攻撃時客観カメラを選択するように前記コンピュータを機能させるための第2〜第11の何れかの発明のプログラムである。
In a twelfth aspect of the invention, the game is controlled by a first model controlled according to the operation input of the first player and a second model controlled or computer controlled according to the operation input of the second player attacking each other. A game in which the model formation means takes a subjective camera corresponding to a first person view of the model and an objective object during an attack in which the model is photographed from a third person view when the model is attacked, for each of the first model and the second model Causing the computer to function as a model by incorporating at least two cameras (for example, objective camera CM1 in FIG. 7) as part of the skeleton;
Causing the computer to function as second model attack detection means (for example, the processing unit 200 in FIG. 12 and step S10 in FIG. 15) for detecting an attack on the first model by the second model;
Any one of the second to eleventh inventions for causing the virtual camera selection means to function the computer so as to select the objective camera at the time of attack of the second model in response to the detection by the second model attack detection means. It is a program.

第12の発明によれば、第2〜第11の発明と同様の効果を奏するとともに、第1モデルが攻撃を受けたにも拘わらず、攻撃をかけた第1モデルの側の客観カメラを視点としたゲーム画面が表示されることとなる。ゲーム画面には、攻撃をする第1モデルの様子を客観視点から見た映像が映し出されるため、攻撃された側の第1プレーヤに、より屈辱的な気分を味合わせるといった映像演出を実現し、対戦時の感情を向上させることができる。   According to the twelfth invention, the same effects as those of the second to eleventh inventions can be obtained, and the objective camera on the side of the first model that has made the attack is pointed out even though the first model was attacked. Will be displayed. The game screen shows an image of the attacking first model seen from an objective viewpoint, so that the first player on the attacked side can enjoy a more humiliating feeling, You can improve the emotion during the battle.

第13の発明は、第1〜第12の何れかの発明のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体である。ここで言う「情報記憶媒体」とは、例えば磁気ディスクや光学ディスク、ICメモリなどを含む。第13の発明によれば、第1〜第12の何れか一つの発明のプログラムをコンピュータに読み取らせて実行させることによって、コンピュータに第1〜12の何れか一つの発明と同様の効果を発揮させることができる。   A thirteenth invention is a computer-readable information storage medium storing a program according to any one of the first to twelfth inventions. The “information storage medium” mentioned here includes, for example, a magnetic disk, an optical disk, an IC memory, and the like. According to the thirteenth invention, by causing a computer to read and execute the program of any one of the first to twelfth inventions, the computer exhibits the same effect as any one of the first to twelfth inventions. Can be made.

本発明によれば、関節構造を有するモデルに仮想カメラが組み込まれて当該モデルが形成されるため、腕部や脚部を動作させるのと同じようにして仮想カメラのモーションを制御することができる。したがって、仮想カメラをモデルの一部として制御できるため、従来のようにキャラクタのモーションとは別工程で仮想カメラのモーションを別途製作しなくても良く、仮想カメラの制御を簡単化することができるとともに、キャラクタモデル及び仮想カメラのモーションに係る製作工程を削減することができる。   According to the present invention, since a virtual camera is incorporated into a model having a joint structure to form the model, the motion of the virtual camera can be controlled in the same manner as operating the arms and legs. . Therefore, since the virtual camera can be controlled as a part of the model, it is not necessary to separately produce the virtual camera motion separately from the character motion as in the conventional case, and the control of the virtual camera can be simplified. At the same time, it is possible to reduce the production process related to the motion of the character model and the virtual camera.

以下、本発明を適用した実施形態として、家庭用ゲーム装置で一人称視点を基本としたアクションゲームを、2人のプレーヤが同時参加する対戦形式で実行する例を説明する。   Hereinafter, as an embodiment to which the present invention is applied, an example will be described in which an action game based on a first person viewpoint is executed in a battle format in which two players participate simultaneously in a home game device.

[ゲーム装置の構成]
図1は、本実施形態における家庭用ゲーム装置の構成例を説明するシステム構成図である。家庭用ゲーム装置1200のゲーム装置本体1201は、例えばCPUや画像処理用LSI、ICメモリ等が実装された制御ユニット1210と、光学ディスク1202やメモリカード1204といった情報記憶媒体の読み取り装置1206,1208を備える。そして、家庭用ゲーム装置1200は、光学ディスク1202やメモリカード1204からゲームプログラム及び各種設定データを読み出し、ゲームコントローラ1230に為される操作入力に基づいて制御ユニット1210で各種のゲーム演算や、ゲーム画像及びゲーム音の生成処理を実行し、所与のビデオゲームを実行する。
[Configuration of game device]
FIG. 1 is a system configuration diagram illustrating a configuration example of a consumer game device according to the present embodiment. The game device main body 1201 of the home game device 1200 includes, for example, a control unit 1210 in which a CPU, an image processing LSI, an IC memory, and the like are mounted, and information storage medium reading devices 1206 and 1208 such as an optical disk 1202 and a memory card 1204. Prepare. Then, the home game device 1200 reads the game program and various setting data from the optical disk 1202 and the memory card 1204, and performs various game calculations and game images in the control unit 1210 based on operation inputs made to the game controller 1230. And a game sound generation process, and a given video game is executed.

制御ユニット1210は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)及びDSP(Digital Signal Processor)などの各種マイクロプロセッサ、ASIC(Application Specific Integrated Circuit)、ICメモリなどの電気電子機器を備え、家庭用ゲーム装置1200の各部を制御する。   The control unit 1210 includes various microprocessors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a DSP (Digital Signal Processor), electrical and electronic equipment such as an ASIC (Application Specific Integrated Circuit), an IC memory, and the like. Each part of the game device 1200 is controlled.

また、制御ユニット1210は通信装置1212を備える。通信装置1212は、インターネットやLAN(Local Area Network)、WAN(Wide Area Network)と言った通信回線1と有線接続又は無線接続し、外部装置との間でデータ通信を実現する。   The control unit 1210 includes a communication device 1212. The communication device 1212 is connected to a communication line 1 such as the Internet, a LAN (Local Area Network), or a WAN (Wide Area Network) by a wired connection or a wireless connection, and realizes data communication with an external device.

ゲーム装置本体1201の制御ユニット1210は、ゲームコントローラ1230から受信した操作入力信号に基づいてゲーム画像やゲーム音を生成してビデオゲームを実行する。生成されたゲーム画像やゲーム音は、信号ケーブル1209で接続されたビデオモニタ1220に出力される。ビデオモニタ1220には、画像を表示する画像表示装置1222と、音声を出力するスピーカ1224とが備えられており、プレーヤは画像表示装置1222に映し出されるゲーム画像を見ながら、スピーカ1224から放音されるゲーム音を聞きつつゲームをプレイする。   The control unit 1210 of the game apparatus main body 1201 generates a game image or game sound based on the operation input signal received from the game controller 1230 and executes a video game. The generated game image and game sound are output to a video monitor 1220 connected by a signal cable 1209. The video monitor 1220 is provided with an image display device 1222 for displaying an image and a speaker 1224 for outputting sound, and the player emits sound from the speaker 1224 while watching the game image displayed on the image display device 1222. Play the game while listening to the game sound.

ゲームコントローラ1230は、選択の決定やキャンセル、タイミングの入力などに用いられるコントローラ上面に設けられた複数のプッシュボタンスイッチ1232と、側面に設けられたプッシュボタンスイッチ1233と、図で言うところの上下左右の各方向を単独入力するための方向入力キー1234と、右アナログレバー1236と、左アナログレバー1238とを備える。   The game controller 1230 includes a plurality of push button switches 1232 provided on the upper surface of the controller used for determination and cancellation of selection, timing input, and the like, push button switches 1233 provided on the side surfaces, and up, down, left, and right as illustrated. Are provided with a direction input key 1234 for inputting each of these directions independently, a right analog lever 1236, and a left analog lever 1238.

右アナログレバー1236及び左アナログレバー1238は、図で言うところの上下方向と左右方向の2軸方向を同時入力可能な方向入力デバイスである。通常はゲームコントローラ1230を左右の手で把持し、レバー1236a,1238aにそれぞれ親指を添えて操作する。レバー1236a,1238aを倒すことによって2軸成分を含む任意の方向入力と、レバーの傾倒量に応じた任意操作量を入力することができる。また、何れのアナログレバーも、操作入力していない中立状態からレバーの軸方向に押し込むことでプッシュスイッチとしても使用することもできる。   The right analog lever 1236 and the left analog lever 1238 are direction input devices capable of simultaneously inputting the two axial directions of the vertical direction and the horizontal direction as shown in the figure. Normally, the game controller 1230 is held with the left and right hands, and the levers 1236a and 1238a are operated with their thumbs attached. By tilting the levers 1236a and 1238a, it is possible to input an arbitrary direction including a biaxial component and an arbitrary operation amount corresponding to the tilting amount of the lever. In addition, any analog lever can be used as a push switch by pushing it in the axial direction of the lever from a neutral state where no operation is input.

本実施形態では、右アナログレバー1236でプレーヤキャラクタの一人称視点の方向を操作し、左アナログレバー1238でプレーヤキャラクタの前後左右の移動を操作する。また、プッシュボタン1233,1233でそれぞれ左右の水平方向移動を操作し、プッシュボタンスイッチ1232のうち所定スイッチでプレーヤキャラクタから前方所定の攻撃可能範囲内の敵に剣で攻撃をする指示操作を入力する。また、別のスイッチでは前方への機銃の発射をする指示操作を入力し、更に別のスイッチで防御の構えによる防御動作をする指示操作を入力する。   In this embodiment, the right analog lever 1236 is used to operate the first-person viewpoint of the player character, and the left analog lever 1238 is used to operate the player character's front / back / left / right movement. Further, the left and right horizontal movements are operated with the push buttons 1233 and 1233, respectively, and an instruction operation for attacking with a sword against enemies within a predetermined attack possible range is input from the player character with a predetermined switch of the push button switches 1232. . In another switch, an instruction operation for firing a machine gun forward is input, and in another switch, an instruction operation for performing a defensive operation by a defense posture is input.

尚、ゲーム実行に必要なゲームプログラム及び各種設定データは、通信装置1212を介して通信回線1に接続し、外部装置からダウンロードして取得する構成であっても良い。ここで言う、通信回線とは、データ授受が可能な通信路を意味する。すなわち、通信回線とは、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLAN(Local Area Network)の他、電話通信網やケーブル網、インターネット等の通信網を含む意味であり、また、通信方法については有線/無線を問わない。   The game program and various setting data necessary for game execution may be connected to the communication line 1 via the communication device 1212 and downloaded from an external device. Here, the communication line means a communication path through which data can be exchanged. That is, the communication line includes a dedicated line (dedicated cable) for direct connection, a LAN (Local Area Network) such as Ethernet (registered trademark), and a communication network such as a telephone communication network, a cable network, and the Internet. In addition, the communication method may be wired or wireless.

[ゲームの概要の説明]
次に、本実施形態におけるゲームの概要を説明する。
図2は、本実施形態における画面表示例を示すゲーム画面図である。本実施形態のビデオゲームは、一人称視点のゲーム画面を基本とした対戦型のアクションゲームである。仮想3次元空間に各種障害物オブジェクト4が配置されてゲーム空間が形成され、1プレーヤによって操作される1プレーヤキャラクタPC1(例えば、戦闘ロボット)と、2プレーヤによって操作される2プレーヤキャラクタPC2(例えば、1プレーヤキャラクタPC1と同型色違いの戦闘ロボット)と、コンピュータ制御される複数の敵キャラクタECとのポリゴンモデルが配置される。そして、ゲーム空間内の様子を仮想カメラで撮影したゲーム空間画像を元にゲーム画像を生成し、それを画像表示装置1222に表示させる。
[Description of game outline]
Next, an outline of the game in the present embodiment will be described.
FIG. 2 is a game screen diagram showing a screen display example in the present embodiment. The video game of this embodiment is a battle-type action game based on a first-person viewpoint game screen. Various obstacle objects 4 are arranged in a virtual three-dimensional space to form a game space. One player character PC1 (for example, a battle robot) operated by one player and two player characters PC2 (for example, operated by two players) And a polygon model of a plurality of enemy characters EC controlled by a computer. Then, a game image is generated based on a game space image obtained by photographing a state in the game space with a virtual camera, and is displayed on the image display device 1222.

本実施形態では、画像表示装置1222には、画面が上下に2分割された上半分に1プレーヤ用の第1ゲーム画像W1、下半分に2プレーヤ用の第2ゲーム画像W2がそれぞれ表示される。本実施形態のビデオゲームは一人称視点によるアクションゲームなので、同図に示すように、基本的には第1ゲーム画面W1に1プレーヤキャラクタPC1の主観視点、第2ゲーム画面W2に2プレーヤキャラクPC2の主観視点となるそれぞれの仮想カメラで撮影したゲーム空間画像に、レーダ表示6や機銃の残段数表示8などのゲーム進行に必要な各種情報表示が付加されて表示される。   In the present embodiment, on the image display device 1222, a first game image W1 for one player is displayed in the upper half of the screen divided into two vertically, and a second game image W2 for two players is displayed in the lower half. . Since the video game of the present embodiment is an action game from the first person perspective, as shown in the figure, basically, the subjective viewpoint of one player character PC1 is displayed on the first game screen W1, and the two player character PC2 is displayed on the second game screen W2. Various information displays necessary for the progress of the game such as the radar display 6 and the remaining stage number display 8 of the machine gun are added to the game space images photographed by the respective virtual cameras serving as the subjective viewpoints.

両プレーヤは、互いのプレーヤキャラクタを操作して敵キャラクタECからの攻撃に剣や機銃(剣よりは攻撃可能範囲は広いが1回で与えるダメージは小さい武器)で応戦しつつ、相手プレーヤキャラクタを探して攻撃して相手を先に倒せばゲームクリアとなる。相手に倒された場合、又は敵キャラクタECの攻撃で受けたダメージがヒットポイントを超えて倒された場合にはゲームオーバーとなる。   Both players operate each other's player characters and respond to the attack from the enemy character EC with a sword or machine gun (a weapon that has a wider attack range than the sword but with a small amount of damage that can be done at a time). If you search and attack and defeat the opponent first, the game is cleared. If the opponent is defeated or the damage received by the attack of the enemy character EC exceeds the hit point, the game is over.

[キャラクタと仮想カメラの制御の原理]
図3は、本実施形態におけるプレーヤキャラクタのキャラクタモデルの概念図である。図4は、本実施形態におけるスケルトンモデルの階層構造例を示す図である。
これらの図に示すように、両プレーヤキャラクタのキャラクタモデルは、ルート22を基準に階層構造化されたスケルトンモデルMSをベースにキャラクタの躯体20の外観を構成する胴や腕、頭といった部位のパーツオブジェクトが配置されて形成される。更に、本実施形態におけるキャラクタモデルは、スケルトンモデルMSに主観カメラCM0や客観カメラCM1と言った複数の仮想カメラを、骨格の一部としてルートの次の層としてそれぞれ独自に階層構造化して含んでいる。すなわち、キャラクタモデルは関節構造を有するモデルであって、仮想カメラが骨格の一部として組み込まれ、各仮想カメラそれぞれに対応する関節構造を含んだモデルとして形成されている。
[Principle of character and virtual camera control]
FIG. 3 is a conceptual diagram of the character model of the player character in this embodiment. FIG. 4 is a diagram illustrating a hierarchical structure example of the skeleton model in the present embodiment.
As shown in these figures, the character models of both player characters are parts of parts such as the torso, arms, and head that make up the appearance of the character's enclosure 20 based on a skeleton model MS that is hierarchically structured based on the route 22. Objects are arranged and formed. Furthermore, the character model in the present embodiment includes a plurality of virtual cameras such as the subjective camera CM0 and the objective camera CM1 in the skeleton model MS as a layer next to the root as a part of the skeleton. Yes. That is, the character model is a model having a joint structure, and a virtual camera is incorporated as a part of the skeleton, and is formed as a model including a joint structure corresponding to each virtual camera.

各プレーヤキャラクタの躯体20の動作は、公知のモーションデータを用いたアクションゲームと同様に実現される。具体的には、ゲームコントローラ1230からの操作入力とゲームの進行状況とに基づいてモーションの種類が選択され、選択されたモーションに対応付けられたモーションデータに基づいてスケルトンモデルMSがフレーム単位で動作制御される。そして、各パーツオブジェクトがスケルトンモデルの対応する位置に配置されることで、ポリゴンで表現されたキャラクタがゲーム空間内で一連の動作(モーション)をする。加えて本実施形態では、仮想カメラ(主観カメラCM0、客観カメラCM1)もスケルトンモデルの一部に組み込まれて構造化されているので、キャラクタの腕や脚などをモーション制御するのと同様にして仮想カメラのモーションも同じモーションデータで制御される。   The movement of the chassis 20 of each player character is realized in the same manner as an action game using known motion data. Specifically, the type of motion is selected based on the operation input from the game controller 1230 and the progress of the game, and the skeleton model MS operates in units of frames based on the motion data associated with the selected motion. Be controlled. Each part object is arranged at a corresponding position in the skeleton model, so that the character represented by the polygon performs a series of motions (motion) in the game space. In addition, in the present embodiment, the virtual cameras (subjective camera CM0, objective camera CM1) are also structured by being incorporated into a part of the skeleton model, so that the motion of the character's arms and legs is controlled in the same manner. The motion of the virtual camera is also controlled with the same motion data.

従来は仮想カメラをキャラクタのモデルとは連鎖関係にない独立した存在として扱い、キャラクタのモデル製作工程とは別工程でキャラクタの動作とはまったく別にカメラ独自の移動や姿勢の変化のカメラワークを定義する必要があったが、本実施形態ではキャラクタの各部の動作と同じようにして仮想カメラについても一つのモーションデータで管理する。また、本実施形態では複数の仮想カメラがスケルトンモデルの一部に組み込まれているので、本実施形態におけるモーションデータには、モーションフレーム毎にゲーム画面の生成に使用する仮想カメラを指定する使用カメラ設定の情報が含まれる。尚、キャラクタモデルと一緒に階層構造化される仮想カメラの数や用途は適宜設定することができる。   Conventionally, the virtual camera is treated as an independent entity that is not linked to the character model, and the camera's own movement and posture change camera work is defined separately from the character's motion in a separate process from the character model production process. In this embodiment, the virtual camera is also managed with one motion data in the same manner as the operation of each part of the character. Further, in the present embodiment, a plurality of virtual cameras are incorporated in a part of the skeleton model, and therefore, in the motion data in the present embodiment, a use camera that designates a virtual camera to be used for generating a game screen for each motion frame Contains configuration information. Note that the number and use of virtual cameras that are hierarchically structured together with the character model can be set as appropriate.

例えば、図5は本実施形態におけるプレーヤキャラクタのモーション設定の一例を示す概念図であって歩行モーションの例を示している。図6は、歩行モーションのモーションデータの一例を示すデータ構成図である。   For example, FIG. 5 is a conceptual diagram showing an example of the motion setting of the player character in this embodiment, and shows an example of walking motion. FIG. 6 is a data configuration diagram illustrating an example of motion data of walking motion.

本実施形態における歩行モーションでは、プレーヤキャラクタの躯体が右足一歩と左足一歩分の動作が規定されている。ゲームコントローラ1230から所定の前進操作が入力されている間、この歩行モーションを繰り返し実行することでプレーヤキャラクタは前進歩行することができる。
この歩行モーションは、従来のアクションゲームと同様に、プレーヤキャラクタを客観視したときに重量感のあるロボットの歩行をそれらしく見せるために見映え優先で設定されている。例えば、生身の人間の歩行よりはやや上下動(図中、矢印ラインL1のイメージ)が有り、わずかなぎこちなさを備えるように動作の演出が施される。
In the walking motion in the present embodiment, the movement of the player character's body for one step on the right foot and one step on the left foot is defined. While the predetermined forward operation is input from the game controller 1230, the player character can walk forward by repeatedly executing this walking motion.
Similar to the conventional action game, this walking motion is set with appearance priority in order to make the robot walk with a heavy feeling when the player character is viewed objectively. For example, there is a slight up-and-down movement (image of the arrow line L1 in the figure) rather than a live human walk, and an action effect is provided so as to have a slight awkwardness.

図6に示すように、本実施形態におけるモーションデータ532は、モーションデータ種類532a別に用意されて、躯体20の一連の動作を定義するためにフレーム番号532bと当該フレーム時点における関節部毎の関節角度532cを格納している。尚、モーションデータ532の形式は関節部の角度を定義する形式に限らず、各部関節のルート22に対する3次元相対位置座標など座標値によって定義する構成やその他の形式であっても良い。   As shown in FIG. 6, the motion data 532 in this embodiment is prepared for each motion data type 532a, and in order to define a series of operations of the housing 20, the frame number 532b and the joint angle for each joint at the time of the frame 532c is stored. The format of the motion data 532 is not limited to the format for defining the angle of the joint, but may be a configuration defined by coordinate values such as a three-dimensional relative position coordinate with respect to the route 22 of each joint or other formats.

主観カメラCM0は、一人称視点ゲームを実現するための主観視点となるカメラであって、一人称視点用部位であるプレーヤキャラクタの頭部の中又はその近傍に設定される。主観カメラCM0は視界を確保するために比較的広い視野を得られるように広角レンズで撮影するように撮影条件が設定される。尚、本実施形態では、主観カメラCM0が広角で撮影することに伴って肩部や胸部などが写り込んで画面が見にくくならないように、モーションデータ532は主観時非表示部位532dで、主観カメラCM0に基づいてゲーム空間画像を生成する場合にポリゴンを非表示とするパーツオブジェクトが定義されている。   The subjective camera CM0 is a camera that becomes a subjective viewpoint for realizing the first person viewpoint game, and is set in or near the head of the player character that is the first person viewpoint part. In the subjective camera CM0, photographing conditions are set so as to photograph with a wide-angle lens so as to obtain a relatively wide field of view in order to secure a field of view. In the present embodiment, the motion data 532 is the subjective non-display part 532d and the subjective camera CM0 so that the shoulder and chest are not captured and the screen becomes difficult to see as the subjective camera CM0 captures a wide angle. A part object that hides a polygon when a game space image is generated based on the above is defined.

主観カメラCM0の上下及び前後の動きは、図5の矢印ラインL1に象徴される躯体20の演出された上下・左右・前後の揺動とは無関係に独立的にその動作が設定される。原理的には、主観カメラCM0及び客観カメラCM1は、図4に示したように、キャラクタの各部関節のルート22の直下の階層に位置し、キャラクタの躯体20に従属する階層に位置していない。このため、主観カメラCM0及び客観カメラCM1には、躯体20の動作とは分離した、躯体20の動作に従動することのない動きを設定できるのである。今回の歩行の例でいえば、図5の矢印ラインL2のような動きが設定される。
勿論、ここで設定されるのはルート22からの主観カメラCM0の3次元位置である。主観カメラCM0の向きは、公知の一人称視点ゲームと同様にゲームコントローラ1230からの視線方向操作の対象となるので、モーションデータ532ではフレーム番号532aと対応づけて当該フレーム時点におけるルート22に対する3次元相対位置座標Pc0によってカメラのモーションが定義されている(図6;532e)。
The movements of the subjective camera CM0 up and down and back and forth are set independently regardless of the up / down, left / right and front / back swings of the housing 20 symbolized by the arrow line L1 in FIG. In principle, as shown in FIG. 4, the subjective camera CM0 and the objective camera CM1 are located in a layer immediately below the root 22 of each joint of the character, and are not located in a layer subordinate to the character's chassis 20. . For this reason, in the subjective camera CM0 and the objective camera CM1, it is possible to set a motion that is separated from the motion of the housing 20 and is not driven by the motion of the housing 20. In the example of walking this time, a movement like the arrow line L2 in FIG. 5 is set.
Of course, what is set here is the three-dimensional position of the subjective camera CM0 from the route 22. The orientation of the subjective camera CM0 is the target of the line-of-sight direction operation from the game controller 1230 as in the known first-person viewpoint game. Therefore, the motion data 532 associates the frame number 532a with the three-dimensional relative to the route 22 at the time of the frame. The motion of the camera is defined by the position coordinate Pc0 (FIG. 6; 532e).

客観カメラCM1は、後方斜め上より全身及びその周辺を撮影するように設定される。客観カメラCM1は、プレーヤの操作入力に従って視線方向が変化されることの無い、客観視点として用いられるカメラなのでルート22に対して設計された位置に設計された視線方向に向けて配置されて躯体20のような上下動や前後動が生じないように設定される。視線方向が予め設計されるということは、その姿勢はゲーム製作者の演出意図によって決定されるという意味であり、モーションデータ532ではフレーム番号532aと対応づけてルート22に対する3次元相対位置座標Pc1と3軸周りの姿勢角度θc1とで定義される(図6;532f)。   The objective camera CM1 is set so as to photograph the whole body and its surroundings from obliquely upward. The objective camera CM1 is a camera that is used as an objective viewpoint in which the line-of-sight direction is not changed in accordance with the player's operation input, so that the objective camera CM1 is arranged toward the line-of-sight direction designed at the position designed with respect to the route 22. The vertical movement and the forward / backward movement are not generated. The design of the line-of-sight direction means that the posture is determined by the intention of the game producer, and in the motion data 532, the three-dimensional relative position coordinate Pc1 with respect to the route 22 is associated with the frame number 532a. It is defined by a posture angle θc1 around three axes (FIG. 6; 532f).

また、本実施形態のモーションデータ532は、当該モーション実行時のゲーム空間画像生成の視点として、スケルトンモデルMSに含まれている仮想カメラのうちどの仮想カメラをどのタイミングで使用するかを定義する使用カメラ設定情報532gを含む。
本実施形態では使用カメラ設定情報532gには異なるカメラモーション選択条件に対応する複数の設定が格納されており、ゲーム進行状況やプレーヤキャラクタの状況が、予め設定されている選択条件と照らして何れかの設定が選択される。同図の例では、標準の設定として主観カメラCM0が全フレームに亘って設定されている(標準532n)。また、プレーヤキャラクタが有利又は不利な状況で選択される設定として、客観カメラCM1が全フレームに亘って設定されている(有利/不利状態532p)。
In addition, the motion data 532 according to the present embodiment is used to define which virtual camera is used at which timing among virtual cameras included in the skeleton model MS as a viewpoint for generating a game space image at the time of executing the motion. It includes camera setting information 532g.
In the present embodiment, the use camera setting information 532g stores a plurality of settings corresponding to different camera motion selection conditions, and the game progress status and the player character status are either in light of the preset selection conditions. Is selected. In the example of the figure, the subjective camera CM0 is set over all frames as a standard setting (standard 532n). Further, the objective camera CM1 is set over the entire frame as a setting for selecting the player character in an advantageous or unfavorable situation (advantageous / disadvantaged state 532p).

尚、ここで言う「有利又は不利な状況」とは、本実施形態ではキャラクタが機銃攻撃を受けている状態とし、客観カメラを被攻撃時客観カメラとして利用する設定となっている。しかし、これに限らず敵キャラクタECが所定距離に接近している状況や、保護対象となる特定のアイテムを携行していて、当該アイテムをかばいながら戦闘しなければならない状況、と言ったその他の不利な状態(状況)を条件としても良い。また、仮想カメラをもう1台増やして、有利な状況において増加した客観カメラを攻撃時客観カメラとして利用する設定とすることもできる。反対に有利な状況としては、例えば機銃攻撃しながら歩行している状況や、敵より高所にある場合、もしゲームの設定上で味方キャラクタが存在するならば、その味方キャラクタが近くに居る状況などを設定しても良い。   In this embodiment, the “advantageous or unfavorable situation” referred to here is a setting in which the character is under a machine gun attack and the objective camera is used as the objective camera at the time of attack. However, it is not limited to this, and other situations such as a situation where the enemy character EC is approaching a predetermined distance, a situation where a specific item to be protected is carried, and a battle must be carried while covering the item. An unfavorable state (situation) may be a condition. It is also possible to increase the number of virtual cameras and set the objective camera increased in an advantageous situation to be used as an objective camera during an attack. On the other hand, as advantageous situations, for example, when you are walking with a machine gun attack, or when you are higher than the enemy, if there is an ally character in the game settings, the ally character is nearby Etc. may be set.

このように、スケルトンモデルに組み込まれた仮想カメラの選択設定として、特定の状況条件(カメラ切換状況条件)に合致する場合に客観カメラCM1を視点とするように設定することで、モーションデータの設定のみで、状況が標準時から変化したことを視点の変化としてプレーヤに通知する仕組みを実現できるので、条件の変更や追加などをプログラムの変更工数を掛けずに実現できる。   As described above, as the selection setting of the virtual camera incorporated in the skeleton model, the setting of the motion data is performed by setting the objective camera CM1 as the viewpoint when the specific situation condition (camera switching situation condition) is met. As a result, it is possible to realize a mechanism for notifying the player that the situation has changed from the standard time as a change in viewpoint, so that a change or addition of conditions can be realized without increasing the man-hours for changing the program.

また、ゲーム中に挿入されるムービーカット(ムービーシーン)のようにプレーヤの操作を離れてプレーヤキャラクタが自動操作されるような場合においてプレーヤキャラクタが歩行するカットを使う場合、キャラクタモデルに設定済みの客観カメラCM1を視点として選択するだけで、専用のモデルや専用のモーション(キャラクタ、仮想カメラ両方含む)を別途用意しなくとも、プレーヤキャラクタの歩行を客観的に撮影するカットを容易に生成することができる。   In addition, when using a cut that the player character walks when the player character is automatically operated away from the player operation, such as a movie cut (movie scene) inserted during the game, the character model is already set. By simply selecting the objective camera CM1 as a viewpoint, it is possible to easily generate a cut that objectively captures the walking of the player character without separately preparing a dedicated model or dedicated motion (including both character and virtual camera). Can do.

図7は、本実施形態におけるスペシャル攻撃(SP攻撃)モーションの例を示す概念図である。図8は対応するモーションデータの設定例を示すデータ構成図である。
スペシャル攻撃のモーションは、ゲームコントローラ1230からスペシャル攻撃操作の入力が有って且つ攻撃がヒットしたと判定された場合に発動され、プレーヤキャラクタが攻撃対象を剣で袈裟掛けに斬って一撃必殺技に撃破する。
FIG. 7 is a conceptual diagram showing an example of a special attack (SP attack) motion in the present embodiment. FIG. 8 is a data configuration diagram showing a setting example of corresponding motion data.
The special attack motion is activated when a special attack operation is input from the game controller 1230 and it is determined that the attack is hit. The player character slashes the attack target with a sword and makes it a one-shot killing technique. Defeat.

主観カメラCM0は、攻撃対象を見据えるようにしてとらえつつ、プレーヤキャラクタの頭部から攻撃対象想定位置26へ向けて前方へ移動するようにモーションが付けられている。また、客観カメラCM1は、攻撃時客観カメラに相当し、キャラクタの右方から後方を経て左へ回り込みつつ全身を撮影し、更に攻撃対象の想定位置よりも後方より攻撃対象をなめてプレーヤキャラクタを撮影できる位置に移動するようにモーションがつけられている。   The subjective camera CM0 is given a motion so as to move forward from the player character's head toward the assumed attack target position 26 while keeping an eye on the attack target. The objective camera CM1 corresponds to an objective camera at the time of an attack, and shoots the whole body while turning from the right side of the character to the left through the rear, and further licks the attack target from behind the assumed position of the attack target and displays the player character. Motion is added to move to a position where you can shoot.

主観カメラCM0で撮影される映像は、攻撃対象に剣が振り降ろされる様子を適当な振れを伴いつつズームアップするものとなり、破壊される攻撃対象にプレーヤを注視させる演出をすることができる。また、第1主観カメラCM1で撮影される映像は、派手に剣を振って攻撃対象をなぎ倒す様を回り込むようにして写し、崩れ落ちる攻撃対象越し(例えば肩越し)にプレーヤキャラクタのポーズを撮影したものとなり、迫力のある特別な攻撃であることを演出することができる。   The video shot by the subjective camera CM0 zooms up with an appropriate shake while the sword is swung down on the attack target, and it is possible to produce an effect that causes the player to watch the attack target to be destroyed. In addition, the video shot by the first subjective camera CM1 is a shot of a player character pose over an attacking object that collapses (for example, over the shoulder), with a flashy sword swinging around the attacking object. , Can produce a powerful special attack.

図8に示すように、SP攻撃モーションのモーションデータ532では、フレーム番号532b毎に、関節角度532cと、主観カメラCM0の位置座標Pc0(532e)と、客観カメラCM1の位置座標Pc1及び3軸の姿勢角度θc1(532f)とが対応付けて格納されている。
使用カメラ設定532gでは、開始から90フレームまでは主観カメラCM0が選択され、90フレーム以降は客観カメラCM1が選択されるように設定されている。つまり、SP攻撃モーションが適用されている間にカメラの切り換えが行われ、SP攻撃をより好適に演出することができる。
As shown in FIG. 8, in the motion data 532 of the SP attack motion, for each frame number 532b, the joint angle 532c, the position coordinate Pc0 (532e) of the subjective camera CM0, the position coordinate Pc1 of the objective camera CM1, and the three axes The attitude angle θc1 (532f) is stored in association with each other.
In the use camera setting 532g, the subjective camera CM0 is selected from the start to the 90th frame, and the objective camera CM1 is selected after the 90th frame. In other words, the camera is switched while the SP attack motion is applied, and the SP attack can be rendered more suitably.

図9は、本実施系形態におけるプレーヤキャラクタのモーション設定の一例を示す概念図であって、所定のヒットポイントを超過するダメージを受けて行動不能になる際に適用される「やられモーション」の例を示している。図10は、やられモーションのモーションデータの例を示すデータ構成図である。   FIG. 9 is a conceptual diagram showing an example of a player character motion setting in the present embodiment, and an example of a “momented motion” that is applied when an action becomes impossible due to damage exceeding a predetermined hit point. Is shown. FIG. 10 is a data configuration diagram illustrating an example of the motion data of the beat motion.

やられモーションでは、躯体20は行動不能になるほどのダメージを受けて膝を折りつつ後ろにのけぞるようにして崩れる様子を表現するようにモーションが付けられている。主観カメラCM0は、頭部又はその近傍に設定されるが、躯体20が激しく崩れる揺れとは別にカメラのモーションが設定されている。客観カメラは、被攻撃時客観カメラに相当し、キャラクタの斜め前方から側面全身を写す位置に移動し、さらに後方へ回り込みつつ、躯体20とともに倒れるようにして下降するモーションが付けられている。   In the done motion, the frame 20 is given a motion so as to express a state in which the body 20 is damaged so as to be incapable of action, and is broken as if it is folded back while folding the knee. The subjective camera CM0 is set at the head or in the vicinity thereof, but the camera motion is set apart from the shaking that the housing 20 collapses violently. The objective camera corresponds to the objective camera at the time of attack, and is moved from an obliquely forward position of the character to a position where the entire body of the side is photographed, and further moved downward to fall with the housing 20 while falling.

主観カメラCM0に基づくゲーム空間画像は、限界以上のダメージを受けて崩れ落ちる視界の様子が、画面酔いしない適切な振動を伴って映し出される映像となる。客観カメラCM1に基づくゲーム空間画像は、キャラクタの崩れるように倒れる様子を客観的に写しつつも、背後に回りこんで躯体20が前方に倒れ込んでくるような映像となり、迫力ある「やられ」を視覚的に演出することができる。   The game space image based on the subjective camera CM0 is a video in which the state of the field of view that collapses due to damage exceeding the limit is projected with appropriate vibration that does not cause screen sickness. The game space image based on the objective camera CM1 is an objective image of the character falling down like a collapsed character, but it turns into a video that turns around behind and the frame 20 falls forward, and visually displays the powerful “being” Can be directed.

図10に示すように、本実施形態における「やられモーション」のモーションデータ532では、複数種類の使用カメラ設定が定義されており、キャラクタの有利又は不利な状況の条件として予め定められた状況条件に合致したことを検出した場合に何れか一つの設定が選択される。   As shown in FIG. 10, in the motion data 532 of “Yeared motion” in the present embodiment, a plurality of types of use camera settings are defined, and the situation conditions predetermined as the conditions for the advantageous or unfavorable situation of the character are defined. Any one setting is selected when a match is detected.

本実施形態では二つの使用カメラ設定が設定されている。一つは、細かなダメージの積み重ねがついにヒットポイントを超過して行動不能になるといった標準状態にて適用される設定である(標準532h)。同図の例では、開始より89フレームまでは主観カメラCM0が設定され、90フレーム以降は客観カメラCM1が設定されている。当該標準状態の使用カメラ設定(標準532h)に基づけば、視界が揺らぎ崩れ落ちる主観から実際に崩れ落ちるキャラクタの様子を客観視するようにカメラが切り換えられる映像となる。   In this embodiment, two camera settings are set. One is a setting that is applied in a standard state in which the accumulation of fine damage finally exceeds the hit point and becomes inoperable (standard 532h). In the example of the figure, the subjective camera CM0 is set up to 89 frames from the start, and the objective camera CM1 is set up from the 90th frame. Based on the use camera setting (standard 532h) in the standard state, the video can be switched so that the camera can be objectively viewed from the subjectivity in which the field of view collapses.

もう一つは、プレーヤキャラクタが先のSP攻撃のように特別な攻撃を受けて一撃必殺に撃墜されるような不利な状況にあたる被SP攻撃状態にて適用される設定である(被SP攻撃532j)。被SP攻撃状態では、攻撃を放つ側のキャラクタのSP攻撃モーションにおける客観カメラCM1を選択するように設定されている。   The other is a setting that is applied in an SP attack state in which the player character receives a special attack as in the previous SP attack and is shot down with a single blow (SP attack 532j). ). In the SP attack state, the objective camera CM1 in the SP attack motion of the character on the attack side is set to be selected.

このように、特定の状況条件において被攻撃側の視点となる仮想カメラを、攻撃側の客観カメラから選択可能にすることによって、攻撃側キャラクタと被攻撃側キャラクタとの相対位置関係にかかわらず自在なカメラワークを実現し、例えばSP攻撃で見せたいシーンを演出するといった事が可能になる。   In this way, the virtual camera that becomes the viewpoint of the attacked side in a specific situation condition can be selected from the objective camera of the attacking side, so that it can be freely controlled regardless of the relative positional relationship between the attacking character and the attacking character. It is possible to realize a camera work and produce a scene desired to be shown by, for example, an SP attack.

SP攻撃に係る具体的な一例を挙げると例えば図11のようになる。同図はSP攻撃を受けた場合の使用カメラ設定を説明するための概念図であって、1プレーヤキャラクタPC1のSP攻撃が2プレーヤキャラクタPC2にヒットしたと判定された状況を示している。1プレーヤキャラクタPC1及び付属する仮想カメラ(CM0、CM1)は先に説明したSP攻撃モーションに従って移動され、1プレーヤ用のゲーム画面にはSP攻撃モーションの使用カメラ設定532gに基づく視点による映像が表示される(図8参照)。一方、2プレーヤキャラクタPC2及び付属する仮想カメラCM(非図示)は先のやられモーションに従って移動制御される。そして、2プレーヤ用のゲーム画面には、使用カメラ設定532gの被SP攻撃532jが適用されるので、攻撃側のキャラクタのモーションで定義される客観カメラCM1を視点とする映像となる。   For example, FIG. 11 shows a specific example related to the SP attack. This figure is a conceptual diagram for explaining the setting of the camera to be used in the case of receiving an SP attack, and shows a situation where it is determined that the SP attack of one player character PC1 hits the two player character PC2. One player character PC1 and attached virtual cameras (CM0, CM1) are moved in accordance with the SP attack motion described above, and a video based on the viewpoint based on the SP attack motion use camera setting 532g is displayed on the game screen for one player. (See FIG. 8). On the other hand, the two-player character PC2 and the attached virtual camera CM (not shown) are controlled to move according to the previously performed motion. Since the SP attack 532j with the use camera setting 532g is applied to the game screen for two players, the video is viewed from the objective camera CM1 defined by the motion of the attacking character.

先に説明したように、SP攻撃モーションの客観カメラCM1は、攻撃対象想定位置26を挟んでプレーヤキャラクタの正面を撮影する。したがって、SP攻撃を被ったときの2プレーヤキャラクタPC2の向きに係らずSP攻撃を被ってやられる様子を2プレーヤキャラクタPC2をなめて1プレーヤキャラクタPC1の決めポーズを撮影するといった特定の演出を実現し、1プレーヤには爽快な気分を、2プレーヤには屈辱的な気分をそれぞれ与え、対戦気分を盛り上げるといったことができる。   As described above, the SP attack motion objective camera CM1 captures the front of the player character with the attack target assumed position 26 in between. Therefore, a specific effect is realized such that the two player character PC2 is licked and the determined pose of the one player character PC1 is photographed while the SP player is subjected to the SP attack regardless of the orientation of the two player character PC2 when subjected to the SP attack. One player can feel refreshed, two players can feel humiliated, and the game can be raised.

尚、本実施形態では不利な状況条件で使用カメラ設定532gの設定を選択したが、有利な状況条件(例えば、特殊兵装を装備している、攻撃相手より高い位置に居る、攻撃時に周囲所定範囲に味方キャラクタが存在するなど)によって使用カメラ設定532gの設定を選択可能としても良い。状況条件については、別途テーブルデータとして記憶しておいて参照する構成としても良いし、プログラム中で分岐判断される構成としても良い。   In this embodiment, the setting of the use camera setting 532g is selected under an unfavorable situation condition. However, an advantageous situation condition (for example, equipped with special weapons, located at a position higher than the attacking opponent, predetermined around when attacking) The setting of the used camera setting 532g may be selectable depending on the presence of an ally character in the range. The situation condition may be configured to be stored separately as table data and referred to, or may be determined to branch in the program.

以上のように、本実施形態によれば、モーションデータを用いてキャラクタを制御する形式のゲームにおいて、キャラクタモデルに仮想カメラを含めて階層構造化し、躯体と同様に仮想カメラもまたモーションデータで一括制御することができる。
そもそも、従来、主観視点用と客観視点用とでスケルトンモデルMSに対応づけて配置されるパーツオブジェクトの種類が異なる別々のキャラクタモデルを用意し、それぞれに対応するモーションデータを設定する必要があった理由は、客観視したときに見映えするように派手に演出したキャラクタの躯体のモーションに、単に主観視点用の仮想カメラを固定しただけでは主観映像が大きく揺れたり、不必要に躯体の一部が写りこむといった問題があったからである。
As described above, according to the present embodiment, in a game in which a character is controlled using motion data, the character model is hierarchically structured including the virtual camera. Can be controlled.
In the first place, it has been necessary to prepare different character models with different types of part objects arranged corresponding to the skeleton model MS for the subjective viewpoint and the objective viewpoint, and to set motion data corresponding to each. The reason is that if the virtual camera for the subjective viewpoint is simply fixed to the motion of the character's skeleton that has been flashyly produced as if it was viewed objectively, the subjective video will shake greatly, or part of the skeleton will be unnecessarily This is because there was a problem of being reflected.

しかし、本実施形態によれば、主観カメラのモーションを適切に設定することで、映り込みをさける位置で、躯体に従動して揺れることなく、モーションを設定できる。したがって、従来のように客観視点用のキャラクタモデル及び客観視点用の仮想カメラのカメラワークを用意するとともに、さらに、写りこむ恐れのある部位を削除した主観視点用のモデル及び主観視点用の仮想カメラのカメラワークを用意しなくとも良くなるので、ゲーム製作の工数を大幅に削減できる。   However, according to the present embodiment, by setting the motion of the subjective camera appropriately, it is possible to set the motion at a position where the reflection is avoided without being moved by shaking the housing. Therefore, as in the past, a character model for an objective viewpoint and a camera work of a virtual camera for an objective viewpoint are prepared, and a model for a subjective viewpoint and a virtual camera for a subjective viewpoint in which a portion that may be reflected is deleted. It is not necessary to prepare the camera work, so the man-hours for game production can be greatly reduced.

また、キャラクタモデルに仮想カメラを含めて階層構造化し、躯体と同様に仮想カメラもまたモーションデータで制御する構成とすることで、躯体のモーションと仮想カメラのモーションを同じ工程で作り込むことができることになる。つまり、モーションデザイナーが躯体のモーションをつけながら、それをどのように演出して見せるか仮想カメラのモーション(カメラワーク)を設定できるということである。よって、従来のようにモーションデザイナーが製作した躯体のモーションに別工程でそれを撮影する仮想カメラのモーションを別のスタッフが設定する場合に比べて、モーションデザイナーが意図する演出をより高い品質で簡単に実現できることになる。   In addition, the structure of the character model including the virtual camera is hierarchically structured, and the virtual camera is also controlled by motion data in the same way as the chassis, so that the motion of the chassis and the motion of the virtual camera can be created in the same process. become. In other words, it is possible to set the motion (camera work) of the virtual camera how the motion designer will add the motion of the body and show it. Therefore, compared to the case where the motion of the virtual camera that captures the motion of the chassis produced by the motion designer in a separate process is set by another staff as before, the production intended by the motion designer is easier and higher quality. Can be realized.

また、ゲーム実行中の処理負荷の軽減効果も得られる。すなわち、本実施形態のように画面を2分割して2プレーヤが一度にプレイするビデオゲームを実行する場合であれば、一方の主観のゲーム画面に他方のプレーヤキャラクタを客観視する事が起こりえる。この場合、従来の処理では、合計4体のキャラクタモデルをそれぞれ異なるモーションデータで動かす必要があり、高い処理負荷となった。   In addition, the processing load can be reduced during the game. In other words, if a video game is performed in which the screen is divided into two and played by two players at the same time as in the present embodiment, the other player character can be objectively viewed on one subjective game screen. . In this case, in the conventional processing, it is necessary to move a total of four character models with different motion data, resulting in a high processing load.

これに対して、本実施形態では、1プレーヤキャラクタと2プレーヤキャラクタの2体をそれぞれのモーションデータで動かし、それぞれの主観カメラの画像をそれぞれの分割画面に表示させれば良いことになる。したがって、モデルの製作工数及びモーションの設定に係る工数を半分に削減できるし、ゲーム実行中の処理負荷も大幅に改善できることになる。仮に、主観カメラのモーション設定だけでは画面の見易さを確保できないケースがあったとしても、躯体のモーションとカメラ部分のモーションとを同時に設定することになるので、モーションデザイナーがその場で躯体のモーションを一部変更して演出目的と画面の見易さのバランス取りができるので、作業の手間を削減することができる。   On the other hand, in this embodiment, it is only necessary to move two bodies of one player character and two player characters with respective motion data and display images of respective subjective cameras on respective divided screens. Therefore, it is possible to reduce the number of man-hours for model production and the setting of motion to half, and the processing load during game execution can be greatly improved. Even if there is a case where the viewability of the screen cannot be ensured only by setting the motion of the subjective camera, the motion of the chassis and the motion of the camera part will be set at the same time, so the motion designer will Since the motion can be partially changed to balance the production purpose and the visibility of the screen, the labor of the work can be reduced.

[機能ブロックの説明]
次に、上述のようなビデオゲームを実現するための機能構成について説明する。
図12は、本実施形態における機能構成の一例を示す機能ブロック図である。同図に示すように本実施形態では、操作入力部100と、処理部200と、放音部350と、画像表示部360と、通信部370と、記憶部500とを備える。
[Description of functional block]
Next, a functional configuration for realizing the video game as described above will be described.
FIG. 12 is a functional block diagram illustrating an example of a functional configuration according to the present embodiment. As shown in the figure, the present embodiment includes an operation input unit 100, a processing unit 200, a sound emitting unit 350, an image display unit 360, a communication unit 370, and a storage unit 500.

操作入力部100は、プレーヤによって為された各種の操作入力に応じて操作入力信号を処理部200に出力する。図1では、ゲームコントローラ1230が操作入力部100に該当する。   The operation input unit 100 outputs an operation input signal to the processing unit 200 in accordance with various operation inputs made by the player. In FIG. 1, the game controller 1230 corresponds to the operation input unit 100.

処理部200は、例えばマイクロプロセッサやASIC(特定用途向け集積回路)、ICメモリなどの電子部品によって実現され、操作入力部100や記憶部500を含むゲーム装置1200の各機能部との間でデータの入出力を行うとともに、所定のプログラムやデータ、操作入力部100からの操作入力信号に基づいて各種の演算処理を実行して、ゲーム装置1200の動作を制御する。図1では、ゲーム装置本体1201に内蔵された制御ユニット1210が処理部200に該当する。
そして本実施形態における処理部200は、ゲーム演算部210と、音生成部250と、画像生成部260と、通信制御部270とを備える。
The processing unit 200 is realized by electronic components such as a microprocessor, an ASIC (Application Specific Integrated Circuit), and an IC memory, for example. Data is exchanged with each function unit of the game apparatus 1200 including the operation input unit 100 and the storage unit 500. Are input and output, and various arithmetic processes are executed on the basis of predetermined programs and data and operation input signals from the operation input unit 100 to control the operation of the game apparatus 1200. In FIG. 1, the control unit 1210 built in the game apparatus main body 1201 corresponds to the processing unit 200.
The processing unit 200 in this embodiment includes a game calculation unit 210, a sound generation unit 250, an image generation unit 260, and a communication control unit 270.

ゲーム演算部210は具体的には、モデル配置制御部212と、モーションデータ選択部214と、モーション補間部216と、モデル動作制御部218と、仮想カメラ選択部222とを備え、ゲームの進行に係る種々の処理を実行する。   Specifically, the game calculation unit 210 includes a model arrangement control unit 212, a motion data selection unit 214, a motion interpolation unit 216, a model motion control unit 218, and a virtual camera selection unit 222. Various processes are performed.

モデル配置制御部212は、モデルの配置と移動に係る処理を実行する。例えば、本実施形態では障害物オブジェクト4などをゲーム空間である仮想3次元空間中に形成する処理や、ゲームコントローラ1230からの操作入力に応じてプレーヤキャラクタをゲーム空間中で移動させる処理、所定の思考ルーチンにしたがって敵キャラクタをゲーム空間中で移動させる処理を実行する。   The model arrangement control unit 212 executes processing related to model arrangement and movement. For example, in the present embodiment, a process of forming the obstacle object 4 or the like in the virtual three-dimensional space that is the game space, a process of moving the player character in the game space in response to an operation input from the game controller 1230, a predetermined A process of moving the enemy character in the game space according to the thinking routine is executed.

モーション選択部214は、各キャラクタに適用されるモーションの種類を選択する。モーションの選択方法は、公知の一人称視点を用いたビデオゲームと同様にして実現することができる。   The motion selection unit 214 selects the type of motion applied to each character. The motion selection method can be realized in the same manner as a video game using a known first-person viewpoint.

モーション補間部216は、キャラクタに適用中のモーションの途中から異なる他のモーションへ滑らかに動作を繋いで移行させるために、切換前後の異なるモーションデータから補間モーションのモーションデータを作成する。本実施形態では、キャラクタモデルに仮想カメラを含んでいるので、仮想カメラのモーションも躯体部分と同様にモーション補間の対象となる。尚、モーション補間の方法や補間モーションの形式は公知技術を適宜利用可能である。   The motion interpolation unit 216 creates motion data of interpolated motion from different motion data before and after switching, in order to smoothly connect and move from the middle of the motion being applied to the character to another different motion. In the present embodiment, since the character model includes a virtual camera, the motion of the virtual camera is also subject to motion interpolation in the same manner as the case portion. It should be noted that known techniques can be used as appropriate for the motion interpolation method and the interpolation motion format.

モデル動作制御部218は、選択されたモーションのモーションデータや補間モーションに基づいてキャラクタの躯体及び仮想カメラの動作を制御する。本実施形態では更に、仮想カメラが他のオブジェクトと干渉する場合に、その位置を補正するカメラ位置補正部220を備える。   The model motion control unit 218 controls the motion of the character's body and the virtual camera based on the motion data of the selected motion and the interpolation motion. The present embodiment further includes a camera position correction unit 220 that corrects the position when the virtual camera interferes with another object.

仮想カメラ選択部222は、モーションデータ選択部214で選択されたモーションデータ532の使用カメラ設定532gを参照して、当該モーションデータに基づくモーションが発動している間、ゲーム空間画像を生成するための視点として使用する仮想カメラを選択する。またその際、前述の歩行モーションややられモーションのように、使用カメラ設定532gに複数の設定が含まれている場合には、操作入力部100からの操作入力の状態や、キャラクタの置かれている状況を含むゲーム進行状況が各設定それぞれの選択条件に該当するか否かで複数の設定のうち何れかを選択し、選択した設定で現在実行中のフレームに定義されている仮想カメラを選択する。   The virtual camera selection unit 222 refers to the use camera setting 532g of the motion data 532 selected by the motion data selection unit 214, and generates a game space image while a motion based on the motion data is activated. Select a virtual camera to use as a viewpoint. At this time, when the use camera setting 532g includes a plurality of settings, such as the above-described walking motion and beating motion, the state of the operation input from the operation input unit 100 or the character is placed. Select one of a plurality of settings depending on whether the game progress status including the situation meets the selection conditions of each setting, and select the virtual camera defined in the currently executing frame with the selected setting .

音生成部250は、例えばデジタルシグナルプロセッサ(DSP)などのプロセッサやその制御プログラムによって実現され、ゲーム演算部210による処理結果に基づいてゲームに係る効果音やBGM、各種操作音の音信号を生成し、放音部350に出力する。   The sound generation unit 250 is realized by a processor such as a digital signal processor (DSP) or its control program, for example, and generates sound signals of game sound effects, BGM, and various operation sounds based on the processing result of the game calculation unit 210. And output to the sound emitting unit 350.

放音部350は、音生成部250から入力される音信号に基づいて効果音やBGM等を音出力する装置によって実現される。図1ではビデオモニタ1220のスピーカ1224がこれに該当する。   The sound emitting unit 350 is realized by a device that outputs sound effects, BGM, and the like based on the sound signal input from the sound generating unit 250. In FIG. 1, the speaker 1224 of the video monitor 1220 corresponds to this.

画像生成部260は、例えば、デジタルシグナルプロセッサ(DSP)などのプロセッサ、その制御プログラム、フレームバッファ等の描画フレーム用ICメモリ等によって実現される。画像生成部260は、ゲーム演算部210による処理結果に基づいて1フレームレート(例えば30fps)で、仮想カメラ選択部262で選択された仮想カメラで撮影したゲーム空間を元にゲーム画像を生成し、生成したゲーム画像の画像信号を画像表示部360に出力して画像表示させる。   The image generation unit 260 is realized by, for example, a processor such as a digital signal processor (DSP), its control program, a drawing frame IC memory such as a frame buffer, and the like. The image generation unit 260 generates a game image based on the game space photographed by the virtual camera selected by the virtual camera selection unit 262 at one frame rate (for example, 30 fps) based on the processing result by the game calculation unit 210, The image signal of the generated game image is output to the image display unit 360 to display the image.

画像表示部360は、画像生成部260から入力される画像信号に基づいて各種ゲーム画像を表示する。例えば、フラットパネル画像表示装置、ブラウン管(CRT)、プロジェクター、ヘッドマウント画像表示装置といった画像表示装置によって実現できる。図1ではビデオモニタ1220の画像表示装置1222が該当する。   The image display unit 360 displays various game images based on the image signal input from the image generation unit 260. For example, it can be realized by an image display device such as a flat panel image display device, a cathode ray tube (CRT), a projector, or a head mounted image display device. In FIG. 1, the image display device 1222 of the video monitor 1220 corresponds.

通信制御部270は、データ通信に係るデータ処理を実行し、通信部370を介して外部装置とのデータのやりとりを実現する。   The communication control unit 270 executes data processing related to data communication, and realizes data exchange with an external device via the communication unit 370.

通信部370は、通信回線2と接続して通信を実現する。例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現され、図1では通信装置1212がこれに該当する。   The communication unit 370 connects to the communication line 2 to realize communication. For example, it is realized by a wireless communication device, a modem, a TA (terminal adapter), a cable communication cable jack, a control circuit, and the like, and the communication device 1212 corresponds to this in FIG.

記憶部500は、処理部200にゲーム装置1200を統合的に制御させるための諸機能を実現するためのシステムプログラム501や、ゲームを実行させるために必要なゲームプログラム502、各種データ等を記憶する。また、処理部200の作業領域として用いられ、処理部200が各種プログラムに従って実行した演算結果や操作部100から入力される入力データ等を一時的に記憶する。この機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD−ROMやDVDなどの光学ディスクなどによって実現される。   The storage unit 500 stores a system program 501 for realizing various functions for causing the processing unit 200 to control the game apparatus 1200 in an integrated manner, a game program 502 necessary for executing a game, various data, and the like. . Further, it is used as a work area of the processing unit 200, and temporarily stores calculation results executed by the processing unit 200 according to various programs, input data input from the operation unit 100, and the like. This function is realized by, for example, an IC memory such as a RAM and a ROM, a magnetic disk such as a hard disk, and an optical disk such as a CD-ROM and DVD.

記憶部500には、予め用意されるデータとしてゲーム空間設定データ510と、キャラクタ初期設定データ512と、モーションデータライブラリ522とが記憶されている。モーション選択部214が、モーション選択に予め選択条件とモーション種類とを対応づけたテーブルデータを参照する形式の場合には、適宜モーション選択条件TBL(テーブル)524を予め用意・記憶する構成としても良い。更にゲームの進行に伴って随時書き換えられるデータとして、キャラクタステータスデータ526と、モーション管理データ528とを記憶する。また、ゲームの進行に係る処理を実行するにあたり必要となるタイマー値やゲーム結果の算出に必要となる各種パラメータ値なども記憶される。   The storage unit 500 stores game space setting data 510, character initial setting data 512, and a motion data library 522 as data prepared in advance. When the motion selection unit 214 refers to the table data in which the selection condition and the motion type are previously associated with the motion selection, the motion selection condition TBL (table) 524 may be appropriately prepared and stored in advance. . Furthermore, character status data 526 and motion management data 528 are stored as data that can be rewritten as the game progresses. Further, a timer value necessary for executing a process related to the progress of the game, various parameter values necessary for calculating the game result, and the like are also stored.

ゲーム空間設定データ510には、仮想空間にゲーム空間を形成するための各種データが格納されている。例えば、プレーヤキャラクタPCが移動する地表や建物、障害物を含む配置物に関するモデルデータやテクスチャデータ及びモーションデータが含まれる。
キャラクタ初期設定データ512は、プレーヤキャラクタ及び敵キャラクタそれぞれに係る各種初期パラメータ値及びキャラクタモデルデータ514を格納する。
モーションデータライブラリ522は、モーションデータ532をキャラクタの種類及びモーション種類で検索・読み出し自在に格納する。
The game space setting data 510 stores various data for forming a game space in the virtual space. For example, model data, texture data, and motion data relating to an arrangement including a ground surface, a building, and an obstacle on which the player character PC moves are included.
The character initial setting data 512 stores various initial parameter values and character model data 514 relating to the player character and the enemy character, respectively.
The motion data library 522 stores the motion data 532 so as to be freely searchable and readable according to the character type and the motion type.

キャラクタステータスデータ526は、各キャラクタの現在の位置や運動状態、能力値の現在のパラメータ値を格納する。例えば図13に示すように、キャラクタ識別情報526aに対応させて、各キャラクタのルート座標526b、ルートの現在の移動速度であるルート速度526c、現在のヒットポイント526d、残弾数526eなどを格納する。その他、各キャラクタの躯体を構成するパーツオブジェクト及び仮想カメラの位置及び姿勢といった情報を含むモデル管理情報526fを適宜格納する。   The character status data 526 stores the current parameter values of the current position, motion state, and ability value of each character. For example, as shown in FIG. 13, the route coordinates 526b of each character, the route speed 526c that is the current moving speed of the route, the current hit point 526d, the remaining number of bullets 526e, and the like are stored in association with the character identification information 526a. . In addition, model management information 526f including information such as the position and orientation of the part object and virtual camera that form the body of each character is stored as appropriate.

モーション管理データ528は、各キャラクタに適用中のモーションを管理するための情報を格納する。例えば、図14に示すようにキャラクタ識別情報528aに対応させて、各キャラクタに適用されているモーション種類528bや実行フレーム番号528cといった情報を格納する。その他、モーションの適用途中で他のモーションに切り換えられる場合には、次に適用するモーション種類を格納するなど、モーション管理に必要な情報は適宜格納されるものとする。   The motion management data 528 stores information for managing the motion being applied to each character. For example, as shown in FIG. 14, information such as the motion type 528b and the execution frame number 528c applied to each character is stored in association with the character identification information 528a. In addition, when switching to another motion during the application of motion, information necessary for motion management, such as storing the type of motion to be applied next, is stored as appropriate.

[動作の説明]
次に、本発明の動作について説明する。
図15は、本実施形態における処理の流れを説明するためのフローチャートである。ここで説明される処理は、処理部200がシステムプログラム501、ゲームプログラム502を読み出して実行することによって実現される。
[Description of operation]
Next, the operation of the present invention will be described.
FIG. 15 is a flowchart for explaining the flow of processing in the present embodiment. The processing described here is realized by the processing unit 200 reading and executing the system program 501 and the game program 502.

同図に示すように、処理部200は先ずゲーム空間設定データ510、キャラクタ初期設定データ512を参照して、仮想3次元空間中に障害物オブジェクト4等を配置してゲーム空間を形成し(ステップS2)、形成したゲーム空間に1プレーヤキャラクタPC1と、2プレーヤキャラクタPC2及び敵キャラクタECを配置する(ステップS4)。このとき、1プレーヤキャラクタPC1及び2プレーヤキャラクタPC2については、それぞれ、一のルート22を基準に躯体20と主観カメラCM0と客観カメラCM1とが配置される。ただし、仮想カメラは表示対象外なので、主観カメラCM0と客観カメラCM1の具体的な表示物としてのオブジェクトは配置されないのは勿論である。   As shown in the figure, the processing unit 200 first refers to the game space setting data 510 and the character initial setting data 512 to arrange the obstacle object 4 and the like in the virtual three-dimensional space to form a game space (step S2), 1 player character PC1, 2 player character PC2 and enemy character EC are arranged in the formed game space (step S4). At this time, for the 1-player character PC1 and the 2-player character PC2, the housing 20, the subjective camera CM0, and the objective camera CM1 are arranged based on one route 22, respectively. However, since the virtual camera is not a display target, it is a matter of course that objects as specific display objects of the subjective camera CM0 and the objective camera CM1 are not arranged.

次に、ゲームが開始されたならば(ステップS6のYES)、処理部200は各キャラクタについてループAの処理を実行する(ステップS8〜ステップS18)。
ループAの処理では、先ず、対象キャラクタについて、移動や回転、ジャンプ、攻撃、防御、被弾などの各種モーションのうち、いずれのモーションを各キャラクタに適用するかを選択するモーション選択処理を行う(ステップS10)。
具体的には、例えば、1プレーヤキャラクタPC1及び2プレーヤキャラクタPC2については、それぞれの対応するゲームコントローラ1230からの操作入力に基づいてモーションが選択される。敵キャラクタについては、公知のノンプレーヤキャラクタの制御と同様にして所定の行動ルーチンにしたがって移動・索敵し、プレーヤキャラクタを攻撃するように動作が決定され、対応するモーションが選択されることになる。
Next, if the game is started (YES in step S6), the processing unit 200 executes a process of loop A for each character (steps S8 to S18).
In the process of Loop A, first, a motion selection process is performed for the target character to select which motion is to be applied to each character among various motions such as movement, rotation, jump, attack, defense, and bullet (step). S10).
Specifically, for example, for the 1-player character PC1 and the 2-player character PC2, a motion is selected based on an operation input from the corresponding game controller 1230. The enemy character moves / searches in accordance with a predetermined action routine in the same manner as the known non-player character control, and the action is determined so as to attack the player character, and the corresponding motion is selected.

次に、処理部200は、対象キャラクタのモーション管理データ528を参照して、現在適用中のモーションの有無を判定する。そして、適用中のモーションが有って、且つ、その種類が先のステップS10で選択されたモーションの種類と異なる場合に(ステップS12のYES)、モーション補間処理を実行する(ステップS14)。
モーション補間処理は、適用中のモーションの途中の動作から次に適用されるモーションへ所定フレームで滑らかに動作を繋ぐために補間モーションのモーションデータを作成する処理であり、公知のモーション補間の処理を適用することができる。本実施形態では、キャラクタの躯体を構成するパーツオブジェクトと同様にキャラクモデルに一緒に構造化されている仮想カメラについても補間モーションのモーションデータを作成する。補間に当たっては補間する前後のモデルの関節構造が同一であればよい。換言すれば、仮想カメラをも関節構造として含むため、補間処理によって仮想カメラのモーション(カメラワーク)についても補間モーションが生成されるのである。生成された補間モーションのモーションデータは適宜記憶部500に格納される。
一方、適用中のモーションが無い場合、及び適用中のモーションが有っても先のステップで選択されたモーションと同種類であれば(ステップS14のNO)、モーション補間処理は行わない。すなわち、先に選択したモーションをそのまま始めから適用する、或いは現在適用中のモーションを継続して適用することになる。
Next, the processing unit 200 refers to the motion management data 528 of the target character and determines whether there is a motion currently being applied. Then, when there is a motion being applied and the type is different from the type of motion selected in the previous step S10 (YES in step S12), a motion interpolation process is executed (step S14).
The motion interpolation process is a process for creating motion data of an interpolated motion in order to smoothly connect the motion in the middle of the applied motion to the next applied motion in a predetermined frame. Can be applied. In this embodiment, motion data of interpolation motion is created for a virtual camera structured together with a character model as well as part objects constituting a character's body. In the interpolation, the joint structures of the models before and after the interpolation need only be the same. In other words, since the virtual camera is also included as the joint structure, an interpolation motion is also generated for the motion (camera work) of the virtual camera by the interpolation process. The generated motion data of the interpolated motion is stored in the storage unit 500 as appropriate.
On the other hand, if there is no motion being applied, and there is a motion being applied, if it is the same type as the motion selected in the previous step (NO in step S14), the motion interpolation process is not performed. That is, the previously selected motion is applied as it is from the beginning, or the motion currently being applied is continuously applied.

各キャラクタに適用されるモーションが決定されたならば、処理部200はキャラクタ毎に適用されるモーションにしたがってそれぞれのモデルを動作制御するモデル動作制御処理を行う(ステップS16)。   If the motion applied to each character is determined, the processing unit 200 performs a model motion control process for controlling the motion of each model according to the motion applied to each character (step S16).

図16は、本実施形態におけるモデル動作制御処理の流れを説明するためのフローチャートである。同図に示すように、モデル動作制御処理において、処理部200は、先ずゲームコントローラ1230からの操作入力や所定思考ルーチンに応じて処理対象キャラクタのゲーム空間内におけるルート位置を変更して、ゲーム空間内を移動させる(ステップS40)。次いで、ステップS10で選択されたモーションのモーションデータ532又はステップS14で生成された補間モーションのモーションデータを参照して、処理対象キャラクタのスケルトンモデルMSの各部位の位置を変更することで、躯体20、主観カメラCM0、客観カメラCM1の位置及び姿勢を変更する(ステップS42)。   FIG. 16 is a flowchart for explaining the flow of the model motion control process in the present embodiment. As shown in the figure, in the model movement control process, the processing unit 200 first changes the root position in the game space of the character to be processed in accordance with an operation input from the game controller 1230 or a predetermined thinking routine, so that the game space The inside is moved (step S40). Next, referring to the motion data 532 of the motion selected in step S10 or the motion data of the interpolated motion generated in step S14, the position of each part of the skeleton model MS of the processing target character is changed to thereby change the body 20 Then, the positions and orientations of the subjective camera CM0 and the objective camera CM1 are changed (step S42).

次に、全ての仮想カメラについてそれぞれループBの処理を実行する(ステップS44〜S58)。ループBの処理では、変更後の位置において処理対象仮想カメラが他オブジェクトと接触或いは当該他オブジェクトに埋没するといった、他オブジェクトと干渉するか否かを判定する(ステップS46)。
干渉すると判定した場合(ステップS46のYES)、処理対象仮想カメラの位置を補正して再変更する(ステップS48)。具体的には、例えば図17に示すように、当該仮想カメラCMをゲーム空間画像生成の視点としたときに他オブジェクト30のポリゴン等が画面に写り込む可能性があるので、ステップS42で求めた変更後の位置を処理対象仮想カメラCMと干渉(当接)する他オブジェクト30のポリゴンを抽出し、抽出したポリゴンの法線方向へ所定距離Dだけ移動させて補正する。
Next, the process of loop B is executed for all virtual cameras (steps S44 to S58). In the process of Loop B, it is determined whether or not the processing target virtual camera interferes with another object such as contact with or embedded in the other object at the changed position (step S46).
If it is determined that interference occurs (YES in step S46), the position of the processing target virtual camera is corrected and changed again (step S48). Specifically, as shown in FIG. 17, for example, when the virtual camera CM is used as a game space image generation viewpoint, polygons of other objects 30 may appear on the screen. The polygon of the other object 30 that interferes (contacts) with the processing target virtual camera CM is extracted from the changed position, and is corrected by moving it by a predetermined distance D in the normal direction of the extracted polygon.

次に処理部200は、再変更後の位置においても他オブジェクトと仮想カメラとが干渉するか否かを判定する(ステップS50)。そして、再変更後の位置においても再び干渉すると判断した場合(ステップS50のYES)、及び再変更後の位置では処理対象仮想カメラがルート22を同じくするキャラクタの躯体20に基準値を超えて接近し、正しく撮影が出来ないと判断される場合には(ステップS52のYES)、処理部200は処理対象キャラクタの周囲に予め定められた空き空間条件を満たす空き空間を探索する(ステップS54)。   Next, the processing unit 200 determines whether or not the other object and the virtual camera interfere with each other even at the position after the re-change (step S50). If it is determined that interference occurs again even at the position after the rechange (YES in step S50), and the position after the rechange, the processing target virtual camera approaches the character's chassis 20 that has the same route 22 beyond the reference value. If it is determined that photographing cannot be performed correctly (YES in step S52), the processing unit 200 searches for an empty space that satisfies a predetermined empty space around the character to be processed (step S54).

具体的には、例えば図18に示すように、処理対象仮想カメラCMとルート22を同じくするキャラクタの躯体20の中心位置から全方位に亘って所定角度毎で外向きの所定サイズのベクトル32を設定し、このベクトル32が他オブジェクト30と衝突するか否かを判定する処理を繰り返して全方位における空き空間のマップを求める。そして、空き空間のマップに基づき、処理対象仮想カメラCMの撮影画角分の連続空き空間34を、再変更後の仮想カメラCMの位置を中心として螺旋状に探索する。もちろん、空間探索の方向は、螺旋状に限らず上方向やランダムな方向とするなど適宜設定可能である。また、連続空き空間34の大きさは、同図のような錘状としても良いし、処理対象仮想カメラCMと躯体中心までの距離を奥行き長さとし、処理対処仮想カメラCMの撮影画角相当の形状の角錐とするなど適宜設定することができる。   Specifically, for example, as shown in FIG. 18, a vector 32 having a predetermined size outward at every predetermined angle from the center position of the character's enclosure 20 that shares the route 22 with the processing target virtual camera CM in all directions. The process of determining whether or not this vector 32 collides with another object 30 is repeated to obtain a map of empty space in all directions. Then, based on the map of the free space, the continuous free space 34 corresponding to the shooting angle of view of the processing target virtual camera CM is searched spirally around the position of the virtual camera CM after the re-change. Of course, the direction of space search is not limited to a spiral, and can be set as appropriate, such as upward or random. Further, the size of the continuous free space 34 may be a spindle shape as shown in the figure, or the distance from the processing target virtual camera CM to the center of the casing is the depth length, which corresponds to the shooting field angle of the processing virtual camera CM. It can be appropriately set such as a pyramid shape.

そして、探索した連続空き空間34の中に処理対象仮想カメラCMの位置を再々変更するとともに、その撮影方向を躯体20に向けるように変更して(ステップS56)、ループBを終了する(ステップS58)。全ての仮想カメラについてループBの処理を実行したならばモデル動作制御処理を終了して、図15のフローに戻る。   Then, the position of the processing target virtual camera CM is changed again in the searched continuous free space 34, and the shooting direction is changed to be directed to the housing 20 (step S56), and the loop B is ended (step S58). ). If the process of loop B is executed for all the virtual cameras, the model operation control process is terminated, and the flow returns to the flow of FIG.

全てのキャラクタについてループAの処理を実行したならば、処理部200の仮想カメラ選択部222が、各プレーヤキャラクタについて現在実行中のモーションデータ532の使用カメラ設定532gを参照して、仮想カメラをそれぞれ選択する(ステップS20)。   If the processing of loop A is executed for all characters, the virtual camera selection unit 222 of the processing unit 200 refers to the used camera setting 532g of the motion data 532 currently being executed for each player character, and sets each virtual camera. Select (step S20).

具体的には、本実施形態の歩行モーションや、やられモーションのように、使用カメラ設定532gに複数の設定が成されている場合には、各設定に対応づけられたカメラモーションの選択条件に現在のキャラクタの状況を含むゲームの現在の進行状況が合致する方の設定を参照して仮想カメラを選択する。例えば、やられモーションでは、SP攻撃を被るといったキャラクタのより不利な状況条件に合致する場合、被SP攻撃状態に適用される使用カメラ設定(図10の被SP攻撃532j)において現在実行中のフレームに設定されている仮想カメラを選択する。   Specifically, when there are a plurality of settings in the camera setting 532g used, such as the walking motion or the beat motion of the present embodiment, the camera motion selection condition associated with each setting is currently The virtual camera is selected with reference to the setting that matches the current progress of the game including the status of the character. For example, in the beat motion, when a more disadvantageous situation condition of the character, such as an SP attack, is met, the currently used frame is set in the used camera setting (SP attack 532j in FIG. 10) applied to the SP attack state. Select a configured virtual camera.

そして、選択した仮想カメラを視点としてゲーム空間画像を生成し、生成したゲーム空間画像にダメージ数や残段数、レーダ画像などの各種情報表示を合成してゲーム画面を生成して画像を表示させる(ステップS22、図2参照)。   Then, a game space image is generated from the selected virtual camera as a viewpoint, and various information displays such as the number of damages, the number of remaining stages, and a radar image are combined with the generated game space image to generate a game screen and display the image ( Step S22, see FIG.

次に、処理部200はゲーム結果の判定処理を実行する。具体的には、各キャラクタのダメージ数の算出とヒットポイントの減算処理、残段数の算出処理などを実行する。そして、判定したゲーム結果がゲーム終了条件を満たしていなければ(ステップS24のNO)、ステップS8に移行する。一方、判定したゲーム結果が所定のゲーム終了条件を満たしていれば(ステップS24のYES)、ゲーム終了処理を実行して一連の処理を終了する。例えば、本実施形態では全ての敵キャラクタのヒットポイントが「0」の場合には、ゲームクリアと判定してゲームクリア用のエンディングを表示するなどしてゲームを終了する。反対に1プレーヤキャラクタPC1と2プレーヤキャラクタPC2の両方のヒットポイントが「0」になった場合にはゲームオーバーと判定してゲームオーバー用のエンディングを表示するなどしてゲームを終了する。   Next, the processing unit 200 executes a game result determination process. Specifically, the calculation of the damage number of each character, the hit point subtraction process, the remaining stage number calculation process, and the like are executed. If the determined game result does not satisfy the game end condition (NO in step S24), the process proceeds to step S8. On the other hand, if the determined game result satisfies a predetermined game end condition (YES in step S24), a game end process is executed and a series of processes is ended. For example, in this embodiment, when the hit points of all enemy characters are “0”, it is determined that the game is cleared and the game is ended by displaying an ending for clearing the game. On the contrary, when the hit points of both the 1-player character PC1 and the 2-player character PC2 become “0”, it is determined that the game is over and the game is ended by displaying an ending for the game over.

〔変形例〕
以上、本発明の実施形態について説明したが、本発明の適用形態がこれに限定されるものではなく、発明の主旨を逸脱しない限りにおいて適宜変更を加えることができる。
[Modification]
The embodiment of the present invention has been described above, but the application form of the present invention is not limited to this, and appropriate modifications can be made without departing from the spirit of the invention.

例えば、家庭用ゲーム装置でビデオゲームを実行する構成を例に挙げたが、業務用のゲーム装置やパソコン、携帯型ゲーム装置などでゲームを実行することもできるのは勿論である。   For example, although a video game is executed on a home game device as an example, it is needless to say that a game can be executed on an arcade game device, a personal computer, a portable game device, or the like.

また、上記実施形態ではキャラクタのモデルを関節構造のあるものとしたが、関節構造の無いモデルとしても良く、更には仮想カメラをルートの次の階層に構造化する構成としたが、キャラクタの躯体の一部(例えば、腰部)から枝分かれして階層構造を成すとしても良い。階層構造に含める仮想カメラの台数も適宜設定可能であるし、全てのキャラクタモデルにおいて異なる数の仮想カメラを設定することもできる。   In the above embodiment, the character model has a joint structure. However, the character model may have no joint structure, and the virtual camera is structured in the next layer of the route. It is also possible to form a hierarchical structure by branching from a part of (for example, the waist). The number of virtual cameras included in the hierarchical structure can be set as appropriate, and a different number of virtual cameras can be set in all character models.

また、ゲームのプレイ形態は対戦プレイに限らず、プレーヤが一人でゲームを楽しむ1人プレイ、ネットワークを介した複数プレーヤによる協力プレイであっても良い。   Further, the play mode of the game is not limited to the battle play, but may be a one-player play where a player enjoys the game alone or a cooperative play by a plurality of players via a network.

また、使用カメラ設定532gに複数の異なる設定を用意し、カメラモーションの選択条件に応じて選択可能な構成としているが選択条件の内容は適宜設定可能である。
例えば図19に示すように、SP攻撃モーションにおける使用カメラ設定532gを、プレイ形態を条件に一人プレイ532kと対戦プレイ532mとに条件分けすることもできる。この例では、対戦プレイ532mに適用される使用カメラの設定は、89フレームまでは攻撃をする側の主観カメラを視点とし、90フレーム以降を攻撃先のキャラクタ(=被攻撃側のキャラクタ)のプレーヤキャラクタの客観カメラを視点に設定している。したがって、対戦プレイ時にSP攻撃を発動させた側のプレーヤのゲーム画面には、モーション開始直後は相手を見据える主観映像が映され、次いでカメラが切り換わって攻撃先(攻撃を受ける側)の客観カメラで攻撃を受けたキャラクタが切りつけられ、斬られて崩れ落ちる様が映し出されるため、攻撃を行った側に対して、優越感を感じさせるカメラワークを実現できる。反対に、上記実施形態で説明したやられモーションを適用することで、被攻撃側のプレーヤのゲーム画面には、モーション開始直後は派手なアクションで襲いくる攻撃側キャラクタの様子を映し、次いでカメラが切り換わって攻撃側のキャラクタを客観視する格好よい映像を攻撃を受ける側のプレーヤに見せつけ、屈辱感を感じさせるカメラワークを実現できる。
また、使用カメラ設定532gの条件分けと、攻撃側キャラクタ/被攻撃側キャラクタとの双方で設定されている仮想カメラを上手く利用することで、少ないキャラクタモデルとモーションデータで、より複雑で自由度の高い演出を実現する事が可能になる。
In addition, a plurality of different settings are prepared for the use camera setting 532g and can be selected according to the selection condition of the camera motion, but the contents of the selection condition can be set as appropriate.
For example, as shown in FIG. 19, the use camera setting 532g in the SP attack motion can be divided into a single play 532k and a battle play 532m on the condition of the play form. In this example, the setting of the camera to be used applied to the battle play 532m is that the player who is the attacking character (= the attacked character) from the 90th frame onward is the viewpoint of the subjective camera of the attacking side up to 89 frames. The objective camera of the character is set as the viewpoint. Therefore, on the game screen of the player who activated the SP attack during the match play, a subjective video looking at the opponent is displayed immediately after the start of the motion, and then the camera is switched, and the objective camera of the attack destination (attacked side) Since the character that was attacked in is cut, and it appears that it is cut and collapsed, it is possible to realize a camera work that makes the attacking side feel superior. On the other hand, by applying the broken motion described in the above embodiment, the attacking player's game screen is displayed on the game screen of the attacked player immediately after the motion starts, and then the camera cuts off. In other words, it is possible to realize a camera work that makes the player on the side of the attack see a cool video that objectively views the character on the attack side and feels humiliation.
In addition, by using the virtual camera that is set for both the use camera setting 532g and the attacking character / attacked character, it is possible to use more complex and flexible with fewer character models and motion data. It is possible to achieve high performance.

同様に、本発明をサッカーゲームに適用する場合、キャラクタがボールをキープしている状況(ドリブルしたりリフティングでボールをコントロールできる状態の意。)と言ったようにゲームの現在の進行状況を選択条件とすることができる。そして、使用カメラ設定532gに、ボールをキープしていない場合に選択されて主観カメラを選択する第1の設定と、ボールをキープしている場合に選択されて客観カメラを選択する第2の設定とを用意する。そうすると、キャラクタがボールをキープすると、自動的にゲーム画面が主観視映像から客観視映像に切り換わるといった映像演出を簡単に実現できる。
本発明をRPG(ロールプレイングゲーム)に適用する場合であれば、キャラクタと攻撃目標との相対距離や伸長(体長)比などをカメラモーション選択条件とし、大きな攻撃目標に基準値以上接近した場合に自動的に主観カメラから客観カメラに切り換えられるように使用カメラ設定532gを条件分けして設定すると好適である。
Similarly, when the present invention is applied to a soccer game, the current progress of the game is selected as described in the situation where the character keeps the ball (the state where the player can control the ball by dribbling or lifting). It can be a condition. The use camera setting 532g is a first setting that is selected when the ball is not kept and the subjective camera is selected, and a second setting that is selected when the ball is kept and the objective camera is selected. And prepare. Then, when the character keeps the ball, it is possible to easily realize a video effect such that the game screen automatically switches from the subjective video to the objective video.
If the present invention is applied to RPG (Role Playing Game), the relative distance between character and attack target, the stretch (body length) ratio, etc. are used as camera motion selection conditions, and when a large attack target is approached by more than a reference value. It is preferable that the use camera setting 532g is set by condition so that the subjective camera can be automatically switched to the objective camera.

更には、使用カメラ設定の選択条件はゲームの進行状況を条件とするに限らず、ゲームモード(例えば、1人プレイ、2人プレイ、オンライン対戦など)やゲームのレベル(例えば、EASY,HARDなど)を条件とすることもできる。   Furthermore, the selection conditions for the camera settings to be used are not limited to the progress of the game, but the game mode (for example, one-player, two-player, online battle, etc.) and the game level (for example, EASY, HARD, etc.) ).

家庭用ゲーム装置の構成例を示すシステム構成図。The system block diagram which shows the structural example of a household game device. ゲーム画面例を示す図。The figure which shows the example of a game screen. プレーヤキャラクタの階層構造化について説明する概念図。The conceptual diagram explaining the hierarchical structure of a player character. プレーヤキャラクタの階層構造化について説明する概念図。The conceptual diagram explaining the hierarchical structure of a player character. 歩行モーションの設定例を説明するための概念図。The conceptual diagram for demonstrating the example of a setting of a walk motion. 歩行モーションのモーションデータの例を示すデータ構成図。The data block diagram which shows the example of the motion data of a walk motion. スペシャル攻撃(SP攻撃)モーションの設定例を説明するための概念図。The conceptual diagram for demonstrating the example of a setting of a special attack (SP attack) motion. スペシャル攻撃モーションのモーションデータの例を示すデータ構成図。The data block diagram which shows the example of the motion data of a special attack motion. やられモーションの設定例を説明するための概念図。The conceptual diagram for demonstrating the example of a setting of a fired motion. やられモーションのモーションデータの例を示すデータ構成図。The data block diagram which shows the example of the motion data of a done motion. SP攻撃を受けた場合のやられモーションにおける使用カメラ設定の例を説明するための概念図。The conceptual diagram for demonstrating the example of the use camera setting in the beaten motion at the time of receiving SP attack. 機能ブロック図。Functional block diagram. キャラクタステータスデータの例を示すデータ構成図。The data block diagram which shows the example of character status data. モーション管理データの例を示すデータ構成図。The data block diagram which shows the example of motion management data. 主たる処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the main processes. モデル動作制御処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a model operation | movement control process. 仮想カメラの位置補正の原理を説明するための概念図。The conceptual diagram for demonstrating the principle of position correction of a virtual camera. 仮想カメラの位置補正の原理を説明するための概念図。The conceptual diagram for demonstrating the principle of position correction of a virtual camera. 対戦プレイに適用できるSP攻撃モーションのモーションデータの例を示すデータ構成図。The data block diagram which shows the example of the motion data of SP attack motion applicable to a battle play.

符号の説明Explanation of symbols

20 躯体
22 ルート
200 処理部
210 ゲーム演算部
214 モーション選択部
216 モーション補間部
218 モデル動作制御部
220 カメラ位置補正部
PC1 1プレーヤキャラクタ
PC2 2プレーヤキャラクタ
EC 敵キャラクタ
CM0 主観カメラ
CM1 客観カメラ
20 frame 22 route 200 processing unit 210 game calculation unit 214 motion selection unit 216 motion interpolation unit 218 model motion control unit 220 camera position correction unit PC1 1 player character PC2 2 player character EC enemy character CM0 subjective camera CM1 objective camera

Claims (14)

コンピュータに、仮想3次元空間の画像を生成させて所定のゲームを実行させるためのプログラムであって、
関節構造を有するモデルに仮想カメラを骨格の一部として組み込み、当該仮想カメラに対応する関節構造を有するモデルとして形成するモデル形成手段、
前記モデル形成手段により形成されたモデルを前記仮想3次元空間に配置するモデル配置手段、
前記モデル配置手段により配置されたモデルを前記複数の仮想カメラと一体に動作制御するモデル動作制御手段、
前記仮想カメラから見た前記仮想3次元空間の画像を生成する画像生成手段、
としてコンピュータを機能させるためのプログラム。
A program for causing a computer to generate a virtual three-dimensional space image and execute a predetermined game,
Model forming means for incorporating a virtual camera as a part of a skeleton into a model having a joint structure, and forming as a model having a joint structure corresponding to the virtual camera;
Model placement means for placing the model formed by the model formation means in the virtual three-dimensional space;
Model motion control means for controlling motion of the model placed by the model placement means integrally with the plurality of virtual cameras;
Image generating means for generating an image of the virtual three-dimensional space viewed from the virtual camera;
As a program to make the computer function.
前記モデル形成手段が、複数の仮想カメラを前記モデルの骨格の一部として組み込み、各仮想カメラそれぞれに対応する関節構造を有するモデルとして形成するように前記コンピュータを機能させ、
前記仮想3次元空間を撮影する仮想カメラを、前記配置されたモデルの骨格の一部として成る複数の仮想カメラの中から選択する仮想カメラ選択手段として前記コンピュータを機能させ、
前記画像生成手段が、前記選択された仮想カメラから見た前記仮想3次元空間の画像を生成するように前記コンピュータを機能させる、
ための請求項1に記載のプログラム。
The model forming means incorporates a plurality of virtual cameras as part of the skeleton of the model, and causes the computer to function as a model having a joint structure corresponding to each virtual camera;
Causing the computer to function as virtual camera selection means for selecting a virtual camera that captures the virtual three-dimensional space from a plurality of virtual cameras that are part of the skeleton of the arranged model;
The image generation means causes the computer to function to generate an image of the virtual three-dimensional space viewed from the selected virtual camera;
A program according to claim 1 for.
前記ゲームの現在の進行状況が、特定の仮想カメラに切り換える状況にあることを検出するためのカメラ切換状況条件を満足したことを検出する切換状況検出手段として前記コンピュータを機能させ、
前記仮想カメラ選択手段が、前記切換状況検出手段の検出に応じて前記特定の仮想カメラを選択するように前記コンピュータを機能させる、
ための請求項2に記載のプログラム。
Causing the computer to function as a switching status detecting means for detecting that the current progress status of the game is in a status of switching to a specific virtual camera and that satisfies a camera switching status condition;
The virtual camera selection means causes the computer to function to select the specific virtual camera in response to detection by the switching status detection means;
A program according to claim 2 for.
前記複数の仮想カメラそれぞれに対応する関節構造を含む前記モデルの各関節構造の動きが規定されたモーションデータが予め複数種類用意されており、
前記モデル動作制御手段が、所定のコントローラに入力されたプレーヤによる前記モデルの動作指示入力に従って前記モデルに適用するモーションデータを前記複数種類のモーションデータの中から選択するモーションデータ選択手段を有し、前記選択されたモーションデータに従って前記モデルの動作を制御するように前記コンピュータを機能させるための請求項2又は3に記載のプログラム。
A plurality of types of motion data in which movement of each joint structure of the model including joint structures corresponding to each of the plurality of virtual cameras is defined are prepared in advance.
The model motion control means has motion data selection means for selecting motion data to be applied to the model from the plurality of types of motion data in accordance with the model operation instruction input by the player input to a predetermined controller, The program according to claim 2 or 3, for causing the computer to function to control the operation of the model in accordance with the selected motion data.
前記モデル動作制御手段が、
前記コントローラに前記モデルの動作指示入力が為された際に、前記モデルに適用中のモーションデータが有るか否かを判定する適用中モーション有無判定手段と、
前記適用中モーション有無判定手段により有りと判定された場合に、当該適用中のモーションデータと、前記モーションデータ選択手段により適用しようとするモーションデータとして選択されたモーションデータとから、両者のモーションデータによる前記複数の仮想カメラそれぞれを含む前記モデルの動きを補間して前記モデルの動作を制御するモーション補間制御手段と、
を有するように前記コンピュータを機能させるための請求項4に記載のプログラム。
The model motion control means is
An applied motion presence / absence determining means for determining whether or not there is motion data being applied to the model when an operation instruction input of the model is made to the controller;
When it is determined by the applying motion presence / absence determination means that the motion data being applied and the motion data selected as the motion data to be applied by the motion data selection means, Motion interpolation control means for controlling the operation of the model by interpolating the movement of the model including each of the plurality of virtual cameras;
The program according to claim 4 for causing the computer to function.
前記選択されたモーションデータに従って前記モデル動作制御手段により前記モデルの一部として動作制御される前記仮想カメラと、前記仮想3次元空間に配置された他のオブジェクトとの干渉を判定する干渉判定手段、
前記干渉判定手段により干渉すると判定された場合に、干渉を回避する当該仮想カメラの位置を探索演算する非干渉位置探索演算手段、
前記干渉判定手段により干渉すると判定された場合に、当該仮想カメラの前記モーションデータに基づく位置を、前記非干渉位置探索演算手段により探索された位置に補正するカメラ位置補正手段、
として前記コンピュータを機能させるための請求項4又は5に記載のプログラム。
Interference determination means for determining interference between the virtual camera, the movement of which is controlled as part of the model by the model movement control means according to the selected motion data, and another object arranged in the virtual three-dimensional space;
A non-interference position search calculation means for searching and calculating the position of the virtual camera that avoids interference when it is determined by the interference determination means to interfere,
A camera position correcting unit that corrects the position based on the motion data of the virtual camera to the position searched by the non-interference position search calculating unit when it is determined that the interference is determined by the interference determining unit;
The program according to claim 4 or 5 for causing the computer to function.
前記非干渉位置探索演算手段が、前記仮想カメラの周囲所定範囲から、空き空間の条件として予め定められた空き空間条件を満たす位置を探索演算するように前記コンピュータを機能させるための請求項6に記載のプログラム。   7. The computer according to claim 6, wherein the non-interference position search calculation means causes the computer to search and calculate a position that satisfies a predetermined empty space condition as a free space condition from a predetermined range around the virtual camera. The program described. 前記複数の仮想カメラには、少なくとも前記モデルの一人称視点に相当する主観カメラと、前記モデルを三人称視点で撮影する客観カメラとの少なくとも2台が含まれており、
前記モデル動作制御手段が、前記モデルを構成する部位のうち、前記モデルの一人称視点用の部位として予め定められた一人称視点用部位の内部又は近傍位置に前記主観カメラの位置を設定して、前記モデルを動作制御し、
前記画像生成手段が、前記仮想カメラ選択手段により前記主観カメラが選択されている場合に、前記一人称視点用部位を非表示として前記主観カメラから見た前記仮想3次元空間の画像を生成する、
ように前記コンピュータを機能させるための請求項2〜7の何れか一項に記載のプログラム。
The plurality of virtual cameras include at least two of a subjective camera corresponding to at least a first person view of the model and an objective camera for photographing the model from a third person viewpoint,
The model motion control means sets the position of the subjective camera in or near a first-person viewpoint part predetermined as a first-person viewpoint part of the model among the parts constituting the model, Control the model,
The image generation means generates an image of the virtual three-dimensional space viewed from the subjective camera with the first-person viewpoint portion being hidden when the subjective camera is selected by the virtual camera selection means;
The program as described in any one of Claims 2-7 for making the said computer function like this.
前記複数の仮想カメラには、少なくとも前記モデルの一人称視点に相当する主観カメラと、前記モデルを三人称視点で撮影する客観カメラとの少なくとも2台が含まれており、
ゲーム進行状況が、前記モデルに有利又は不利な状況の条件として予め定められた状況条件に合致したことを検出する状況条件合致検出手段として前記コンピュータを機能させ、
前記仮想カメラ選択手段が、前記状況条件合致検出手段の検出に応じて、前記客観カメラを選択する状況条件合致時カメラ選択手段を有するように前記コンピュータを機能させるための請求項2〜8の何れか一項に記載のプログラム。
The plurality of virtual cameras include at least two of a subjective camera corresponding to at least a first person view of the model and an objective camera for photographing the model from a third person viewpoint,
Causing the computer to function as a situation condition coincidence detecting means for detecting that the game progress situation matches a situation condition predetermined as a condition of an advantageous or unfavorable situation for the model;
9. The computer according to claim 2, wherein the virtual camera selecting unit causes the computer to function so as to have a situation condition matching camera selection unit that selects the objective camera in response to detection by the situation condition matching detection unit. A program according to any one of the above.
前記ゲームは前記モデルが攻撃をする又は攻撃を受けることによって進行が制御されるゲームであり、
前記複数の仮想カメラには、少なくとも前記モデルの一人称視点に相当する主観カメラと、前記モデルの攻撃時に前記モデルを三人称視点で撮影する攻撃時客観カメラと、前記モデルが攻撃を受けた際に前記モデルを三人称視点で撮影する被攻撃時客観カメラとの少なくとも3台が含まれており、
前記モデルが攻撃をすることを検出する攻撃検出手段、
前記モデルが攻撃を受けることを検出する被攻撃検出手段、
前記仮想カメラ選択手段が、前記攻撃検出手段の検出に応じて前記攻撃時客観カメラを選択し、前記被攻撃検出手段の検出に応じて前記被攻撃時客観カメラを選択するように前記コンピュータを機能させるための請求項2〜8の何れか一項に記載のプログラム。
The game is a game whose progress is controlled by the model attacking or receiving an attack,
The plurality of virtual cameras include at least a subjective camera corresponding to a first-person view of the model, an objective camera at the time of shooting the model from a third-person view when the model is attacked, and the model when the model is attacked. It includes at least three cameras with an objective camera at the time of attack that shoots the model from the third person viewpoint,
Attack detection means for detecting that the model attacks,
Attack detection means for detecting that the model is under attack,
The virtual camera selection unit selects the objective camera at the time of attack in response to detection by the attack detection unit, and functions the computer to select the objective camera at the time of attack in response to detection by the attacked detection unit. The program as described in any one of Claims 2-8 for making it do.
前記ゲームは第1プレーヤの操作入力に従って制御される第1モデルと、第2プレーヤの操作入力に従った制御又はコンピュータ制御される第2モデルとが互いに攻撃して対戦するゲームであり、
前記モデル形成手段が、前記第1モデル及び前記第2モデルそれぞれについて、当該モデルの一人称視点に相当する主観カメラと、当該モデルが攻撃を受けた際に当該モデルを三人称視点で撮影する被攻撃時客観カメラとの少なくとも2台を骨格の一部として組み込んでモデルを形成するように前記コンピュータを機能させ、
前記第1モデルによる前記第2モデルへの攻撃を検出する第1モデル攻撃検出手段として前記コンピュータを機能させ、
前記仮想カメラ選択手段が、前記第1モデル攻撃検出手段による検出に応じて前記第2モデルの被攻撃時客観カメラを選択するように前記コンピュータを機能させる、
ための請求項2〜10の何れか一項に記載のプログラム。
The game is a game in which a first model controlled according to the operation input of the first player and a second model controlled according to the operation input of the second player or computer-controlled attack each other and battle each other.
For each of the first model and the second model, the model forming unit captures a subjective camera corresponding to the first person viewpoint of the model and a third person viewpoint when the model is attacked. Make the computer function to form a model by incorporating at least two objective cameras as part of the skeleton,
Causing the computer to function as first model attack detection means for detecting an attack on the second model by the first model;
The virtual camera selection means causes the computer to function so as to select the second model attacked objective camera in response to detection by the first model attack detection means;
The program as described in any one of Claims 2-10 for.
前記ゲームは第1プレーヤの操作入力に従って制御される第1モデルと、第2プレーヤの操作入力に従った制御又はコンピュータ制御される第2モデルとが互いに攻撃して対戦するゲームであり、
前記モデル形成手段が、前記第1モデル及び前記第2モデルそれぞれについて、当該モデルの一人称視点に相当する主観カメラと、当該モデルの攻撃時に当該モデルを三人称視点で撮影する攻撃時客観カメラとの少なくとも2台を骨格の一部として組み込んでモデルを形成するように前記コンピュータを機能させ、
前記第2モデルによる前記第1モデルへの攻撃を検出する第2モデル攻撃検出手段として前記コンピュータを機能させ、
前記仮想カメラ選択手段が、前記第2モデル攻撃検出手段による検出に応じて前記第2モデルの攻撃時客観カメラを選択するように前記コンピュータを機能させる、
ための請求項2〜11の何れか一項に記載のプログラム。
The game is a game in which a first model controlled according to the operation input of the first player and a second model controlled according to the operation input of the second player or computer-controlled attack each other and battle each other.
For each of the first model and the second model, the model forming means includes at least a subjective camera corresponding to a first-person view of the model and an objective camera at the time of shooting the model from a third-person view when the model is attacked. Make the computer work to form a model incorporating two as part of the skeleton,
Causing the computer to function as second model attack detection means for detecting an attack on the first model by the second model;
The virtual camera selection means causes the computer to function to select an objective camera at the time of attack of the second model in response to detection by the second model attack detection means;
The program as described in any one of Claims 2-11 for.
請求項1〜12の何れか一項に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。   The computer-readable information storage medium which memorize | stored the program as described in any one of Claims 1-12. 仮想3次元空間の画像を生成して所定のゲームを実行するゲーム装置であって、
関節構造を有するモデルに仮想カメラを骨格の一部として組み込み、当該仮想カメラに対応する関節構造を有するモデルとして形成するモデル形成手段と、
前記モデル形成手段により形成されたモデルを前記仮想3次元空間に配置するモデル配置手段と、
前記モデル配置手段により配置されたモデルを前記複数の仮想カメラと一体に動作制御するモデル動作制御手段と、
前記仮想カメラから見た前記仮想3次元空間の画像を生成する画像生成手段と、
を備えたゲーム装置。
A game device that generates an image of a virtual three-dimensional space and executes a predetermined game,
Model forming means for incorporating a virtual camera as a part of a skeleton into a model having a joint structure, and forming as a model having a joint structure corresponding to the virtual camera;
Model placement means for placing the model formed by the model formation means in the virtual three-dimensional space;
Model motion control means for controlling motion of the model placed by the model placement means integrally with the plurality of virtual cameras;
Image generating means for generating an image of the virtual three-dimensional space viewed from the virtual camera;
A game device comprising:
JP2007193901A 2007-07-25 2007-07-25 Program, information storage medium and game machine Pending JP2009028188A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007193901A JP2009028188A (en) 2007-07-25 2007-07-25 Program, information storage medium and game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007193901A JP2009028188A (en) 2007-07-25 2007-07-25 Program, information storage medium and game machine

Publications (1)

Publication Number Publication Date
JP2009028188A true JP2009028188A (en) 2009-02-12

Family

ID=40399401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007193901A Pending JP2009028188A (en) 2007-07-25 2007-07-25 Program, information storage medium and game machine

Country Status (1)

Country Link
JP (1) JP2009028188A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011258149A (en) * 2010-06-11 2011-12-22 Namco Bandai Games Inc Program, information storage medium and image-generating system
JP2012034964A (en) * 2010-08-10 2012-02-23 Sega Corp Video game apparatus, video game control method, control program, and recording medium
JP2012174089A (en) * 2011-02-23 2012-09-10 Copcom Co Ltd Program, and image processor with computer for executing program
CN114917585A (en) * 2022-06-24 2022-08-19 四川省商投信息技术有限责任公司 Sound effect generation method and system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011258149A (en) * 2010-06-11 2011-12-22 Namco Bandai Games Inc Program, information storage medium and image-generating system
JP2012034964A (en) * 2010-08-10 2012-02-23 Sega Corp Video game apparatus, video game control method, control program, and recording medium
JP2012174089A (en) * 2011-02-23 2012-09-10 Copcom Co Ltd Program, and image processor with computer for executing program
CN114917585A (en) * 2022-06-24 2022-08-19 四川省商投信息技术有限责任公司 Sound effect generation method and system

Similar Documents

Publication Publication Date Title
US8556695B2 (en) Information storage medium, image generation device, and image generation method
JP5411473B2 (en) Program and game device
JP3934074B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP5042651B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
US7775882B2 (en) Game apparatus for changing a visual point position of a virtual camera in conjunction with an attack by and enemy character
EP1595584B1 (en) Image processing program, game information processing program and game information processing apparatus
CN109568944B (en) Game processing method, game processing device, game processing system, and recording medium
US9345972B2 (en) Information storage medium, image generation system, and image generation method
JP2010068872A (en) Program, information storage medium and game device
JP4797439B2 (en) GAME DEVICE AND PROGRAM
JP2008272123A (en) Program, information memory medium and game apparatus
JP2003067779A (en) Image generation system, program and information storage medium
JP4136910B2 (en) Program, information storage medium, game device, and server device
JP5775323B2 (en) Program and image processing apparatus provided with computer for executing the program
JP2008186324A (en) Program, information storage medium, and game device
JP2012101025A (en) Program, information storage medium, game device, and server system
JP2009028188A (en) Program, information storage medium and game machine
JPH08182860A (en) Three-dimensional game device and picture composition
JP6042495B2 (en) Program and image processing apparatus provided with computer for executing the program
JP2005334128A (en) Program, information storage medium and game device
JP4349932B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2000107438A (en) Game device, method, and information-recording medium
JPH08229240A (en) Three-dimensional game machine
JP2014157608A (en) Program and game device for executing the program