JP2010233671A - Program, information storage medium and game device - Google Patents

Program, information storage medium and game device Download PDF

Info

Publication number
JP2010233671A
JP2010233671A JP2009082954A JP2009082954A JP2010233671A JP 2010233671 A JP2010233671 A JP 2010233671A JP 2009082954 A JP2009082954 A JP 2009082954A JP 2009082954 A JP2009082954 A JP 2009082954A JP 2010233671 A JP2010233671 A JP 2010233671A
Authority
JP
Japan
Prior art keywords
player
game
character
image
character model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009082954A
Other languages
Japanese (ja)
Inventor
Akira Kimura
亮 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2009082954A priority Critical patent/JP2010233671A/en
Publication of JP2010233671A publication Critical patent/JP2010233671A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game in which a player easily feels the sense of affinity with a player character. <P>SOLUTION: The whole body image of a player 2 during game play is photographed at all times in an image sensor module 1227, a human body silhouette 30 is extracted from a player image, and the coordinates of a head feature point 40 equivalent to the head position of the player 2, a left feature point 42 equivalent to a right hand position and a right feature point 44 equivalent to a left hand position are acquired from there. When the left feature point 42 and the right feature point 44 are present within a determination area 50, the player character 6 is automatically controlled so that a gun 8 is turned to the position indicated by a game controller 1230. When determining the state in which the player 2 exits from the determination area 50, extends hands and makes a certain pose, the posture parameter value of the arm joint of the player character 6 is calculated based on the position coordinates of the left feature point 42 and the right feature point 44, and operation control is performed so as to imitate the movement of the arm of the player 2. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、コンピュータに所定のキャラクタを表示制御させてゲームを進行制御させるためのプログラム等に関する。   The present invention relates to a program or the like for causing a computer to display and control a predetermined character to control the progress of a game.

現在、市販される多くのビデオゲームでは、プレーヤはレバーやボタンスイッチなどを操作することでプレーヤキャラクタを操作する。レバーやボタンスイッチが一纏めとなったゲームコントローラを付属する家庭用ゲーム装置であっても、業務用ゲーム装置であっても同様である。
その一方で、ゲームコントローラに備えられた加速度センサ等でプレーヤの動作を検知して、プレーヤキャラクタを制御する技術や(例えば、非特許文献1参照)、プレーヤの手を撮影してハンドジェスチャーを判定することによってゲーム操作の入力をする技術など(例えば、特許文献1参照)、レバーやボタンスイッチによらない操作形態が知られるところである。
Currently, in many commercially available video games, a player operates a player character by operating a lever, a button switch, or the like. This is the same whether the game device is a home game device that includes a game controller in which a lever or a button switch is integrated, or an arcade game device.
On the other hand, a technique for controlling the player character by detecting the motion of the player with an acceleration sensor or the like provided in the game controller (see Non-Patent Document 1, for example), and determining a hand gesture by photographing the player's hand A technique for inputting a game operation by doing so is known (for example, see Patent Document 1).

特開2001−246161号公報JP 2001-246161 A

任天堂社製ゲーム装置「Wii」向けソフト「Wiiスポーツ」解説書、2006年Software for the Nintendo game device “Wii” “Wii Sports” manual, 2006

さて、ビデオゲームではプレーヤがプレーヤキャラクタにどれだけ親近感を抱けるかがゲームへの没入感を楽しむための重要な要素となっている。そのために、プレーヤキャラクタを親しみやすいデザインとしたり、あこがれるヒーロー像となるようなデザインとしたりといった工夫がなされる。   Now, in video games, how close the player is to the player character is an important factor for enjoying the sense of immersion in the game. For this reason, the player character is designed to be familiar, or designed to be a long-awaited hero image.

しかし、いくらプレーヤキャラクタのデザインに工夫を凝らしたとしても操作方法に変わりはなかった。すなわち、従来の技術では、加速度センサによるプレーヤの動作検知を利用したり、ハンドジェスチャーの検知を利用したとしても、レバーやボタンスイッチなどで操作すると同様に予め操作入力に対応づけて用意されたモーションに従ってプレーヤキャラクタが動作制御されるのには変わりがなかった。このため、プレーヤは、プレーヤキャラクタに抱く親近感にはある種の限界感を持っていた。   However, no matter how much the player character's design is devised, the operation method has not changed. That is, in the conventional technology, even if the motion detection of the player by the acceleration sensor is used or the detection of the hand gesture is used, the motion prepared in advance corresponding to the operation input is operated in the same manner as the operation with the lever or the button switch. According to the above, the player character was controlled in motion. For this reason, the player has a certain sense of limit to the familiarity of the player character.

本発明は、こうした事情を鑑みてなされたものであり、プレーヤがプレーヤキャラクタに抱く親近感をより得やすいゲームを実現することである。   The present invention has been made in view of such circumstances, and it is an object of the present invention to realize a game in which a player can more easily get a sense of familiarity with a player character.

以上の課題を解決するための第1の発明は、プレーヤを撮影するためのデジタル式の撮影装置(例えば、図1のイメージセンサモジュール1227)を備えたコンピュータ(例えば、図1の家庭用ゲーム装置1200)に、キャラクタモデルが配置されたゲーム空間の画像を生成させて所与のゲームを実行させるためのプログラムであって、
前記キャラクタモデルを移動制御するキャラクタ移動制御手段(例えば、図8の処理部200、ゲーム演算部210、プレーヤキャラクタ移動制御部214、図14のステップS18)、
仮想カメラを前記キャラクタモデルから所定距離離れた位置に配置し、前記キャラクタモデルの移動に従って移動制御する仮想カメラ制御手段(例えば、図8の処理部200、ゲーム演算部210、仮想カメラ制御部216、図14のステップS18)、
前記仮想カメラに基づき前記キャラクタモデルを含む前記ゲーム空間の画像を生成する画像生成手段(例えば、図8の処理部200、画像生成部260、図14のステップS14)、
前記撮影装置により撮影されたプレーヤ画像に基づいて前記キャラクタモデルの挙動を制御するモデル挙動制御手段(例えば、図8の処理部200、ゲーム演算部210、プレーヤキャラクタ挙動制御部224、図14のステップS24)、として前記コンピュータを機能させるためのプログラムである。
A first invention for solving the above problems is a computer (for example, the home game apparatus of FIG. 1) provided with a digital image capturing device (for example, the image sensor module 1227 of FIG. 1) for shooting the player. 1200) is a program for generating a game space image in which a character model is arranged and executing a given game,
Character movement control means for controlling the movement of the character model (for example, the processing unit 200 in FIG. 8, the game calculation unit 210, the player character movement control unit 214, step S18 in FIG. 14),
Virtual camera control means (for example, the processing unit 200, the game calculation unit 210, the virtual camera control unit 216, FIG. 8), which arranges the virtual camera at a position away from the character model by a predetermined distance and controls movement according to the movement of the character model. Step S18 in FIG.
Image generation means for generating an image of the game space including the character model based on the virtual camera (for example, the processing unit 200, the image generation unit 260 in FIG. 8, step S14 in FIG. 14),
Model behavior control means for controlling the behavior of the character model based on the player image photographed by the photographing device (for example, the processing unit 200 in FIG. 8, the game calculation unit 210, the player character behavior control unit 224, the steps in FIG. 14). A program for causing the computer to function as S24).

また、別形態として、プレーヤを撮影するためのデジタル式の撮影装置を備え、キャラクタモデルが配置されたゲーム空間の画像を生成して所定のゲームを実行するゲーム装置であって、前記キャラクタモデルを移動制御するキャラクタ移動制御手段と、仮想カメラを前記キャラクタモデルから所定距離離れた位置に配置し、前記キャラクタモデルの移動に従って移動制御する仮想カメラ制御手段と、前記仮想カメラに基づき前記キャラクタモデルを含む前記ゲーム空間の画像を生成する画像生成手段と、前記撮影装置により撮影されたプレーヤ画像に基づいて前記キャラクタモデルの挙動を制御するモデル挙動制御手段と、を備えたゲーム装置を構成することができる。   According to another aspect, there is provided a game device that includes a digital photographing device for photographing a player, generates an image of a game space in which a character model is arranged, and executes a predetermined game. Character movement control means for movement control, virtual camera control means for placing a virtual camera at a predetermined distance from the character model and controlling movement according to the movement of the character model, and the character model based on the virtual camera It is possible to configure a game apparatus including image generation means for generating an image of the game space and model behavior control means for controlling the behavior of the character model based on a player image photographed by the photographing apparatus. .

第1の発明によれば、ゲーム操作するプレーヤを撮影装置で撮影し、撮影したプレーヤ画像に基づいてゲームに登場するキャラクタモデルの挙動を制御することができる。従来のゲームコントローラからのレバーやボタン操作によるキャラクタ制御や、ゲームコントローラに内蔵された加速度センサによるプレーヤの動作検知を利用したキャラクタ制御、或いはハンドジェスチャーの検知を利用したキャラクタ制御に比べて、プレーヤが操作するキャラクタへ抱く親近感を高め、ゲームにおけるなりきり感を高めることができる。   According to the first aspect, the player who operates the game can be photographed by the photographing device, and the behavior of the character model appearing in the game can be controlled based on the photographed player image. Compared to conventional character control by lever or button operation from a game controller, character control using player motion detection by an acceleration sensor built in the game controller, or character control using hand gesture detection, A sense of familiarity with the character to be operated can be enhanced, and a sense of completeness in the game can be enhanced.

特に、例えば、撮影されるプレーヤ画像にプレーヤの少なくとも半身を写すように構成することによって、プレーヤの体の極一部ではなくプレーヤのより全体的な動作やポーズに基づいてキャラクタを操作することができるので、格段にプレーヤとプレーヤが操作するキャラクタとの親近感をより一層高めることができる。   In particular, for example, by configuring the player image so that at least the player's body is photographed, the character can be operated based on the player's overall movements and poses rather than the player's body part. Therefore, it is possible to remarkably enhance the closeness between the player and the character operated by the player.

第2の発明は、前記キャラクタモデルが左右の腕を有しており、プレーヤが表示装置に正対した場合のプレーヤの右の腕が前記仮想カメラから見た前記キャラクタモデルの右側の腕に、左の腕が前記仮想カメラから見た前記キャラクタモデルの左側の腕に対応するように、前記プレーヤ画像の左右と前記キャラクタモデルの左右との対応関係を設定する左右関係設定手段(例えば、図8の処理部200、ゲーム演算部210、図14のステップS10)、
前記撮影装置により撮影されたプレーヤ画像における左側の腕部分及び右側の腕部分を判定する腕部分判定手段(例えば、図8の処理部200、ゲーム演算部210、特徴点情報取得部220、図14のステップS6)として前記コンピュータを更に機能させ、
前記モデル挙動制御手段が、前記対応関係に従って、前記キャラクタモデルの左腕及び右腕を、それぞれ対応する前記プレーヤ画像の左側又は右側の腕部分の位置変化に基づいて制御する腕制御手段を有するように前記コンピュータを機能させるための第1の発明のプログラムである。
According to a second aspect of the present invention, the character model has left and right arms, and the right arm of the player when the player faces the display device is the right arm of the character model viewed from the virtual camera, A left-right relationship setting means (for example, FIG. 8) that sets the correspondence between the left and right of the player image and the left and right of the character model so that the left arm corresponds to the left arm of the character model viewed from the virtual camera. Processing unit 200, game calculation unit 210, step S10 in FIG. 14),
Arm part determination means for determining the left arm part and the right arm part in the player image photographed by the photographing device (for example, the processing unit 200, the game calculation unit 210, the feature point information acquisition unit 220, FIG. 14). In step S6), the computer is further functioned,
The model behavior control means includes arm control means for controlling the left arm and the right arm of the character model based on the position change of the left or right arm portion of the corresponding player image, respectively, according to the correspondence relationship. It is a program of the 1st invention for making a computer function.

第2の発明によれば、第1の発明と同様の効果を奏するとともに、プレーヤの右腕・左腕にプレーヤが操作できるキャラクタの右腕・左腕を正しく対応づけて動作制御できる。   According to the second invention, the same effects as in the first invention can be obtained, and the right arm and the left arm of the character that can be operated by the player can be correctly associated with the player's right arm and the left arm, and the motion can be controlled.

第3の発明は、前記ゲームが、前記キャラクタモデルが敵キャラクタと戦闘するゲームであり、前記キャラクタモデルは、腕の部分的な部位破壊攻撃を受けた場合に当該部分を消失し、前記腕制御手段が、前記対応関係に従って、前記キャラクタモデルの現存する左腕及び右腕を、それぞれ対応する前記プレーヤ画像の左側又は右側の腕部分の位置変化に基づいて制御するように前記コンピュータを機能させるための第2に発明のプログラムである。   In a third aspect of the present invention, the game is a game in which the character model battles an enemy character, and when the character model receives a partial arm destruction attack, the portion disappears and the arm control Means for causing the computer to function so as to control the existing left arm and right arm of the character model based on the position change of the left or right arm portion of the corresponding player image, respectively, according to the correspondence relationship. 2 is a program of the invention.

第3の発明によれば、第2の発明と同様の効果を奏するとともに、キャラクタモデルの腕が部分的に破壊されたものとして非表示状態になったとしても、一部が残った場合にはプレーヤ画像の左側又は右側の腕部分の位置変化に基づいて制御することができる。   According to the third invention, the same effect as the second invention is achieved, and even if the arm of the character model is partially destroyed and is not displayed, when a part remains Control can be performed based on the position change of the left or right arm portion of the player image.

第4の発明は、前記撮影装置により撮影されたプレーヤ画像中のプレーヤ像が左方及び右方の何れかに移動したことを検出するプレーヤ左右移動検出手段(例えば、図8の処理部200、ゲーム演算部210、ジェスチャー判定部222、図14のステップS22)として前記コンピュータを機能させ、
前記モデル挙動制御手段が、前記対応関係に従って、前記キャラクタモデルを前記プレーヤ左右移動検出手段による検出方向に対応する方向に傾けるように姿勢制御する傾斜姿勢制御手段(例えば、図8の処理部200、ゲーム演算部210、プレーヤキャラクタ挙動制御部224、図14のステップS24)を有するように前記コンピュータを機能させる、ための第2又は第3の発明のプログラムである。
According to a fourth aspect of the present invention, there is provided player left / right movement detecting means (for example, the processing unit 200, FIG. 8) for detecting that the player image in the player image photographed by the photographing device has moved to the left or right. The computer is caused to function as the game calculation unit 210, the gesture determination unit 222, and step S22 in FIG.
In accordance with the correspondence, the model behavior control means controls the attitude of the character model so as to incline in a direction corresponding to the direction detected by the player left-right movement detection means (for example, the processing unit 200, FIG. 8). A program according to the second or third aspect of the invention for causing the computer to function so as to have a game calculation unit 210, a player character behavior control unit 224, and step S24 in FIG.

第4の発明によれば、第2又は第3の発明と同様の効果を奏するとともに、プレーヤ画像中のプレーヤの像が左方及び右方の何れかへの移動を検出した場合には、キャラクタモデルを検出された方向に対応する方向へ傾けるように姿勢制御できる。   According to the fourth invention, the same effect as the second or third invention is achieved, and when the player image in the player image is detected to move leftward or rightward, The attitude can be controlled so that the model is tilted in a direction corresponding to the detected direction.

第5の発明は、前記左右関係設定手段が、前記仮想カメラの向きが前記キャラクタモデルの正面側に対向する向きか背面側に対向する向きかによって左右の対応関係を反転させる対応関係反転手段(例えば、図8の処理部200、ゲーム演算部210、図14のステップS10)を有するように前記コンピュータを機能させるための第2〜第4の何れかの発明のプログラムである。   According to a fifth aspect of the present invention, the left-right relationship setting means reverses the left-right correspondence relationship depending on whether the orientation of the virtual camera faces the front side or the back side of the character model. For example, the program according to any one of the second to fourth inventions for causing the computer to function so as to include the processing unit 200 of FIG. 8, the game calculation unit 210, and step S10 of FIG.

第5の発明によれば、第2〜第4の発明の何れかと同様の効果を奏するとともに、仮想カメラの向きが前記キャラクタモデルの正面側に対向する向きか背面側に対向する向きかによって左右の対応関係を反転させ、プレーヤ画像における左右とキャラクタモデルにおける左右とを正しく対応づけることができる。   According to the fifth invention, the same effects as in any of the second to fourth inventions can be obtained, and left and right depending on whether the orientation of the virtual camera faces the front side or the back side of the character model. And the right and left in the player image can be correctly associated with the left and right in the character model.

第6の発明は、前記モデル挙動制御手段が、前記撮影装置により撮影されたプレーヤ画像中のプレーヤ像の上下方向の長さの変化に基づいて、前記キャラクタモデルに屈み動作を行わせる屈み動作制御手段(例えば、図8の処理部200、ゲーム演算部210、プレーヤキャラクタ挙動制御部224、図14のステップS24)を有するように前記コンピュータを機能させるための第1〜第5の何れかの発明のプログラムである。   According to a sixth aspect of the invention, the model behavior control means causes the character model to bend based on a change in the vertical length of the player image in the player image shot by the shooting device. Any one of the first to fifth inventions for causing the computer to function so as to include means (for example, the processing unit 200 in FIG. 8, the game calculation unit 210, the player character behavior control unit 224, and step S24 in FIG. 14). It is a program.

第6の発明によれば、第1〜第5の発明の何れかと同様の効果を奏するとともに、プレーヤがしゃがむ動作を検出して、キャラクタモデルに屈み動作を行わせることができる。   According to the sixth invention, the same effect as any of the first to fifth inventions can be obtained, and the player can detect the squatting action and cause the character model to bend.

第7の発明は、前記モデル挙動制御手段が、前記撮影装置により撮影されたプレーヤ画像に基づいて前記キャラクタモデルの上半身の挙動を制御する上半身挙動制御手段(例えば、図8の処理部200、ゲーム演算部210、プレーヤキャラクタ挙動制御部224、図14のステップS24)と、
前記キャラクタ移動制御手段による移動制御に基づいて前記キャラクタモデルの下半身の挙動を制御する下半身挙動制御手段(例えば、図8の処理部200、ゲーム演算部210、プレーヤキャラクタ移動制御部214、図14のステップS18)と、を有するように前記コンピュータを機能させるための第1〜第6の何れかの発明のプログラムである。
According to a seventh aspect of the invention, the model behavior control means controls the behavior of the upper body of the character model based on the player image photographed by the photographing device (for example, the processing unit 200 of FIG. A calculation unit 210, a player character behavior control unit 224, step S24 in FIG.
Lower body behavior control means for controlling the behavior of the lower body of the character model based on movement control by the character movement control means (for example, the processing unit 200, the game calculation unit 210, the player character movement control unit 214 in FIG. A program according to any one of the first to sixth inventions for causing the computer to function so as to include step S18).

第7の発明によれば、第1〜第6の発明の何れかと同様の効果を奏するとともに、キャラクタモデルを上半身と下半身とに分けて制御することができる。よって、予め定められた位置にキャラクタモデルを移動させるように自動制御しつつ、上半身はプレーヤ像に基づく動作制御をするといった構成が可能になる。例えば、いわゆるレールシューティングゲームにおいてプレーヤ像に基づくキャラクタモデルの動作制御を実現する上では好適な技術要素となる。   According to the seventh invention, the same effect as any of the first to sixth inventions can be obtained, and the character model can be controlled separately for the upper body and the lower body. Therefore, a configuration is possible in which the upper body performs motion control based on the player image while automatically controlling the character model to move to a predetermined position. For example, in a so-called rail shooting game, it is a suitable technical element for realizing motion control of a character model based on a player image.

第8の発明は、前記プレーヤ画像中の前記プレーヤ像に基づいて、前記キャラクタモデルを、複数種類のキャラクタモデルの中から選択或いは生成して設定するキャラクタモデル設定手段として前記コンピュータを機能させるための第1〜第7の何れかの発明のプログラムである。   According to an eighth aspect of the present invention, there is provided a program for causing the computer to function as a character model setting unit that selects or generates the character model from a plurality of types of character models based on the player image in the player image. A program according to any one of the first to seventh inventions.

第8の発明によれば、プレーヤ画像中の前記プレーヤ像に基づいて複数種類のキャラクタモデルの中から選択或いは生成して設定することができる。よって、プレーヤキャラクタに多様性を持たせることができる。   According to the eighth aspect, it is possible to select or generate and set from a plurality of types of character models based on the player image in the player image. Therefore, the player character can be varied.

第9の発明は、前記キャラクタモデル設定手段が、前記プレーヤ画像中の前記プレーヤ像の色彩に基づいて前記キャラクタモデルの色を設定する着色手段(例えば、図8の処理部200、ゲーム演算部210、図15のステップS60〜S62)を有するように前記コンピュータを機能させるための第8の発明のプログラムである。   According to a ninth aspect of the invention, the character model setting means sets a color of the character model based on the color of the player image in the player image (for example, the processing unit 200 and the game calculation unit 210 in FIG. 8). FIG. 15 is a program of an eighth invention for causing the computer to function so as to have steps S60 to S62) of FIG.

第9の発明によれば、第8の発明と同様の効果を奏するとともに、プレーヤの着衣の色彩に基づいてキャラクタモデルの色を設定することができる。特にプレーヤ像の色彩と同系色でキャラクタモデルの色を設定する構成とするならば、プレーヤがキャラクタモデルに抱く親近感をより一層高めることができる。   According to the ninth aspect, the same effect as the eighth aspect can be obtained, and the color of the character model can be set based on the color of the clothes of the player. In particular, if the color of the character model is set to a color similar to the color of the player image, it is possible to further enhance the familiarity that the player has in the character model.

第10の発明は、前記キャラクタモデル設定手段が、前記プレーヤ画像中の前記プレーヤ像の輪郭形状に基づいて前記キャラクタモデルの体形を設定する体形設定手段(例えば、図8の処理部200、ゲーム演算部210、図15のステップS54〜S58)を有するように前記コンピュータを機能させるための第8又は第9の発明のプログラムである。   According to a tenth aspect of the present invention, the character model setting means sets the shape of the character model based on the contour shape of the player image in the player image (for example, the processing unit 200 of FIG. 8, game calculation) 15 is a program of the eighth or ninth invention for causing the computer to function so as to have the unit 210, steps S54 to S58) of FIG.

第10の発明によれば、第8又は第9の発明と同様の効果を奏するとともに、キャラクタモデルの体形をプレーヤの姿の形状に対応させるといったことができる。特に、プレーヤ像からプレーヤの体形を推定し、推定された体形に応じてキャラクタモデルの体形を変更すると、プレーヤがキャラクタモデルに抱く親近感をより一層高めることができる。   According to the tenth invention, the same effect as in the eighth or ninth invention can be obtained, and the body shape of the character model can be made to correspond to the shape of the player's figure. In particular, when the player's body shape is estimated from the player image and the body shape of the character model is changed in accordance with the estimated body shape, the familiarity of the player with the character model can be further enhanced.

第11の発明は、第1〜第10の何れかの発明のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体である。ここで言う「情報記憶媒体」とは、例えば磁気ディスクや光学ディスク、ICメモリなどを含む。第11の発明によれば、第1〜第10の何れか一つの発明のプログラムをコンピュータに読み取らせて実行させることによって、コンピュータに第1〜第10の何れか一つの発明と同様の効果を発揮させることができる。   The eleventh invention is a computer-readable information storage medium storing the program of any one of the first to tenth inventions. The “information storage medium” mentioned here includes, for example, a magnetic disk, an optical disk, an IC memory, and the like. According to the eleventh invention, by causing a computer to read and execute the program of any one of the first to tenth inventions, the computer has the same effect as any one of the first to tenth inventions. It can be demonstrated.

家庭用ゲーム装置のシステム構成例を示す図。The figure which shows the system structural example of a household game device. ゲームコントローラの構成例を示す正面図及び側面図。The front view and side view which show the structural example of a game controller. プレイスタイル例を示す図。The figure which shows the play style example. ゲーム画面例を示す図。The figure which shows the example of a game screen. プレーヤキャラクタの設定原理を説明する概念図。The conceptual diagram explaining the setting principle of a player character. プレーヤキャラクタの動作制御の原理を説明する概念図。The conceptual diagram explaining the principle of action control of a player character. ジェスチャー及びポーズ入力の例を示す図。The figure which shows the example of gesture and a pose input. 機能構成例を示す機能ブロック図。The functional block diagram which shows a function structural example. ゲーム空間設定データのデータ構成例を示す図。The figure which shows the data structural example of game space setting data. プレーヤキャラクタ初期設定データのデータ構成例を示す図。The figure which shows the data structural example of player character initial setting data. ジェスチャー辞書データのデータ構成例を示す図。The figure which shows the data structural example of gesture dictionary data. プレーヤキャラクタステータスデータのデータ構成例を示す図。The figure which shows the data structural example of player character status data. 左右対応設定データのデータ構成例を示す図。The figure which shows the data structural example of the setting data corresponding to right and left. 主たる処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the main processes. モデルマッチング処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a model matching process. プレーヤキャラ挙動制御処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a player character behavior control process. 図16より続くフローチャート。The flowchart following FIG. 第2実施形態におけるプレーヤキャラクタの代替としての反転シルエット表示の概念を説明する図。The figure explaining the concept of the inversion silhouette display as a substitute of the player character in 2nd Embodiment. 反転シルエット表示状態においてプレーヤがダメージを受けた時のダメージ表現時の制御例を説明する図。The figure explaining the example of control at the time of the damage expression when a player receives damage in a reverse silhouette display state. 変身操作によってプレーヤキャラクタを登場させる制御例を説明する図。The figure explaining the example of control which makes a player character appear by transformation operation. 第2実施形態におけるプレーヤキャラクタ挙動制御処理(プレーヤキャラクタ挙動制御処理B)の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the player character behavior control process (player character behavior control process B) in 2nd Embodiment. 図21より続くフローチャート。The flowchart following FIG. ゲーム画面生成表示処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a game screen production | generation display process. ゲーム装置の変形例であるガンシューティングゲーム装置の構成例を示す図。The figure which shows the structural example of the gun shooting game apparatus which is a modification of a game device.

〔第1実施形態〕
本発明を適用した第1実施形態として、イメージセンサを備える家庭用ゲーム装置において、TPSゲーム(Third Person Shooting Game)を実行する例を説明する。
[First Embodiment]
As a first embodiment to which the present invention is applied, an example in which a TPS game (Third Person Shooting Game) is executed in a consumer game device including an image sensor will be described.

図1は、本実施形態における家庭用ゲーム装置の構成例を説明するための図である。同図に示すように、家庭用ゲーム装置1200は、ゲーム装置本体1201と、ビデオモニタ1220と、ゲームコントローラ1230と、光信号出力装置1226と、イメージセンサモジュール1227と、を備える。   FIG. 1 is a diagram for explaining a configuration example of a consumer game device according to the present embodiment. As shown in the figure, the consumer game device 1200 includes a game device main body 1201, a video monitor 1220, a game controller 1230, an optical signal output device 1226, and an image sensor module 1227.

ゲーム装置本体1201は、例えばCPUや画像処理用LSI、ICメモリ等が実装された制御ユニット1210と、光学ディスク1202やメモリカード1204といった情報記憶媒体の読み取り装置1206,1208とを備える。そして、家庭用ゲーム装置1200は、光学ディスク1202やメモリカード1204からゲームプログラム及び各種設定データを読み出し、ゲームコントローラ1230に為される操作入力等に基づいて制御ユニット1210が各種のゲーム演算を実行してビデオゲームを実行する。   The game apparatus main body 1201 includes, for example, a control unit 1210 on which a CPU, an image processing LSI, an IC memory, and the like are mounted, and information storage medium reading devices 1206 and 1208 such as an optical disk 1202 and a memory card 1204. Then, the home game device 1200 reads the game program and various setting data from the optical disk 1202 and the memory card 1204, and the control unit 1210 executes various game operations based on operation inputs made by the game controller 1230. Run video games.

制御ユニット1210は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)及びDSP(Digital Signal Processor)などの各種マイクロプロセッサ、ASIC(Application Specific Integrated Circuit)、ICメモリなどの電気電子機器を備え家庭用ゲーム装置1200の各部を制御する。
また、制御ユニット1210は、インターネットやLAN(Local Area Network)、WAN(Wide Area Network)と言った通信回線1と有線又は無線接続し、外部装置との間でデータ通信を実現する通信装置1212を備える。また、近距離無線通信モジュール1214を備え、近距離無線を介して複数のゲームコントローラ1230との間でデータの送受信を実現する。近距離無線の形式としては、例えばBluetooth(登録商標)やUWB(超広帯域無線)、無線LANなどが適宜適用可能である。
The control unit 1210 includes various microprocessors such as a CPU (Central Processing Unit), GPU (Graphics Processing Unit), and DSP (Digital Signal Processor), and electrical and electronic devices such as an ASIC (Application Specific Integrated Circuit) and an IC memory. Each part of the game apparatus 1200 is controlled.
In addition, the control unit 1210 includes a communication device 1212 that is wired or wirelessly connected to the communication line 1 such as the Internet, a LAN (Local Area Network), and a WAN (Wide Area Network), and realizes data communication with an external device. Prepare. Also, a short-range wireless communication module 1214 is provided, and data transmission / reception is realized with a plurality of game controllers 1230 via short-range wireless. As a short-range wireless format, for example, Bluetooth (registered trademark), UWB (ultra-wide band wireless), wireless LAN, or the like can be applied as appropriate.

そして、制御ユニット1210は、ゲームコントローラ1230から受信した操作入力信号に基づいてゲーム画面やゲーム音を生成してビデオゲームを実行する。生成されたゲーム画面やゲーム音に基づく映像信号や音信号がケーブル1209で接続されたビデオモニタ1220(ディスプレイモニタ、音声信号やビデオ信号などの外部入力が可能なテレビを含む意)に出力される。ビデオモニタ1220には、ビデオ画像を表示する画像表示装置1222と、音声を出力するスピーカ1224とが備えられており、プレーヤは画像表示装置1222に映し出されるゲーム画面を見ながら、スピーカ1224から放音されるゲーム音を聞きつつゲームをプレイする。   Then, the control unit 1210 generates a game screen and game sound based on the operation input signal received from the game controller 1230 and executes the video game. A video signal or sound signal based on the generated game screen or game sound is output to a video monitor 1220 (including a display monitor, a television capable of external input such as an audio signal and a video signal) connected by a cable 1209. . The video monitor 1220 is provided with an image display device 1222 for displaying a video image and a speaker 1224 for outputting sound. The player emits sound from the speaker 1224 while watching the game screen displayed on the image display device 1222. Play the game while listening to the game sound.

図2は、本実施形態において用いられるゲームコントローラ1230の一例を示す外観図であって、(1)正面図(=上面図)、(2)正面向かって右から見た右側面図である。ゲームコントローラ1230は面取りされた略四角断面を有する棒状を成しており、プレーヤは棒を握る要領で片手把持して操作する。   FIG. 2 is an external view showing an example of the game controller 1230 used in the present embodiment, and is (1) a front view (= top view) and (2) a right side view as seen from the right when viewed from the front. The game controller 1230 has a bar shape having a substantially square section that is chamfered, and the player operates by gripping one hand in the manner of gripping the bar.

ゲームコントローラ1230は、内蔵するコントローラ制御ユニット1260を中心に、各種入力デバイス及び出力デバイスを、例えばIIC(Inter-Integrated Circuit)バスなどによって実現されるローカルバス回路によって接続しており、コントローラ制御ユニット1260によって各デバイス間の入出力を制御する。   The game controller 1230 connects various input devices and output devices around a built-in controller control unit 1260 with a local bus circuit realized by, for example, an IIC (Inter-Integrated Circuit) bus. To control input / output between devices.

具体的には、例えばスイッチ類の入力デバイスとしては、正面側(上面側)の下端部から中央部に掛けて操作ボタン1240a,1240b,1240cを備える。また、正面側の前部には、十字状の四隅を押下することで上下左右の方向を個別に入力することのできる方向入力キー1242を備え、背面側の中央部にはトリガー1246を備える。   Specifically, for example, as an input device for switches, operation buttons 1240a, 1240b, and 1240c are provided from the lower end portion on the front side (upper surface side) to the center portion. Further, the front part on the front side is provided with direction input keys 1242 that can individually input the vertical and horizontal directions by pressing the four corners of the cross, and the center part on the back side is provided with a trigger 1246.

また、その他の入力デバイスとしては、ゲームコントローラ1230の動きや傾きを検出するための加速度センサ1248と、イメージセンサ1256とを備える。   As other input devices, an acceleration sensor 1248 for detecting the movement and inclination of the game controller 1230 and an image sensor 1256 are provided.

加速度センサ1248はゲームコントローラ1230の長手先端方向(図2(1)で言うところの図面上方向)をZ軸のプラス方向、正面向かって右方向(図2(1)で言うところの図面右方向)をX軸のプラス方向、正面向かって手前方向(図2(2)で言うところの図面左方向)をY軸のプラス方向とする直交3軸方向の各加速度を検出し、検出した加速度に応じた情報を含む操作入力信号をコントローラ制御ユニット1260に出力する。   In the acceleration sensor 1248, the longitudinal direction of the game controller 1230 (upward in the drawing as shown in FIG. 2 (1)) is the positive direction of the Z axis, and the right direction toward the front (right in the drawing as shown in FIG. 2 (1)). ) Is the positive direction of the X-axis, and the acceleration in the three orthogonal directions with the Y-axis positive direction as the front direction toward the front (the left direction in FIG. 2) is detected. An operation input signal including the corresponding information is output to the controller control unit 1260.

イメージセンサ1256は、CCDセンサやCMOSセンサなどの撮像素子の前方に赤外光のみを透過するフィルタを装着して実現され、ゲームコントローラ1230の先端に設けられて長手方向前方の様子を撮影し、画像信号をコントローラ制御ユニット1260に出力する。   The image sensor 1256 is realized by mounting a filter that transmits only infrared light in front of an image sensor such as a CCD sensor or a CMOS sensor. The image sensor 1256 is provided at the tip of the game controller 1230 to photograph the front side in the longitudinal direction. The image signal is output to the controller control unit 1260.

また、本実施形態におけるゲームコントローラ1230は、スピーカ1252を備える。スピーカ1252は、コントローラ制御ユニット1260から出力された音出力信号に従って音を発生させ、正面側に向けて放音する。   In addition, the game controller 1230 in this embodiment includes a speaker 1252. The speaker 1252 generates sound according to the sound output signal output from the controller control unit 1260, and emits the sound toward the front side.

コントローラ制御ユニット1260は、例えば、CPUやローカルバス回路におけるデータ通信を制御するバスコントローラICなどの各種マイクロチップやICメモリなどの電子部品、ゲーム装置本体1201の近距離無線通信モジュール1214と無線通信を実現する近距離無線通信モジュール1262などを搭載する。   The controller control unit 1260 performs wireless communication with various microchips such as a bus controller IC that controls data communication in a CPU and a local bus circuit, electronic components such as an IC memory, and the short-range wireless communication module 1214 of the game apparatus main body 1201. The short-range wireless communication module 1262 to be realized is mounted.

そして、コントローラ制御ユニット1260は、ローカルバス回路を介して各種入力デバイスから送信された信号に基づいて操作入力信号を生成し、生成した操作入力信号を近距離無線通信モジュール1262でゲーム装置本体1201へ送信する。また、近距離無線通信モジュール1262によって、ゲーム装置本体1201から送出された出力信号を受信した場合には、受信した出力信号に対応づけられている出力デバイスへ制御信号を生成・送出する。尚、コントローラ制御ユニット1260及び各部が必要とする電力は、ゲームコントローラ1230の背面側に凹設されたバッテリー室内に内蔵されたバッテリー1270から供給される。   Then, the controller control unit 1260 generates an operation input signal based on signals transmitted from various input devices via the local bus circuit, and the generated operation input signal is transmitted to the game apparatus main body 1201 by the short-range wireless communication module 1262. Send. When the short-range wireless communication module 1262 receives an output signal sent from the game apparatus main body 1201, the control signal is generated and sent to the output device associated with the received output signal. The electric power required by the controller control unit 1260 and each part is supplied from a battery 1270 built in a battery chamber recessed in the back side of the game controller 1230.

光信号出力装置1226は、赤外光を発する複数の点光源を内蔵する。光信号出力装置1226は、ビデオモニタ1220付近の所定位置(例えば上部)に設置され、ビデオモニタ1220の前方へ赤外光を投光することができる。   The optical signal output device 1226 includes a plurality of point light sources that emit infrared light. The optical signal output device 1226 is installed at a predetermined position (for example, the upper part) near the video monitor 1220, and can project infrared light forward of the video monitor 1220.

イメージセンサモジュール1227は、例えば、レンズ、メカシャッター、シャッタードライバ、CCDイメージセンサモジュールやCMOSイメージセンサモジュールといった光電変換素子、光電変換素子から電荷量を読み出し画像データを生成するデジタルシグナルプロセッサ(DSP)、ICメモリなどで実現される。   The image sensor module 1227 is, for example, a lens, a mechanical shutter, a shutter driver, a photoelectric conversion element such as a CCD image sensor module or a CMOS image sensor module, a digital signal processor (DSP) that reads an amount of charge from the photoelectric conversion element and generates image data, It is realized with an IC memory or the like.

図3は、本実施形態におけるゲームプレイスタイルを示す図である。
プレーヤ2は、ゲームコントローラ1230を持ってビデオモニタ1220の前方に立ち、ゲームコントローラ1230の先端をビデオモニタ1220に向けて構える。
FIG. 3 is a diagram showing a game play style in the present embodiment.
The player 2 holds the game controller 1230, stands in front of the video monitor 1220, and holds the tip of the game controller 1230 facing the video monitor 1220.

ゲームコントローラ1230の先端をビデオモニタ1220に向けると、ゲームコントローラ1230のイメージセンサ1256で光信号出力装置1226を撮影することができる。制御ユニット1210は、イメージセンサ1256で撮影した画像データをゲームコントローラ1230から受信し、同画像内の赤外光の各点光源の位置に基づいて画像表示装置1222にポインター4を移動表示させて、ポインティングデバイスとしての機能を実現する。   When the tip of the game controller 1230 is directed to the video monitor 1220, the optical signal output device 1226 can be photographed by the image sensor 1256 of the game controller 1230. The control unit 1210 receives image data captured by the image sensor 1256 from the game controller 1230, moves the pointer 4 to the image display device 1222 based on the position of each point light source of infrared light in the image, A function as a pointing device is realized.

また、イメージセンサモジュール1227は、ビデオモニタ1220の前に居るプレーヤ2の全身を前方より撮影できるように例えばビデオモニタ1220の上部に設置され、撮影したプレーヤ画像W2の画像データを生成して制御ユニット1210へ出力することができる。   The image sensor module 1227 is installed, for example, on the top of the video monitor 1220 so that the whole body of the player 2 in front of the video monitor 1220 can be photographed from the front, and generates image data of the photographed player image W2 to generate a control unit. 1210 can be output.

図4は、ビデオモニタ1220に表示されるゲーム画面例を示す図である。
本実施形態のビデオゲームは、所謂TPSである。
すなわち、制御ユニット1210は、3次元仮想空間内に壁や階段、通路などの背景オブジェクトを配置してゲーム空間内を形成するとともに、ゲーム空間内にプレーヤが操作するプレーヤキャラクタ6のモデルやNPC(Non Playable Character)である敵キャラクタ10のモデルを配置し、プレーヤキャラクタ6の周囲を3人称視点の仮想カメラで撮影したゲーム空間画像をレンダリングする。そして、レンダリングされたゲーム空間画像に、更にプレーヤキャラクタ6のヒットポイント値を示すヒットポイントゲージ20や、ゲーム空間におけるプレーヤキャラクタ6の正面方向を示す方位表示22、プレーヤキャラクタ6の周囲の状況をシンボル表示するいわゆるレーダー表示24などの情報表示が合成表示してゲーム画像W4を生成し、ビデオモニタ1220で表示させる。
FIG. 4 is a view showing an example of a game screen displayed on the video monitor 1220.
The video game of this embodiment is a so-called TPS.
That is, the control unit 1210 arranges background objects such as walls, stairs, and passages in the three-dimensional virtual space to form the game space, and the player character 6 model or NPC (NPC) operated by the player in the game space. A model of the enemy character 10 which is a non-playable character is arranged, and a game space image obtained by photographing the surroundings of the player character 6 with a virtual camera with a third-person viewpoint is rendered. Further, the rendered game space image further includes a hit point gauge 20 indicating the hit point value of the player character 6, an orientation display 22 indicating the front direction of the player character 6 in the game space, and a situation around the player character 6. An information display such as a so-called radar display 24 to be displayed is synthesized and displayed to generate a game image W4 and displayed on the video monitor 1220.

プレーヤキャラクタ6は銃8を所持しており、プレーヤがゲームコントローラ1230のトリガー1246を操作して攻撃操作を入力すると、プレーヤキャラクタ6はポインター4の表示位置へ向けて射撃するように動作制御される。
敵キャラクタ10を攻撃して敵キャラクタ10のヒットポイントを「0」にすれば倒すことができる。反対に、プレーヤキャラクタ6が敵キャラクタ10からの攻撃を受けると、プレーヤキャラクタ6のヒットポイントは減算され、ヒットポイントが「0」になってしまうとプレーヤキャラクタ6は戦闘不能となり、ゲームオーバーとなる。
The player character 6 possesses the gun 8, and when the player operates the trigger 1246 of the game controller 1230 and inputs an attack operation, the player character 6 is controlled to shoot toward the display position of the pointer 4. .
The enemy character 10 can be defeated by attacking the enemy character 10 and setting the hit point of the enemy character 10 to “0”. On the other hand, when the player character 6 is attacked by the enemy character 10, the hit point of the player character 6 is subtracted, and when the hit point becomes “0”, the player character 6 becomes unable to fight and the game is over. .

本実施形態のゲームは、プレーヤキャラクタ6が、自動的にゲーム空間内に複数用意されている所定の戦闘位置に移動制御され、そこで登場する敵キャラクタ10を全て倒すと次の戦闘位置へ自動的に移動制御されるようにしてゲームが進行する、所謂レールシューティングタイプのゲームである。プレーヤキャラクタ6を上手く操作して各戦闘位置での戦闘に生き残ることができればゲームクリアとなる。   In the game of this embodiment, the player character 6 is automatically controlled to move to a predetermined battle position prepared in the game space, and when all the enemy characters 10 appearing there are defeated, the player character 6 is automatically moved to the next battle position. It is a so-called rail shooting type game in which the game progresses while being controlled to move. If the player character 6 can be operated well to survive the battle at each battle position, the game is cleared.

[プレーヤキャラクタモデルの設定方法の説明]
図5は本実施形態におけるプレーヤキャラクタ6の表示用モデルの設定について説明するための概念図である。
本実施形態では、ゲーム開始に先立ってプレーヤの体形と着衣の色の要素をプレーヤキャラクタ6のモデルに反映させることができる。その為に、ゲーム開始に先立って、ビデオモニタ1220に所定のプレイ準備ガイドを画面表示して、プレーヤ2に指示を与えつつ、イメージセンサモジュール1227でキャリブレーション用の画像を取得する。
[Description of how to set the player character model]
FIG. 5 is a conceptual diagram for explaining the setting of the display model of the player character 6 in the present embodiment.
In the present embodiment, the player's body shape and clothing color elements can be reflected in the model of the player character 6 prior to the start of the game. Therefore, prior to the start of the game, a predetermined play preparation guide is displayed on the screen of the video monitor 1220 and an image for calibration is acquired by the image sensor module 1227 while giving an instruction to the player 2.

より具体的には、プレイ準備ガイドでは先ず、ビデオモニタ1220の前にはプレーヤが一定時間立たないように指示し、その間に背景のみの第1キャリブレーション画像C1をイメージセンサモジュール1227で撮影する。次いで、プレーヤにイメージセンサモジュール1227に対して正面向いて両手を広げるように指示して、第2キャリブレーション画像C2を撮影する。   More specifically, in the play preparation guide, first, the player instructs the video monitor 1220 not to stand for a certain period of time, and the first calibration image C1 of only the background is captured by the image sensor module 1227 during that time. Next, the player is instructed to open both hands facing the front to the image sensor module 1227, and the second calibration image C2 is photographed.

第1キャリブレーション画像C1と第2キャリブレーション画像C2を取得したならば、制御ユニット1210は、両画像の差分からプレーヤ2の人体シルエット30を抽出する。そして、この人体シルエット30はプレーヤ2の立位正面像から求められているので、高さ中間位置の横幅Lbをプレーヤ2の体形推定パラメータ値と見なし、横幅Lbに応じてプレーヤキャラクタ6の体形を変更する。例えば、横幅Lbを所定基準と比較してやせ形・標準・太目の3タイプに分類し、分類結果に応じてプレーヤキャラクタ6の胴回りの寸法を可変し、それをゲームで使用する適用プレーヤキャラクタモデルとする。   If the first calibration image C1 and the second calibration image C2 are acquired, the control unit 1210 extracts the human body silhouette 30 of the player 2 from the difference between the two images. Since the human body silhouette 30 is obtained from the standing front image of the player 2, the lateral width Lb at the intermediate height is regarded as the body shape estimation parameter value of the player 2, and the body shape of the player character 6 is determined according to the lateral width Lb. change. For example, the width Lb is compared with a predetermined standard, and is classified into three types of skinny, standard, and thick, and the size of the circumference of the player character 6 is changed according to the classification result, and the applied player character model is used in the game. To do.

図5の左側の例では、人体シルエット30aの横幅Lbは標準と判定されたので、標準体形のプレーヤキャラクタ6aとなる。一方、図5の右側の例では、人体シルエット30bの横幅Lbは太目と判定されたので、胴回りが太くなるように調整されたプレーヤキャラクタ6bとなっている。胴回りのみならず、頭部や腕、脚なども調整対象とすることができる。また、伸長と横幅LBとの比率に基づいてプレーヤキャラクタ6の体形を変更してもよい。   In the example on the left side of FIG. 5, since the horizontal width Lb of the human body silhouette 30a is determined to be standard, the player character 6a has a standard figure. On the other hand, in the example on the right side of FIG. 5, since the horizontal width Lb of the human body silhouette 30b is determined to be thick, the player character 6b is adjusted so that the waistline is thick. Not only the waistline but also the head, arms and legs can be adjusted. Further, the body shape of the player character 6 may be changed based on the ratio between the expansion and the horizontal width LB.

また、制御ユニット1210は、人体シルエット30を抽出したならば、人体シルエット30の領域内の画素の色情報を統計処理し、人体シルエット30の代表色を所定の選択肢内から決定する。代表色は、例えば赤・橙・黄・青・緑・紫の6色相に白・黒を加えたものの中から、人体シルエット30内で最も占める画素の色相に合致するものが選択される。そして、予め用意されている複数のテクスチャデータから、代表色と同系色のテクスチャデータを選択して、それをゲームで使用する適用テクスチャデータとする。   Further, when the human body silhouette 30 is extracted, the control unit 1210 statistically processes the color information of the pixels in the region of the human body silhouette 30 and determines the representative color of the human body silhouette 30 from a predetermined option. As the representative color, for example, a color that matches the hue of the most occupied pixel in the human body silhouette 30 is selected from six colors of red, orange, yellow, blue, green, and purple plus white and black. Then, texture data having a color similar to the representative color is selected from a plurality of texture data prepared in advance, and the selected texture data is used as application texture data used in the game.

このように、プレーヤ2の体形と着衣の色の特徴を備えるようにプレーヤキャラクタ6を設定することで、プレーヤがプレーヤキャラクタ6へ抱く親近感を高めるように工夫されている。   In this way, the player character 6 is set so as to have the characteristics of the body shape and clothing color of the player 2, so that the player feels close to the player character 6.

[プレーヤキャラクタの動作制御方法の説明]
図6は、本実施形態におけるプレーヤキャラクタ6の動作制御方法を説明するための概念図である。従来のTPSにおけるプレーヤキャラクタは、ゲームコントローラからの操作入力に基づいて、そのゲームコントローラからの操作入力に対応づけて予め用意されたモーションデータに従って攻撃動作したり回避動作をしたりと言った具合に動作制御(挙動制御)されている。しかし、本実施形態では一部では従来通りにゲームコントローラ1230からの操作入力に基づいてプレーヤキャラクタ6を動作制御するが、一部ではイメージセンサモジュール1227で撮影されるプレーヤ2の動作(挙動)をプレーヤキャラクタ6が真似るように動作制御する。
[Description of player character motion control method]
FIG. 6 is a conceptual diagram for explaining a motion control method for the player character 6 in the present embodiment. A player character in a conventional TPS is based on an operation input from a game controller, and performs an attack operation or an avoidance operation according to motion data prepared in advance corresponding to the operation input from the game controller. Operation control (behavior control) is performed. However, in this embodiment, the player character 6 is controlled based on an operation input from the game controller 1230 in part as in the past, but in part, the operation (behavior) of the player 2 captured by the image sensor module 1227 is controlled. Motion control is performed so that the player character 6 is imitated.

具体的には、制御ユニット1210は、第2キャリブレーション画像C2から人体シルエット30を抽出し、抽出された人体シルエット30から中央上向き凸部と、左右端部の凸部を抽出する。そして、抽出された中央上向き凸部をプレーヤ2の頭部に相当する頭部特徴点40として認識し、その代表点(例えば先端位置や該当部分の中心位置)の画面座標系の座標を取得する。同じように、人体シルエット30の画面向かって左方向への凸部を左特徴点42として識別し、画面向かって右方向への凸部を右特徴点44として識別する。   Specifically, the control unit 1210 extracts the human body silhouette 30 from the second calibration image C2, and extracts the central upward convex portion and the convex portions at the left and right end portions from the extracted human body silhouette 30. Then, the extracted center upward convex portion is recognized as the head feature point 40 corresponding to the head of the player 2 and the coordinates of the representative point (for example, the tip position or the center position of the corresponding portion) in the screen coordinate system are acquired. . Similarly, a convex portion in the left direction toward the screen of the human body silhouette 30 is identified as a left feature point 42, and a convex portion in the right direction toward the screen is identified as a right feature point 44.

ゲームプレイ中は、常時イメージセンサモジュール1227によってプレーヤ2の様子が撮影され、撮影されたフレーム毎(例えば、プレーヤ画像W2,W3,・・・)に頭部特徴点40、左特徴点42、右特徴点44の座標が取得され続ける。これら頭部特徴点40、左特徴点42、右特徴点44の座標が、イメージセンサモジュール1227で撮影されるプレーヤ2の動作をプレーヤキャラクタ6が真似るように動作制御する基本情報となる。   During the game play, the state of the player 2 is always captured by the image sensor module 1227, and the head feature point 40, the left feature point 42, and the right are captured for each captured frame (for example, the player images W2, W3,...). The coordinates of the feature point 44 are continuously acquired. The coordinates of the head feature point 40, the left feature point 42, and the right feature point 44 serve as basic information for controlling the movement of the player character 6 so as to imitate the movement of the player 2 photographed by the image sensor module 1227.

さて、ここで注意すべきはプレーヤ画像W2,W3,・・・から得られる各特徴点の情報は、画面座標系における2次元位置情報であり、1台のイメージセンサモジュール1227により撮影された画像からだけでは各特徴点の前後方向の位置情報が求められないために立体的に動作させることができない点である。ただし、手を左右に広げたポーズにおいては、身体の前後方向における手の位置は大体同じ範囲内に収まるとも言える。つまり、手を左右に広げたポーズにおいては、左特徴点42、右特徴点44の前後方向位置として規定値(例えば、プレーヤキャラクタ6の胸前程度の前後位置)を適用し、そこからインバースキネマティクス処理によって腕の各関節の姿勢パラメータを求めてプレーヤキャラクタ6を制御したとしても、プレーヤ2の腕の動作を真似するには十分と言える。   It should be noted here that the information of each feature point obtained from the player images W2, W3,... Is two-dimensional position information in the screen coordinate system, and is an image taken by one image sensor module 1227. Since the position information in the front-rear direction of each feature point cannot be obtained only from, the three-dimensional operation cannot be performed. However, it can be said that the position of the hand in the front-rear direction of the body is generally within the same range in the pose with the hand extended to the left and right. In other words, in a pose with the hands extended to the left and right, a prescribed value (for example, the front and back positions of the player character 6 in front of the chest) is applied as the front and rear direction positions of the left feature point 42 and the right feature point 44, and the inverse kinematic Even if the player character 6 is controlled by obtaining the posture parameters of each joint of the arm by the tick processing, it can be said that it is sufficient to imitate the movement of the arm of the player 2.

また一方で、シューティングゲームにおける整合性の観点からすると、プレーヤキャラクタ6は基本的に銃8を体の前方又は斜め前方に構え、ポインター4の方向に向ける必要がある。仮に、ゲーム画面という狭い範囲内をゲームコントローラ1230で差し示すプレーヤ2の実際の腕の動作を、そのままプレーヤキャラクタ6に常時真似させるように動作制御すると、銃8の銃口の向きがポインター4の方向に向かなくなり、標的の方向を向いていない銃口から弾が斜めに飛んで当ると言った不都合が生じる。   On the other hand, from the viewpoint of consistency in the shooting game, the player character 6 basically needs to hold the gun 8 in front of the body or obliquely forward and point it in the direction of the pointer 4. If, for example, the movement of the actual arm of the player 2 indicated within the narrow range of the game screen by the game controller 1230 is controlled so that the player character 6 is always imitated as it is, the direction of the muzzle of the gun 8 is the direction of the pointer 4. The inconvenience is that the bullets fly diagonally from the muzzle that is not facing the target.

そこで本実施形態では、左特徴点42、右特徴点44が頭部特徴点40から左右方向にどれだけ離れているかによって、今現在プレーヤ2がしているポーズが、腕を広げるポーズであるか、銃を構えて狙っているポーズであるかを判定する。図6の例では、頭部特徴点40を左右中心とする矩形の判定領域50を設定し、左特徴点42や右特徴点44が判定領域50内ならば銃を構えているポーズ、判定領域50外ならば腕を広げるポーズであると判定することを示している。   Therefore, in this embodiment, depending on how far the left feature point 42 and the right feature point 44 are separated from the head feature point 40 in the left-right direction, whether the pose that the player 2 is currently doing is a pose that spreads the arm. Determine whether the pose is aimed with a gun. In the example of FIG. 6, a rectangular determination area 50 centered on the left and right of the head feature point 40 is set. If the left feature point 42 and the right feature point 44 are within the determination area 50, the pose and determination area holding the gun If it is outside 50, it indicates that it is determined that the pose is to spread arms.

そして、「銃を構えているポーズ」と判定したならば、銃8をポインター4の表示位置へ向けるようにプレーヤキャラクタ6の上半身6uを自動動作制御する。「腕を広げるポーズ」と判定したならば、左特徴点42や右特徴点44の上下・左右の2次元座標値と、前後方向を決定する規定値とから、左特徴点42や右特徴点44の3次元情報を擬似的に設定し、インバースキネマティクス処理によって腕関節の姿勢パラメータ値を算出する。そして、プレーヤキャラクタ6の上半身6uに、プレーヤ2の動作を真似させる。
この際、仮想カメラがプレーヤキャラクタ6を後方から撮影しているか前方から撮影しているかによって、どちらの特徴点の位置座標に基づいて算出した姿勢パラメータをどちらの腕に適用するかが変わる。勿論、前者の場合は左右反対となり、後者の場合には左右同側となる。
If it is determined that the “pose holding a gun”, the upper body 6 u of the player character 6 is automatically controlled so that the gun 8 is directed to the display position of the pointer 4. If it is determined that the arm is a pose that spreads the arms, the left feature point 42 and the right feature point are determined from the vertical and horizontal two-dimensional coordinate values of the left feature point 42 and the right feature point 44 and a predetermined value that determines the front-back direction. 44 three-dimensional information is set in a pseudo manner, and posture parameter values of the arm joints are calculated by inverse kinematics processing. Then, the action of the player 2 is imitated on the upper body 6 u of the player character 6.
At this time, which arm the posture parameter calculated based on the position coordinate of which feature point is applied to depends on whether the virtual camera is shooting the player character 6 from behind or from the front. Of course, in the former case, the left and right sides are opposite, and in the latter case, the left and right sides are the same.

尚、本実施形態のTPSでは、プレーヤキャラクタ6は所定の戦闘位置に自動移動制御されそこで戦闘をする所謂レールトレーリングタイプを前提としているので、プレーヤキャラクタ6の下半身モデル6dは自動制御される。また、レールトレーリングタイプで無い場合でも、公知のFPSやTPSと同様にゲームコントローラ1230からの移動操作入力に応じてプレーヤキャラクタ6を移動させる場合には、同様に下半身モデル6dについてはプレーヤ2の動作を真似するのでなく、ゲームコントローラ1230からの移動操作に応じて下半身モデル6dの動作(挙動)を自動制御する方が好適である。   In the TPS of the present embodiment, since the player character 6 is assumed to be a so-called rail trailing type in which the player character 6 is automatically moved to a predetermined battle position and battles there, the lower body model 6d of the player character 6 is automatically controlled. Further, even when the player character 6 is moved in response to a moving operation input from the game controller 1230 as in the known FPS or TPS, even if the rail model is not a rail trailing type, the lower body model 6d is similarly changed by the player 2 It is preferable not to imitate the operation but to automatically control the operation (behavior) of the lower body model 6d in accordance with the moving operation from the game controller 1230.

また、本実施形態では、プレーヤ画像W2,W3,・・・から、人体シルエット30や特徴点40,42,44の座標を取得できる点を利用して、ジェスチャー入力を可能にしている。
例えば図7のプレーヤ画像W2→W4に示すように、頭部特徴点40の下方への基準値を超えた移動を検知した場合、或いは人体シルエット30の縦長さが所定の判定基準値に達した場合には、屈みジェスチャーが入力されたと判定し、プレーヤキャラクタ6に屈んで敵の攻撃を回避する屈み回避モーションをさせることができる。
In the present embodiment, gesture input is made possible by using the points where the coordinates of the human body silhouette 30 and the feature points 40, 42, 44 can be acquired from the player images W2, W3,.
For example, as shown in the player image W2 → W4 in FIG. 7, when a downward movement of the head feature point 40 exceeding the reference value is detected, or the vertical length of the human body silhouette 30 has reached a predetermined determination reference value. In this case, it can be determined that a bending gesture has been input, and a bending avoiding motion that avoids an enemy attack by bending to the player character 6 can be performed.

同様にして、図7のプレーヤ画像W2→W6に示すように、頭部特徴点40の左右方向への基準値を超えた移動を検知した場合、或いは人体シルエット30が基準値を超えて左/右へ傾斜しているのを検知した場合には、左右方向への横回避ジェスチャーが入力されたと判定し、プレーヤキャラクタ6の体を対応する横方向へ傾けて攻撃を避ける回避モーションを実行させることができる。尚、横方向への回避の場合には、仮想カメラがプレーヤキャラクタ6を後方から撮影する条件では、プレーヤ画像上での移動方向とは逆方向へプレーヤキャラクタ6を傾けて回避させる。つまり、撮影されたプレーヤ画像上、プレーヤ2が右へ体を傾けたら、プレーヤキャラクタ6は左へ傾けて回避運動するように制御される。   Similarly, as shown in the player image W2 → W6 in FIG. 7, when the movement of the head feature point 40 exceeding the reference value in the left-right direction is detected, or when the human body silhouette 30 exceeds the reference value, When it is detected that the robot is tilted to the right, it is determined that a lateral avoidance gesture in the left-right direction has been input, and an avoidance motion that avoids an attack by tilting the body of the player character 6 in the corresponding lateral direction is executed. Can do. In the case of avoidance in the horizontal direction, the player character 6 is tilted in the direction opposite to the moving direction on the player image under the condition that the virtual camera captures the player character 6 from behind. That is, when the player 2 tilts his body to the right on the captured player image, the player character 6 is controlled to tilt to the left and perform an avoidance exercise.

更に、図7のプレーヤ画像W2→W8に示すように、ジェスチャーによる入力は、プレーヤキャラクタ6の移動動作に限らず、例えば頭部特徴点40,左特徴点42,右特徴点44の相対位置関係が所定ポーズにおける相対位置関係に該当すると判定される場合、或いは人体シルエットの形状を所定の辞書パターンに類似するとパターンマッチング判定された場合には、特殊攻撃(SP攻撃)を発動するように制御することもできる。   Further, as shown in the player image W2 → W8 in FIG. 7, the input by the gesture is not limited to the movement action of the player character 6, but for example, the relative positional relationship of the head feature point 40, the left feature point 42, and the right feature point 44. Is determined to correspond to the relative positional relationship in a predetermined pose, or when a pattern matching determination is made that the shape of the human body silhouette is similar to a predetermined dictionary pattern, control is performed so that a special attack (SP attack) is activated. You can also.

本実施形態では、ジェスチャーやポーズによる操作入力をこれら3種のみとして説明するが、判定されるジェスチャーの種類を複数設定することで、攻撃技に限らず適宜、防御技や回復技、弾薬の補充などの発動を割り当てることができるのは勿論である。   In this embodiment, the operation input by gestures and poses is described as only these three types. However, by setting a plurality of types of gestures to be determined, not only attack techniques but also defense techniques, recovery techniques, and ammunition supplements as appropriate. Of course, it is possible to assign actions such as.

[機能ブロックの説明]
次に、上述のようなゲームを実行するための機能構成例について説明する。
図8は、本実施形態における機能構成の一例を示す機能ブロック図である。同図に示すように本実施形態では、操作入力部100と、プレーヤ撮影部110と、処理部200と、光信号発生部330と、音出力部350と、画像表示部360と、通信部370と、記憶部500とを備える。
[Description of functional block]
Next, a functional configuration example for executing the above-described game will be described.
FIG. 8 is a functional block diagram illustrating an example of a functional configuration according to the present embodiment. As shown in the figure, in the present embodiment, the operation input unit 100, the player photographing unit 110, the processing unit 200, the optical signal generation unit 330, the sound output unit 350, the image display unit 360, and the communication unit 370. And a storage unit 500.

操作入力部100は、プレーヤによって為された各種の操作入力に応じて操作入力信号を処理部200に出力する。本実施形態では、光信号受光部102と、通信部104とを含む。   The operation input unit 100 outputs an operation input signal to the processing unit 200 in accordance with various operation inputs made by the player. In the present embodiment, an optical signal light receiving unit 102 and a communication unit 104 are included.

操作入力部100は、ボタンスイッチや、ジョイスティック、タッチパッド、トラックボール、2軸以上の検出軸を有する多軸検出型加速度センサ又は検出軸方向を違えて組み合わされた単軸検出型加速度センサユニット、少なくとも2方向以上の検出方向を可能にする多方向検出型傾斜センサまたは検出方向を違えて組み合わされた単方向検出型傾斜センサユニット、などによって実現できる。本実施形態では、図2のゲームコントローラ1230が、操作入力部100に相当する。   The operation input unit 100 includes a button switch, a joystick, a touch pad, a trackball, a multi-axis detection type acceleration sensor having two or more detection axes, or a single axis detection type acceleration sensor unit combined with different detection axis directions, It can be realized by a multi-directional detection type inclination sensor that enables at least two detection directions or a single direction detection type inclination sensor unit combined with different detection directions. In the present embodiment, the game controller 1230 in FIG. 2 corresponds to the operation input unit 100.

光信号受光部102は、光信号発生部330から投光される光信号を受光し電気信号に変換することで画像データに変換するデバイスであって、例えばCCDセンサやCMOSセンサ、レンズ、光学フィルタ、信号変換処理をするDSP(デジタルシグナルプロセッサ)などによって実現される。図2のイメージセンサ1256や信号処理を行うコントローラ制御ユニット1260がこれに該当する。
尚、光信号発生部330は、LED等の発光素子、特定周波数の光のみを透過するフィルタなどにより実現され、ゲームコントローラ1230をポインティングデバイスとして利用するための基準位置を示す光信号を特定方向へ投光する。図1の光信号出力装置1226がこれに該当する。
The optical signal light receiving unit 102 is a device that receives an optical signal projected from the optical signal generating unit 330 and converts it into an electrical signal, thereby converting it into image data. For example, a CCD sensor, a CMOS sensor, a lens, an optical filter It is realized by a DSP (digital signal processor) that performs signal conversion processing. The image sensor 1256 in FIG. 2 and the controller control unit 1260 for performing signal processing correspond to this.
The optical signal generator 330 is realized by a light emitting element such as an LED, a filter that transmits only light of a specific frequency, and the like, and an optical signal indicating a reference position for using the game controller 1230 as a pointing device in a specific direction. Flood light. The optical signal output device 1226 in FIG. 1 corresponds to this.

通信部104は、ゲームコントローラ1230とゲーム装置本体1201との間のデータ通信を実現する。本実施形態では図2の短距離無線通信モジュール1262がこれに該当する。   The communication unit 104 realizes data communication between the game controller 1230 and the game apparatus main body 1201. In this embodiment, the short-range wireless communication module 1262 in FIG.

プレーヤ撮影部110は、プレーヤ2の様子を撮影して電気信号に変換し、デジタル画像データを生成し処理部200へ出力する。例えば、レンズ、メカシャッター、シャッタードライバ、CCDイメージセンサやCMOSイメージセンサといった光電変換素子、光電変換素子から電荷量を読み出し画像データを生成するデジタルシグナルプロセッサ(DSP)、ICメモリなどで実現される。図1ではイメージセンサモジュール1227がこれに該当する。   The player photographing unit 110 photographs the state of the player 2 and converts it into an electrical signal, generates digital image data, and outputs the digital image data to the processing unit 200. For example, it is realized by a lens, a mechanical shutter, a shutter driver, a photoelectric conversion element such as a CCD image sensor or a CMOS image sensor, a digital signal processor (DSP) that reads out the charge amount from the photoelectric conversion element and generates image data, an IC memory, or the like. In FIG. 1, the image sensor module 1227 corresponds to this.

処理部200は、例えばCPUやGPU等のマイクロプロセッサや、ASIC(特定用途向け集積回路)、ICメモリなどの電子部品によって実現され、操作入力部100や記憶部500を含む携帯型ゲーム装置1400の各機能部との間でデータの入出力を行う。そして、所定のプログラムやデータ、操作入力部100からの操作入力信号に基づいて各種の演算処理を実行してゲーム装置の動作を制御する。図1では制御ユニット1210がこれに該当する。そして本実施形態における処理部200は、ゲーム演算部210と、音生成部250と、画像生成部260と、通信制御部270とを備える。   The processing unit 200 is realized by electronic components such as a microprocessor such as a CPU and a GPU, an ASIC (application-specific integrated circuit), and an IC memory, and includes the operation input unit 100 and the storage unit 500. Input / output data to / from each functional unit. Then, various arithmetic processes are executed based on a predetermined program and data and an operation input signal from the operation input unit 100 to control the operation of the game apparatus. In FIG. 1, the control unit 1210 corresponds to this. The processing unit 200 in this embodiment includes a game calculation unit 210, a sound generation unit 250, an image generation unit 260, and a communication control unit 270.

ゲーム演算部210は、ゲームの進行に関する各種処理を実行する。例えば、(1)3次元仮想空間に背景モデルを配置してゲーム空間を形成する処理、(2)プレーヤ画像に基づいてプレーヤの体形や着衣の色を似せたプレーヤキャラクタ6のゲームで使用するモデルを生成する処理、(3)ゲーム空間内にプレーヤキャラクタ6及び敵キャラクタ10のモデルを配置する処理、(4)敵キャラクタ10の自動動作制御処理、(5)モデル間の衝突判定処理、(6)攻撃のヒット判定、(7)ダメージの算出処理、(8)ダメージの反映処理が含まれる。   The game calculation unit 210 executes various processes related to the progress of the game. For example, (1) a process for forming a game space by placing a background model in a three-dimensional virtual space, and (2) a model used in a game of a player character 6 that resembles the player's body shape and clothing color based on the player image. (3) Processing for placing models of the player character 6 and the enemy character 10 in the game space, (4) Automatic motion control processing for the enemy character 10, (5) Collision determination processing between models, (6 ) Attack hit determination, (7) damage calculation process, and (8) damage reflection process.

そして、本実施形態のゲーム演算部210は、ポインター制御部212と、プレーヤキャラクタ移動制御部214と、仮想カメラ制御部216と、人体シルエット抽出部218と、特徴点情報取得部220と、ジェスチャー判定部222と、プレーヤキャラクタ挙動制御部224とを含む。   The game calculation unit 210 of this embodiment includes a pointer control unit 212, a player character movement control unit 214, a virtual camera control unit 216, a human body silhouette extraction unit 218, a feature point information acquisition unit 220, and a gesture determination. Unit 222 and player character behavior control unit 224.

ポインター制御部212は、光信号受光部102で受光した光信号発生部330から発せられた光信号を撮影した画像を元に、ゲーム画面内へポインター4を表示制御する。   The pointer controller 212 controls the display of the pointer 4 in the game screen based on an image obtained by photographing the optical signal emitted from the optical signal generator 330 received by the optical signal receiver 102.

プレーヤキャラクタ移動制御部214は、プレーヤキャラクタ6の移動を自動制御する。本実施形態のTPSはレールトレーリングタイプなので、プレーヤキャラクタ6の下半身モデル6d(図6参照)に所定の歩行/走りモーションで動作制御しつつ、ゲーム空間内に予め定められている複数の戦闘位置へ決められた順番に従って段階的に移動制御する。   The player character movement control unit 214 automatically controls the movement of the player character 6. Since the TPS of this embodiment is a rail trailing type, a plurality of battle positions determined in advance in the game space while controlling the motion of the lower half model 6d of the player character 6 (see FIG. 6) with a predetermined walking / running motion. The movement is controlled step by step according to the determined order.

仮想カメラ制御部216は、3人称視点として仮想カメラの移動を制御する。具体的には、ゲームステージ毎にプレーヤキャラクタ6に対する相対位置と撮影方向を定義する情報に従って仮想カメラの位置と姿勢を制御する。   The virtual camera control unit 216 controls the movement of the virtual camera as a third person viewpoint. Specifically, the position and orientation of the virtual camera are controlled according to information defining the relative position and shooting direction with respect to the player character 6 for each game stage.

人体シルエット抽出部218は、プレーヤ撮影部110で撮影したプレーヤ画像から人体シルエット30を抽出する。抽出技術は、公知のシルエット抽出技術や、輪郭線抽出技術等を利用することで実現できる。   The human body silhouette extraction unit 218 extracts the human body silhouette 30 from the player image photographed by the player photographing unit 110. The extraction technique can be realized by using a known silhouette extraction technique, a contour line extraction technique, or the like.

特徴点情報取得部220は、プレーヤ撮影部110で撮影したプレーヤ画像からプレーヤ2の頭部や左右の手、関節位置などの特徴点を抽出し、ゲームプレイ中に常時撮影されるプレーヤ画像内から各特徴点の座標値を常時算出する。例えば、画像処理によって人体の顔や手の撮影されている部分を検知する技術や、ジェスチャー検出技術の前処理における人体の部分検知に関する技術を適宜利用することができる。   The feature point information acquisition unit 220 extracts feature points such as the head, left and right hands, and joint positions of the player 2 from the player image photographed by the player photographing unit 110, and from the player image constantly photographed during game play. The coordinate value of each feature point is always calculated. For example, it is possible to appropriately use a technique for detecting a part of a human face or hand that has been photographed by image processing or a technique for detecting a part of a human body in preprocessing of a gesture detection technique.

ジェスチャー判定部222は、プレーヤ撮影部110で撮影したプレーヤ画像から、所定のジェスチャーを検出する。例えば、人体シルエットの全体形状を所定の辞書データと照合するパターン認識技術などの公知のジェスチャー入力に関する技術を適宜利用できる。また、人体シルエットの大きさ変化や傾斜変化の検出によっても実現できる。   The gesture determination unit 222 detects a predetermined gesture from the player image photographed by the player photographing unit 110. For example, a known gesture input technique such as a pattern recognition technique for matching the entire shape of the human body silhouette with predetermined dictionary data can be used as appropriate. It can also be realized by detecting changes in the size and inclination of the human body silhouette.

プレーヤキャラクタ挙動制御部224は、プレーヤキャラクタ6の上半身モデル6aの挙動を制御する。すなわち、ジェスチャー判定部222によって所定のジェスチャーが検知された場合には、検知されたジェスチャーに予め対応づけられたモーションで動作制御する。また、特徴点情報取得部220で取得した左特徴点42及び右特徴点44の位置が所定の判定領域50より外の場合に、プレーヤ画像を画像処理して得られる上下・左右の2次元位置座標と、所定の前後座標値とから各特徴点の擬似的な3次元座標値を形成する。そして、インバースキネマティクス処理によって腕関節の姿勢パラメータ値を逆算し、得られた姿勢パラメータ値に基づいてプレーヤキャラクタ6を動作制御して、プレーヤ2の上半身の動作を真似させる制御をする。   The player character behavior control unit 224 controls the behavior of the upper body model 6 a of the player character 6. That is, when a predetermined gesture is detected by the gesture determination unit 222, operation control is performed with a motion previously associated with the detected gesture. In addition, when the positions of the left feature point 42 and the right feature point 44 acquired by the feature point information acquisition unit 220 are outside the predetermined determination area 50, the two-dimensional vertical and horizontal two-dimensional positions obtained by image processing of the player image A pseudo three-dimensional coordinate value of each feature point is formed from the coordinates and predetermined front and rear coordinate values. Then, the posture parameter value of the arm joint is reversely calculated by the inverse kinematics process, and the player character 6 is controlled based on the obtained posture parameter value, and the control of imitating the motion of the upper body of the player 2 is performed.

音生成部250は、例えばデジタルシグナルプロセッサ(DSP)、音声合成ICなどのプロセッサや、音声ファイル再生可能なオーディオコーデックによって実現され、ゲーム演算部210による処理結果に基づいてゲームに係る効果音やBGM、各種操作音の音信号を生成し、音出力部350に出力する。   The sound generation unit 250 is realized by a processor such as a digital signal processor (DSP) or a voice synthesis IC, or an audio codec capable of playing back an audio file, for example. Based on the processing result of the game calculation unit 210, sound effects and BGM related to the game Then, sound signals of various operation sounds are generated and output to the sound output unit 350.

音出力部350は、音生成部250から入力される音信号に基づいて効果音やBGM等を音出力する装置によって実現される。図1ではスピーカ1224がこれに該当する。   The sound output unit 350 is realized by a device that outputs sound effects, BGM, and the like based on the sound signal input from the sound generation unit 250. In FIG. 1, the speaker 1224 corresponds to this.

画像生成部260は、例えば、GPU(Graphics Processing Unit)、デジタルシグナルプロセッサ(DSP)などのプロセッサ、ビデオ信号IC、ビデオコーデックなどのプログラム、フレームバッファ等の描画フレーム用ICメモリ等によって実現される。画像生成部260は、ゲーム演算部210による処理結果に基づいて1フレーム時間(例えば1/60秒)で1枚のゲーム画像を生成し、生成したゲーム画像の画像信号を画像表示部360に出力する。   The image generation unit 260 is realized by, for example, a processor such as a GPU (Graphics Processing Unit) or a digital signal processor (DSP), a program such as a video signal IC or a video codec, an IC memory for a drawing frame such as a frame buffer, or the like. The image generation unit 260 generates one game image in one frame time (for example, 1/60 second) based on the processing result by the game calculation unit 210, and outputs an image signal of the generated game image to the image display unit 360. To do.

画像表示部360は、画像生成部260から入力される画像信号に基づいて各種ゲーム画像を表示する。例えば、フラットパネルディスプレイ、ブラウン管(CRT)、プロジェクター、ヘッドマウントディスプレイといった画像表示装置によって実現できる。図1では画像表示装置1222がこれに該当する。   The image display unit 360 displays various game images based on the image signal input from the image generation unit 260. For example, it can be realized by an image display device such as a flat panel display, a cathode ray tube (CRT), a projector, or a head mounted display. In FIG. 1, the image display device 1222 corresponds to this.

通信制御部270は、データ通信に係るデータ処理を実行し、通信部370を介して外部装置とのデータのやりとりを実現する。   The communication control unit 270 executes data processing related to data communication, and realizes data exchange with an external device via the communication unit 370.

通信部370は、通信回線1と接続して通信を実現する。例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現され、図1の通信装置1212、近距離無線通信モジュール1214がこれに該当する。   The communication unit 370 is connected to the communication line 1 to realize communication. For example, a wireless communication device, a modem, a TA (terminal adapter), a wired communication cable jack, a control circuit, and the like are realized, and the communication device 1212 and the short-range wireless communication module 1214 in FIG.

記憶部500は、処理部200に家庭用ゲーム装置1200を統合的に制御させるための諸機能を実現するためのシステムプログラムや、ゲームを実行させるために必要なゲームプログラム、各種データ等を記憶する。また、処理部200の作業領域として用いられ、処理部200が各種プログラムに従って実行した演算結果や操作入力部100から入力される入力データ等を一時的に記憶する。この機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD−ROMやDVD、BD(Blueray Disc(登録商標))などの光学ディスクなどによって実現される。図1では制御ユニット1210が搭載するICメモリや光ディスク1402、メモリカード1404がこれに該当する。   The storage unit 500 stores a system program for realizing various functions for causing the processing unit 200 to control the home game device 1200 in an integrated manner, a game program necessary for executing the game, various data, and the like. . Further, it is used as a work area of the processing unit 200, and temporarily stores calculation results executed by the processing unit 200 according to various programs, input data input from the operation input unit 100, and the like. This function is realized by, for example, an IC memory such as a RAM or a ROM, a magnetic disk such as a hard disk, an optical disk such as a CD-ROM, DVD, or BD (Blueray Disc (registered trademark)). In FIG. 1, the IC memory, the optical disk 1402, and the memory card 1404 mounted on the control unit 1210 correspond to this.

本実施形態では、記憶部500はシステムプログラム501と、ゲームプログラム502とを記憶している。システムプログラム501は、家庭用ゲーム装置1200の基本機能を実現するためのプログラムであり、各機能部をアプリケーションソフト側で呼び出して利用可能な各種ファームウェアを含む。ゲームプログラム502は、処理部200が読み出して実行することによってゲーム演算部210としての機能を実現させるためのソフトウェアである。   In the present embodiment, the storage unit 500 stores a system program 501 and a game program 502. The system program 501 is a program for realizing the basic functions of the consumer game device 1200, and includes various types of firmware that can be used by calling each function unit on the application software side. The game program 502 is software for realizing a function as the game calculation unit 210 by being read and executed by the processing unit 200.

また、記憶部500には、予め用意されるデータとして、ゲーム空間設定データ504と、プレーヤキャラクタ初期設定データ510と、ジェスチャー辞書データ530とが記憶されている。更に、ゲームの準備や進行に伴って随時生成や更新が行われるデータとして、プレーヤキャラクタステータスデータ540と、特徴点データ550と、左右対応設定データ552と、プレーヤ画像一時記憶データ560とを記憶する。
また、ゲームの進行に係る処理を実行するにあたり必要となるデータ(例えば、タイマー値やカウンタ)、仮想カメラの位置や姿勢と言った制御情報、各敵キャラクタ10の位置情報やヒットポイント情報などの制御情報なども公知のTPSと同様に適宜記憶されるものとする。
The storage unit 500 stores game space setting data 504, player character initial setting data 510, and gesture dictionary data 530 as data prepared in advance. Furthermore, player character status data 540, feature point data 550, left / right correspondence setting data 552, and player image temporary storage data 560 are stored as data that is generated and updated as needed as the game is prepared and progressed. .
In addition, data (for example, timer values and counters) necessary for executing processing related to the progress of the game, control information such as the position and posture of the virtual camera, position information and hit point information of each enemy character 10, etc. Control information and the like are also stored as appropriate in the same manner as known TPS.

ゲーム空間設定データ504は、3次元仮想空間にゲーム空間を形成し、敵キャラクタ10を配置してゲームステージとするための情報が格納されている。
例えば、図9に示すように、ゲームステージ毎に纏められたステージデータセット504aを複数格納する。1つのステージデータセット504aには、(1)壁や階段、通路等を配置するための背景オブジェクトの配置位置、姿勢などを定義する背景オブジェクトデータ504bと、(2)登場する敵キャラクタ10のポリゴンモデルやテクスチャ、モーションデータ、ヒットポイント初期値などを格納する敵キャラクタ設定データ504cと、(3)敵キャラクタ毎の配置位置座標を格納する敵キャラクタ配置データ504dと、(4)当該ゲームステージにおける複数の戦闘位置及びそれらの経由順番などを対応づけて格納する戦闘位置設定データ504eと、(5)当該ゲームステージにおける仮想カメラとプレーヤキャラクタ6との相対位置及び撮影方向、撮影画角等の情報を格納する仮想カメラ撮影条件データ504fとを含む。
The game space setting data 504 stores information for forming a game space in the three-dimensional virtual space and arranging the enemy character 10 as a game stage.
For example, as shown in FIG. 9, a plurality of stage data sets 504a collected for each game stage are stored. One stage data set 504a includes (1) background object data 504b that defines the arrangement position and posture of a background object for arranging walls, stairs, passages, and the like, and (2) a polygon of the enemy character 10 that appears. Enemy character setting data 504c for storing models, textures, motion data, hit point initial values, etc., (3) enemy character arrangement data 504d for storing arrangement position coordinates for each enemy character, and (4) a plurality of items in the game stage. Battle position setting data 504e that stores the battle positions and their transit order in association with each other, and (5) information on the relative position, shooting direction, shooting angle of view, etc. of the virtual camera and the player character 6 on the game stage. Virtual camera shooting condition data 504f to be stored.

仮想カメラ撮影条件データ504fは、本実施形態では、プレーヤキャラクタ6の後方斜め上から撮影する3人称視点を基本に設定されているが、ゲームステージによってはプレーヤキャラクタ6の前方からその正面を写し、プレーヤキャラクタ6の背後から敵が迫るシチュエーションを実現するように設定されても良い。   In this embodiment, the virtual camera shooting condition data 504f is set based on a third-person viewpoint for shooting from the diagonally upper rear side of the player character 6, but depending on the game stage, the front of the player character 6 is copied, It may be set so as to realize a situation in which an enemy approaches from behind the player character 6.

プレーヤキャラクタ初期設定データ510は、プレーヤキャラクタ6の表示用モデルを形成するためのポリゴンモデルデータや、テクスチャデータ、モーションデータ、及びヒットポイント初期値、所持する銃8などのアイテムの表示用モデルに関するデータを格納する。本実施形態では例えば図10に示すように、骨格モデルデータ511と、ポリゴンモデルデータ512と、テクスチャデータライブラリ514と、モーションデータライブラリ516とを含む。   The player character initial setting data 510 is data relating to polygon model data for forming a display model for the player character 6, texture data, motion data, hit point initial values, and a display model for items such as the gun 8 possessed. Is stored. In this embodiment, for example, as shown in FIG. 10, skeleton model data 511, polygon model data 512, a texture data library 514, and a motion data library 516 are included.

ポリゴンモデルデータ512には、上半身ポリゴンモデル512aと下半身ポリゴンモデル512bとが含まれる。表示する際には、これら両ポリゴンモデルは所定位置(例えば腰のベルト位置)で連結されてプレーヤキャラクタ6の全身のポリゴンモデルとして扱われる。   The polygon model data 512 includes an upper body polygon model 512a and a lower body polygon model 512b. At the time of display, these two polygon models are connected at a predetermined position (for example, waist belt position) and are treated as a polygon model of the whole body of the player character 6.

テクスチャデータライブラリ514は、プレーヤキャラクタ6のポリゴンモデルに適用される複数のテクスチャデータ514bを、選択条件514a別に格納する。選択条件514aは、本実施形態ではゲーム開始前に第2キャリブレーション画像C2から抽出された人体シルエット30に含まれる画素の色情報から求められる統計的色情報(例えば、含有率の高い色相、及びそれらの組み合わせなど)が適宜設定できる。本実施形態では、得られた統計的色情報と同系色で配色されたテクスチャデータが対応づけられている。   The texture data library 514 stores a plurality of texture data 514b applied to the polygon model of the player character 6 for each selection condition 514a. In the present embodiment, the selection condition 514a is statistical color information (for example, a hue with a high content rate) obtained from color information of pixels included in the human body silhouette 30 extracted from the second calibration image C2 before the game starts. A combination thereof can be set as appropriate. In this embodiment, the obtained statistical color information is associated with texture data arranged in a similar color.

モーションデータライブラリ516は、操作コマンド516aと対応づけてプレーヤキャラクタ6の各種モーションデータ516bと、モーション発動時に付属して行われるエフェクト表示等を実現するための付属演出データ516cとを格納する。   The motion data library 516 stores various motion data 516b of the player character 6 in association with the operation command 516a, and attached effect data 516c for realizing effect display and the like performed when the motion is activated.

ジェスチャー辞書データ530は、例えば図11に示すように、プレーヤ画像から特定のジェスチャーを検出するための辞書データとなる複数のジェスチャーパターンデータ530aを、操作コマンド530bと対応づけて格納する。ジェスチャーパターンデータ530aは、ジェスチャー判定の方法に応じて適宜設定することができる。例えば、ジェスチャーを人体シルエット30の形状で判定する場合には、パターンマッチングの辞書データとすればよい。   For example, as shown in FIG. 11, the gesture dictionary data 530 stores a plurality of gesture pattern data 530a serving as dictionary data for detecting a specific gesture from a player image in association with an operation command 530b. The gesture pattern data 530a can be set as appropriate according to the gesture determination method. For example, in the case where the gesture is determined by the shape of the human body silhouette 30, the pattern matching dictionary data may be used.

プレーヤキャラクタステータスデータ540は、ゲーム進行中にプレーヤキャラクタ6を制御するために必要な各種パラメータの情報を格納する。例えば図12に示すように、適用プレーヤキャラクタモデルデータ542と、関節の角度によって姿勢を示す姿勢パラメータデータ544と、ヒットポイント546と、モーション制御データ548とを含む。勿論、これら以外にも適宜格納できる。   The player character status data 540 stores information on various parameters necessary for controlling the player character 6 while the game is in progress. For example, as shown in FIG. 12, it includes applied player character model data 542, posture parameter data 544 indicating a posture based on a joint angle, hit points 546, and motion control data 548. Of course, other than these can be stored as appropriate.

適用プレーヤキャラクタモデルデータ542は、プレーヤキャラクタ初期設定データ510のポリゴンモデルデータ512の複製を元にプレーヤ2の体形を反映するべく変更されたポリゴンモデルデータを格納する適用ポリゴンモデルデータ542aと、プレーヤキャラクタ初期設定データ510のテクスチャデータライブラリ514から選択されたテクスチャデータ514bを格納する適用テクスチャデータ542bとを含む。   The applied player character model data 542 includes applied polygon model data 542a that stores polygon model data changed to reflect the shape of the player 2 based on a copy of the polygon model data 512 of the player character initial setting data 510, and the player character. And applied texture data 542b for storing texture data 514b selected from the texture data library 514 of the initial setting data 510.

姿勢パラメータデータ544は、プレーヤキャラクタ6の骨格モデル511の各関節の姿勢パラメータを格納する。
モーション制御データ548は、現在実行中のモーション制御を管理するための情報を格納する。
The posture parameter data 544 stores posture parameters of each joint of the skeleton model 511 of the player character 6.
The motion control data 548 stores information for managing the currently executed motion control.

特徴点データ550は、プレーヤ画像から得られた各特徴点の情報を格納する。例えば、プレーヤ画像の画像座標系における座標値、頭部特徴点40を基準点とする相対位置座標値と言った情報を格納する。   The feature point data 550 stores information on each feature point obtained from the player image. For example, information such as a coordinate value in the image coordinate system of the player image and a relative position coordinate value with the head feature point 40 as a reference point is stored.

左右対応設定データ552は、その時のプレーヤ画像における左右とプレーヤキャラクタ6における左右との対応関係を設定する情報である。仮想カメラがプレーヤキャラクタ6の後方から撮影するステージでは、プレーヤ画像方向552aの「左」「右」にそれぞれ対応するプレーヤキャラクタ方向552bには「右」「左」が設定され、仮想カメラがプレーヤキャラクタ6の前方から撮影するステージでは、プレーヤ画像方向552aの「左」「右」にそれぞれ対応するプレーヤキャラクタ方向552bには「左」「右」が設定される。   The left / right correspondence setting data 552 is information for setting the correspondence between the left and right in the player image at that time and the left and right in the player character 6. On the stage where the virtual camera shoots from behind the player character 6, “right” and “left” are set in the player character direction 552b corresponding to “left” and “right” in the player image direction 552a, respectively. 6, “left” and “right” are set in the player character direction 552b corresponding to “left” and “right” in the player image direction 552a, respectively.

プレーヤ画像一時記憶データ560は、複数フレーム分のプレーヤ画像の画像データを所定数一時的に格納できる。格納されている画像データは古い順から順次消去され新たな画像データが格納される。   The player image temporary storage data 560 can temporarily store a predetermined number of image data of player images for a plurality of frames. The stored image data is sequentially deleted from the oldest and new image data is stored.

[処理の流れの説明]
次に、本実施形態における処理の流れについて説明する。ここで説明する一連の処理は、処理部200がゲームプログラム502を読み出して実行することによって実現される。
[Description of process flow]
Next, the flow of processing in this embodiment will be described. A series of processing described here is realized by the processing unit 200 reading and executing the game program 502.

図14は、本実施形態における主たる処理の流れを説明するためのフローチャートである。先ず処理部200は、イメージセンサモジュール1227によるプレーヤ画像の撮影を開始し(ステップS2)、モデルマッチング処理を実行する(ステップS4)。   FIG. 14 is a flowchart for explaining the main processing flow in the present embodiment. First, the processing unit 200 starts shooting a player image by the image sensor module 1227 (step S2), and executes model matching processing (step S4).

図15は、モデルマッチング処理の流れを説明するためのフローチャートである。処理部200は、画像表示装置1222でプレーヤへ向けて撮影範囲に入らないように指示する操作ガイド表示をするとともにイメージセンサモジュール1227によって撮影されている画像のライブビュー表示をし、第1キャリブレーション画像C1を撮影する(ステップS50;図5参照)。同様に、プレーヤへ今度は撮影範囲の中央に入ってイメージセンサモジュール1227に向けて立位正面で両手を左右に広げた所定ポーズをとるように指示し、第2キャリブレーション画像C2を撮影する(ステップS52)。   FIG. 15 is a flowchart for explaining the flow of the model matching process. The processing unit 200 performs an operation guide display for instructing the player not to enter the shooting range on the image display device 1222 and a live view display of the image shot by the image sensor module 1227 to perform the first calibration. The image C1 is photographed (step S50; see FIG. 5). Similarly, the player is instructed to enter the center of the shooting range and take a predetermined pose with both hands left and right in front of the image sensor module 1227 in the standing position, and the second calibration image C2 is shot ( Step S52).

次に、第1キャリブーション画像C1と第2キャリブレーション画像C2との差分から第2キャリブレーション画像C2における人体シルエット30を抽出し(ステップS54)、抽出した人体シルエット30からプレーヤ2の体形を推定するためのパラメータ値として横幅Lb(図5参照)を算出する(ステップS56)。   Next, the human body silhouette 30 in the second calibration image C2 is extracted from the difference between the first calibration image C1 and the second calibration image C2 (step S54), and the body shape of the player 2 is extracted from the extracted human body silhouette 30. The lateral width Lb (see FIG. 5) is calculated as a parameter value for estimation (step S56).

そして、横幅Lbを所定の基準値と比較してプレーヤ2の体形分類を判定し、判定された体形分類に応じてプレーヤキャラクタ6の胴回りの寸法を変更し、変更されたポリゴンモデルを適用ポリゴンモデルデータ542aとする(ステップS58)。尚、適用プレーヤキャラクタモデルの生成は、プレーヤキャラクタ6のポリゴンモデルを変形するのではなく、予め体形分類毎にポリゴンモデルを用意しておいて、何れかを選択使用する構成としても良い。   Then, the body width classification of the player 2 is determined by comparing the horizontal width Lb with a predetermined reference value, the size of the trunk of the player character 6 is changed according to the determined body classification, and the changed polygon model is applied to the applied polygon model. Data 542a is set (step S58). It should be noted that the generation of the applied player character model may be configured such that a polygon model is prepared in advance for each body shape classification and any one is selected and used instead of deforming the polygon model of the player character 6.

次に処理部200は、抽出された人体シルエット30に含まれる画素の色情報を統計処理して、プレーヤ2の着衣をイメージさせる統計的色情報を求め(ステップS60)、統計的色情報に該当するテクスチャデータライブラリ514の選択条件514aに対応づけられたテクスチャデータ514bを、適用テクスチャデータ542bとし(ステップS62)、モデルマッチング処理を終了する。   Next, the processing unit 200 performs statistical processing on the color information of the pixels included in the extracted human body silhouette 30 to obtain statistical color information that causes the player 2 to image clothing (step S60), and corresponds to the statistical color information. The texture data 514b associated with the selection condition 514a of the texture data library 514 to be used is set as the applied texture data 542b (step S62), and the model matching process is terminated.

図14のフローチャートに戻って、処理部200は次に第2キャリブレーション画像C2を元にプレーヤ2の像から頭部特徴点40と左特徴点42と右特徴点44とを認識し(ステップS6)、イメージセンサモジュール1227にて撮影されるフレーム毎について各特徴点の情報を常時算出し特徴点データ550に格納するトレース処理を開始する(ステップS8)。   Returning to the flowchart of FIG. 14, the processing unit 200 recognizes the head feature point 40, the left feature point 42, and the right feature point 44 from the image of the player 2 based on the second calibration image C2 (step S6). ), A trace process for constantly calculating the information of each feature point for each frame photographed by the image sensor module 1227 and storing it in the feature point data 550 is started (step S8).

次いで、処理部200は、ゲーム空間設定データ504から今回使用するゲームステージのゲームステージデータセット504aをランダムに選択し、選択したステージにおける仮想カメラ撮影条件データ504fを参照して、仮想カメラがプレーヤキャラクタ6を後方から撮影するか前方から撮影するかに応じて、左右対応設定データ552を設定する(ステップS10)。つまり、プレーヤ2が画像表示装置1222に正対した場合のプレーヤの右の腕が仮想カメラから見たプレーヤキャラクタ6の右側の腕に、左の腕が仮想カメラから見たプレーヤキャラクタ6の左側の腕に対応するように、仮想カメラのプレーヤキャラクタ6に対する相対撮影位置に応じて、プレーヤ画像の左右とプレーヤキャラクタ6の左右との対応関係を設定する。   Next, the processing unit 200 randomly selects the game stage data set 504a of the game stage to be used this time from the game space setting data 504, and refers to the virtual camera shooting condition data 504f at the selected stage, so that the virtual camera is the player character. The left / right correspondence setting data 552 is set according to whether 6 is photographed from the rear or the front (step S10). That is, when the player 2 faces the image display device 1222, the right arm of the player is on the right arm of the player character 6 viewed from the virtual camera, and the left arm is on the left side of the player character 6 viewed from the virtual camera. The correspondence between the left and right of the player image and the left and right of the player character 6 is set according to the relative shooting position of the virtual camera with respect to the player character 6 so as to correspond to the arm.

そして、選択したゲームステージのステージデータセット504aに従って3次元仮想空間にゲーム空間を形成し、敵キャラクタ10と、プレーヤキャラクタ6と仮想カメラとを配置する(ステップS12)。
次いで、ゲーム画像の生成を開始して(ステップS14)、ゲームをスタートさせる(ステップS16)。
Then, a game space is formed in the three-dimensional virtual space according to the stage data set 504a of the selected game stage, and the enemy character 10, the player character 6, and the virtual camera are arranged (step S12).
Next, generation of a game image is started (step S14), and the game is started (step S16).

ゲームをスタートさせたならば、処理部200はステップS18〜S34の処理を、所定のゲーム終了条件を満たすまで画像表示装置1222のリフレッシュレートに対応する制御サイクルで繰り返し実行する。
具体的には、先ずゲーム空間設定データ504の現在プレイ中のゲームステージのステージデータセット504aを参照し、戦闘位置設定データ504eの設定に従ってプレーヤキャラクタ6と仮想カメラの移動制御を、今回の制御サイクル分だけ実行する(ステップS18)。プレーヤキャラクタ6を移動させる際には、処理部200はプレーヤキャラクタ6が歩いたり走ったりするように下半身モデル6dのモーションを制御する。
If the game is started, the processing unit 200 repeatedly executes the processes in steps S18 to S34 in a control cycle corresponding to the refresh rate of the image display device 1222 until a predetermined game end condition is satisfied.
Specifically, first, referring to the stage data set 504a of the game stage currently being played in the game space setting data 504, the movement control of the player character 6 and the virtual camera is controlled according to the setting of the battle position setting data 504e. This is executed for the number of minutes (step S18). When moving the player character 6, the processing unit 200 controls the motion of the lower body model 6d so that the player character 6 walks and runs.

次に、処理部200はNPCである敵キャラクタ10の動作を自動制御し(ステップS20)、ジェスチャー辞書データ530を参照して、プレーヤ画像から操作コマンドに対応づけられた特定のジェスチャーを検出する(ステップS22)。そして、プレーヤキャラクタ6の上半身の挙動を制御するプレーヤキャラクタ挙動制御処理を実行する(ステップS24)。   Next, the processing unit 200 automatically controls the action of the enemy character 10 which is an NPC (step S20), and refers to the gesture dictionary data 530 to detect a specific gesture associated with the operation command from the player image ( Step S22). Then, a player character behavior control process for controlling the behavior of the upper body of the player character 6 is executed (step S24).

図16〜図17は、本実施形態におけるプレーヤキャラクタ挙動制御処理の流れを説明するためのフローチャートである。
同処理では先ず、処理部200は現在実行中のモーションが有るか否かを判定する(ステップS80)。もし、実行中のモーションが無く(ステップS80のNO)、且つステップS22のジェスチャー検出処理によって、SP(スペシャル)攻撃の操作コマンドに対応するジェスチャーが検知された場合(ステップS84のYES)、処理部200はプレーヤキャラクタ初期設定データ510のモーションデータライブラリ516を参照して、SP攻撃の操作コマンド516aに対応づけられた付属演出データ516cに従って演出表示を実行する(ステップS86)。そして、対応するモーションデータ516bに従ったプレーヤキャラクタ6の動作制御を開始し(ステップS88)、プレーヤキャラクタ挙動制御処理を終了する。尚、この時のモーション制御ではプレーヤキャラクタ6の下半身モデル6dを一緒に制御する構成としても良いし、上半身モデル6uのみを制御する構成としても良い。
16 to 17 are flowcharts for explaining the flow of the player character behavior control process in the present embodiment.
In this process, first, the processing unit 200 determines whether or not there is a motion currently being executed (step S80). If there is no motion being executed (NO in step S80) and the gesture corresponding to the SP (special) attack operation command is detected by the gesture detection process in step S22 (YES in step S84), the processing unit Reference numeral 200 refers to the motion data library 516 of the player character initial setting data 510 and executes effect display according to the attached effect data 516c associated with the SP attack operation command 516a (step S86). Then, the motion control of the player character 6 according to the corresponding motion data 516b is started (step S88), and the player character behavior control process is ended. The motion control at this time may be configured to control the lower body model 6d of the player character 6 together or may be configured to control only the upper body model 6u.

実行中のモーションが無く、且つステップS22のジェスチャー検出処理によって、右回避又は左回避の操作コマンドに対応するジェスチャーが検知された場合(ステップS90のYES)、処理部200は、左右対応設定データ552を参照して、その時プレイしているゲームステージにおいて仮想カメラがプレーヤキャラクタ6を前方から撮影しているか後方から撮影しているかその撮影方向に応じて、検出された横回避ジェスチャーのプレーヤ画面における左右方向と同方向又は逆方向への回避行動をするようにプレーヤキャラクタ6の横回避動作制御を開始し(ステップS92)、プレーヤキャラクタ挙動制御処理を終了する。   When there is no motion being executed and a gesture corresponding to the right avoidance or left avoidance operation command is detected by the gesture detection process in step S22 (YES in step S90), the processing unit 200 sets the left / right correspondence setting data 552. Referring to the left and right sides of the player screen of the side avoidance gesture detected depending on whether the virtual camera is shooting the player character 6 from the front or from the back in the game stage being played at that time The lateral avoidance motion control of the player character 6 is started so as to perform an avoidance action in the same direction as the direction or in the opposite direction (step S92), and the player character behavior control process is ended.

また、実行中のモーションが無く、且つ屈み回避の操作コマンドに対応するジェスチャーが検知された場合(ステップS94のYES)、処理部200はプレーヤキャラクタ6の屈み回避動作制御を開始し(ステップS96)、プレーヤキャラクタ挙動制御処理を終了する。   If there is no motion being executed and a gesture corresponding to the bending avoidance operation command is detected (YES in step S94), the processing unit 200 starts the bending avoiding motion control of the player character 6 (step S96). Then, the player character behavior control process is terminated.

尚、ここではジェスチャー入力可能な種類をSP攻撃と、横回避と、屈み回避に限定して説明したが、その他のジェスチャー入力を可能な構成とした場合には、その他のジェスチャー入力についても同様の処理を実行するものとする。   Here, the types of gesture input that can be performed are limited to SP attack, side avoidance, and bend avoidance. However, when other gesture inputs are possible, the same applies to other gesture inputs. Processing shall be executed.

さて、何れのジェスチャーによる入力も検知されなかった場合には(ステップS94のNO)、処理部200はプレーヤキャラクタへのダメージ判定処理を実行する(ステップS98)。すなわち、敵キャラクタ10の攻撃のヒット判定と、ヒットした敵の攻撃によるダメージ値の算出を行う。   When no gesture input is detected (NO in step S94), the processing unit 200 executes a damage determination process for the player character (step S98). That is, the hit determination of the attack of the enemy character 10 and the damage value due to the attack of the hit enemy are calculated.

そして、判定されたダメージが敵キャラクタ10による特別攻撃による大ダメージであって(ステップS100のYES)、更に今回受けたダメージ量が所定の部位破損条件を満たす場合(ステップS102のYES)、処理部200は手、前腕、上腕、肩といった腕の部分や、耳などの所定の選択候補部位の中から何れかの部位をランダムに選択して、選択された部位から先を非表示に設定する(ステップS104)。更に、部位が破損する演出を実行して(ステップS106)、プレーヤキャラクタ6が所定のダメージを受けて倒れるダメージ動作をするように動作制御を開始し(ステップS108)、プレーヤキャラクタ挙動制御処理を終了する。勿論、今回受けたダメージ量が所定の部位破損条件を満たさなければ、部位の選択と非表示設定の処理及び部位破損に係る演出表示処理はスキップされる。また、破損部位として選択されずに表示状態のまま残った他の部位については今まで通り動作制御される。   If the determined damage is a large damage due to a special attack by the enemy character 10 (YES in step S100) and the amount of damage received this time satisfies a predetermined site breakage condition (YES in step S102), the processing unit Reference numeral 200 denotes a random selection of any part from the arm parts such as the hand, the forearm, the upper arm, and the shoulder, and predetermined selection candidate parts such as the ears, and the selected part is set to be non-displayed ( Step S104). Further, an effect that the part is damaged is executed (step S106), and the motion control is started so that the player character 6 performs a damaging motion that falls upon receiving predetermined damage (step S108), and the player character behavior control process is ended. To do. Of course, if the amount of damage received this time does not satisfy the predetermined part damage condition, the part selection and non-display setting process and the effect display process related to part damage are skipped. In addition, the operation of other parts that remain in the display state without being selected as damaged parts is controlled as before.

一方、判定されたダメージが敵キャラクタ10による特別攻撃による大ダメージでなければ(ステップS100のNO)、処理部200は左特徴点42及び右特徴点44の判定領域50の外に出ているか内に存在するかを判定する(ステップS120)。   On the other hand, if the determined damage is not a large damage due to the special attack by the enemy character 10 (NO in step S100), the processing unit 200 is out of the determination area 50 of the left feature point 42 and the right feature point 44. (Step S120).

左特徴点42及び/又は右特徴点44が判定領域50(図6参照)の外に出ている場合(図17;ステップS120のYES)、処理部200はプレーヤが手を広げる動作をしていると判断する。そして、左右対応設定データ552を参照して、判定領域50を出た左特徴点42及び/又は右特徴点44に対応する側の腕の関節姿勢パラメータをインバースキネマティクスによって算出し(ステップS122)、算出した姿勢パラメータに従って当該腕の動作制御を実行して(ステップS124)、プレーヤキャラクタ挙動制御処理を終了する。この結果、プレーヤ2が腕を広げるとプレーヤキャラクタ6はそれを真似するように動作することとなる。   When the left feature point 42 and / or the right feature point 44 is outside the determination region 50 (see FIG. 6) (FIG. 17; YES in step S120), the processing unit 200 performs an operation in which the player spreads his / her hand. Judge that Then, referring to the left / right correspondence setting data 552, the joint posture parameters of the arm corresponding to the left feature point 42 and / or the right feature point 44 exiting the determination area 50 are calculated by inverse kinematics (step S122). Then, the movement control of the arm is executed according to the calculated posture parameter (step S124), and the player character behavior control process is terminated. As a result, when the player 2 spreads his arm, the player character 6 moves to imitate it.

ここで、部位が破損している場合には、破損部分が非表示とされているだけであるため、従前通りに動作制御される。尚、破損部分があることによって、その部位の動きが小さく感じられる場合には、次のように動作制御を変更してもよい。すなわち、例えば、腕の肘より先の腕部分が破損し、上腕部分が残存している場合には、その残存している上腕部分の先端と、その腕に対応する左特徴点42/右特徴点44とを対応付けるように再設定して動作制御する。この場合、左特徴点42/右特徴点44のプレーヤ画像中の大きな動きに対応して、残存している上腕部が大きく動くこととなる。   Here, when the part is damaged, the damaged part is only hidden, so that the operation is controlled as before. In addition, when there exists a damaged part and the movement of the part is felt small, you may change operation control as follows. That is, for example, if the arm part beyond the elbow of the arm is damaged and the upper arm part remains, the left end point 42 / right feature corresponding to the tip of the remaining upper arm part and the arm Operation is controlled by resetting the points 44 so as to be associated with each other. In this case, the remaining upper arm portion moves greatly in response to a large movement of the left feature point 42 / right feature point 44 in the player image.

一方、左特徴点42及び/又は右特徴点44が判定領域50内に存在する場合には(ステップS120のNO)、処理部200は、プレーヤ2は「銃を構えているポーズ」をしていると判断して、プレーヤキャラクタ6が、マーカ4の指し示すゲーム空間中の位置に向けて銃8の銃口を向けるように銃8を構える制御をして(ステップS126)、プレーヤキャラクタ挙動制御処理を終了する。   On the other hand, when the left feature point 42 and / or the right feature point 44 are present in the determination region 50 (NO in step S120), the processing unit 200 puts the player 2 in a “pose with a gun”. The player character 6 controls to hold the gun 8 so that the muzzle of the gun 8 is directed toward the position in the game space indicated by the marker 4 (step S126), and the player character behavior control process is performed. finish.

また、プレーヤキャラクタ挙動制御処理を実行したときに、既に実行中のモーションが有った場合には(ステップS80のYES)、処理部200はその実行中のモーションを今回の制御サイクル分だけ(1フレーム分だけ)実行して、プレーヤキャラクタ挙動制御処理を終了する。   If there is a motion that is already being executed when the player character behavior control process is executed (YES in step S80), the processing unit 200 sets the current motion for the current control cycle (1). (Only for the frame) and execute the player character behavior control process.

プレーヤキャラクタ挙動制御処理を終了したならば、図14のフローチャートに戻る。
処理部200は次に、プレーヤキャラクタ6の攻撃操作(ゲームコントローラ1230からの攻撃操作と、ジェスチャーによる攻撃操作の何れか)の入力が有った場合には(ステップS26のYES)、敵キャラクタ10へのダメージ判定処理を実行し(ステップS28)、判定したダメージを被弾した敵キャラクタ10へ反映させる(ステップS30)。
When the player character behavior control process is completed, the process returns to the flowchart of FIG.
Next, when there is an input of an attack operation of the player character 6 (any one of an attack operation from the game controller 1230 and an attack operation by a gesture) (YES in step S26), the processing unit 200 determines that the enemy character 10 The damage determination process is executed (step S28), and the determined damage is reflected in the hit enemy character 10 (step S30).

次いで、処理部200は現在のゲーム状況が所定のゲーム終了条件を満たしているか否かを判定する(ステップS34)。例えば、本実施形態ではプレーヤキャラクタ6の現在のヒットポイントが「0」の場合、或いは、敵キャラクタ10を全て倒した場合にはゲーム終了と判定するが、詳細な条件は適宜設定可能である。   Next, the processing unit 200 determines whether or not the current game situation satisfies a predetermined game end condition (step S34). For example, in this embodiment, when the current hit point of the player character 6 is “0” or when all the enemy characters 10 are defeated, it is determined that the game is over, but detailed conditions can be set as appropriate.

そして、ゲーム終了条件を満たしていなければ(ステップS34のNO)、ステップS18に移行する。ゲーム終了条件を満たしていれば(ステップS34のYES)、ゲーム終了処理を実行して(ステップS36)、プレーヤキャラクタ6の現在のヒットポイントが「0」の場合にはゲームオーバー演出の表示をし、敵キャラクタ10を全て倒した場合にはゲームクリアの演出表示を行って、一連の処理を終了する。   If the game end condition is not satisfied (NO in step S34), the process proceeds to step S18. If the game end condition is satisfied (YES in step S34), a game end process is executed (step S36), and if the current hit point of the player character 6 is “0”, a game over effect is displayed. When all the enemy characters 10 are defeated, a game clear effect display is performed, and the series of processes is terminated.

以上、本実施形態によれば、プレーヤ2の体形や着衣の色に似せたプレーヤキャラクタ6を登場させるとともに、ゲームコントローラ1230をポインティングデバイスとして、マーカ4の位置へ向けてプレーヤキャラクタ6が射撃するTPSを実現することができる。   As described above, according to the present embodiment, the player character 6 resembling the body shape and clothing color of the player 2 appears, and the player character 6 shoots toward the position of the marker 4 using the game controller 1230 as a pointing device. Can be realized.

しかも、このプレーヤキャラクタ6は、プレーヤ2がゲームコントローラ1230を胸前で構えるポーズをしている場合にはマーカ4の位置へ向けて銃8を構えるように自動動作制御されるが、プレーヤ2が腕を広げるポーズをするとプレーヤキャラクタ6はプレーヤ2の腕の動作を真似るように動作制御される。公知のTPSのように、単にゲームコントローラ1230からの操作入力によってプレーヤキャラクタ6の動作を制御するだけでなく、プレーヤキャラクタ6がプレーヤ2の動作を真似することで、プレーヤ2がプレーヤキャラクタ6へ抱く親近感が高まり、ゲームでのなりきり感や没入感を高めることができる。   Moreover, the player character 6 is automatically controlled to hold the gun 8 toward the position of the marker 4 when the player 2 is posing to hold the game controller 1230 in front of the chest. When the player character 6 poses to spread his arms, the movement of the player character 6 is controlled so as to imitate the movement of the player 2's arm. Like the known TPS, the player character 6 imitates the action of the player 2 not only by controlling the action of the player character 6 by an operation input from the game controller 1230, but the player 2 embraces the player character 6. A sense of closeness is enhanced, and a sense of completeness and immersion in the game can be enhanced.

また、プレーヤ2のポーズの検出を利用して、ジェスチャーによる操作入力も可能にしている。本実施形態におけるジェスチャー操作入力は、プレーヤ画像内におけるプレーヤ2の体が写っている位置を検出する以外にも、手先など特徴点の位置や動きを利用することができるので、上述した回避動作に限らず、特別な攻撃(例えば、魔法の発動)や、ヒットポイントの回復、弾丸の補充など様々な操作コマンドを割り当てることができる。   In addition, using the detection of the pose of the player 2, operation input by gestures is also possible. The gesture operation input in the present embodiment can use the position and movement of a feature point such as a hand in addition to detecting the position where the body of the player 2 is captured in the player image. Not limited to this, various operation commands such as special attack (for example, magic activation), hit point recovery, bullet replenishment, etc. can be assigned.

そして、その操作コマンドに対応するジェスチャーに手を広げる要素を含めることで、特撮ヒーロー番組における技の発動に伴うアクションのようにプレーヤ2がジェスチャーをすれば、ゲーム画面内のプレーヤキャラクタ6もそれを真似て、対応するアクションを発動するといった、従来に無い操作感が実現される。   Then, by including an element that expands the hand in the gesture corresponding to the operation command, if the player 2 makes a gesture like an action associated with the activation of a technique in the special effects hero program, the player character 6 in the game screen also It mimics and realizes an unprecedented operational feeling such as invoking the corresponding action.

尚、本実施形態ではプレーヤキャラクタ6をプレーヤの体形に似せるために、プレーヤキャラクタ初期設定データ510の上半身ポリゴンモデル512aを変形処理しているが、これに限らない。例えば、体形推定パラメータ値である横幅Lb(図5参照)の条件に応じてポリゴンモデルデータ512を複数用意しておいて、ゲーム演算部210がモデルマッチング処理のステップS58(図15参照)において、用意された複数のポリゴンモデルデータ512から何れかを選択する構成とすることができる。   In this embodiment, the upper character polygon model 512a of the player character initial setting data 510 is deformed in order to make the player character 6 resemble the body shape of the player. However, the present invention is not limited to this. For example, a plurality of polygon model data 512 are prepared according to the condition of the width Lb (see FIG. 5) that is the body shape estimation parameter value, and the game calculation unit 210 performs the model matching process in step S58 (see FIG. 15). A configuration may be adopted in which any one of the prepared polygon model data 512 is selected.

同様に、複数のポリゴンモデルデータ512を用意しておいて、プレーヤ画像から得られるパラメータに応じて何れかを選択する構成は、人体シルエット範囲名の統計的色情報に適用することもできる。この場合、赤系の着衣のプレーヤの場合は、うさぎのデザイン、青系の着衣のプレーヤは馬のデザインのプレーヤキャラクタと言った具合に変更することができる。   Similarly, a configuration in which a plurality of polygon model data 512 is prepared and any one is selected according to a parameter obtained from the player image can be applied to the statistical color information of the human body silhouette range name. In this case, in the case of a player with red clothing, it can be changed to a rabbit design, and the player with blue clothing can be changed to a player character with a horse design.

〔第2実施形態〕
次に、本発明を適用した第2実施形態について説明する。本実施形態は基本的には第1実施形態と同様の技術によって実現されるが、ゲーム画面内に常時プレーヤキャラクタ6を表示させるのではなく、基本はプレーヤ2の人体シルエットを左右反転させた反転シルエットを表示させ、所定の変身操作入力によってプレーヤキャラクタ6に変身するとプレーヤキャラクタ6を表示させることができる構成となっている点が異なる。
以下では、第1実施形態と同様の構成要素については同じ符合を付与して説明は省略し、第1実施形態との差異についてのみ説明することとする。
[Second Embodiment]
Next, a second embodiment to which the present invention is applied will be described. This embodiment is basically realized by the same technology as that of the first embodiment. However, the player character 6 is not always displayed in the game screen, but basically, the human body silhouette of the player 2 is reversed left and right. The difference is that the player character 6 can be displayed when the silhouette is displayed and transformed into the player character 6 by a predetermined transformation operation input.
Hereinafter, the same reference numerals are given to the same components as those in the first embodiment, and the description thereof will be omitted, and only the differences from the first embodiment will be described.

図18は、本実施形態におけるプレーヤキャラクタ6の代替としての反転シルエット表示の概念を説明する図である。本実施形態では、ゲームを実行している間、イメージセンサモジュール1227で常時プレーヤ2の全身(或いは、少なくとも上半身)を含むプレーヤ画像W12を撮影し、撮影したフレーム毎に人体シルエット30を抽出する。そして、抽出した人体シルエット30から上半身部分に相当する部位32を切り出し、仮想カメラがプレーヤキャラクタを背後から撮影するゲームステージの設定ならば、切り出した部位を左右反転処理して判定シルエット60を生成し、ゲーム画面の下端中央位置に表示させる。また、仮想カメラがプレーヤキャラクタを前方から撮影するゲームステージの設定ならば、切り出した部位を左右反転せずにそのままを反転シルエット60としてゲーム画面の下端中央位置に表示させる。
尚、反転シルエット60の色は、プレーヤキャラクタ6に適用されるテクスチャデータの選択と同様に、人体シルエット30の統計的色情報と同系色に設定する。
FIG. 18 is a diagram for explaining the concept of reverse silhouette display as an alternative to the player character 6 in the present embodiment. In the present embodiment, while the game is being executed, the player image W12 including the whole body (or at least the upper body) of the player 2 is always photographed by the image sensor module 1227, and the human body silhouette 30 is extracted for each photographed frame. Then, a part 32 corresponding to the upper body part is cut out from the extracted human body silhouette 30, and if the virtual camera is set for a game stage where the player character is photographed from behind, the cut out part is subjected to left-right inversion processing to generate a determination silhouette 60. And display it at the center of the bottom of the game screen. Further, if the game stage is set so that the virtual camera shoots the player character from the front, the cut-out part is displayed as the inverted silhouette 60 at the center of the lower end of the game screen without being reversed horizontally.
The color of the inverted silhouette 60 is set to the same color as the statistical color information of the human body silhouette 30 in the same manner as the selection of the texture data applied to the player character 6.

反転シルエット60は左右反転されたシルエット像であるため、ゲーム画面の見かけ上、あたかもプレーヤのバックビューがそこにあるかのように見せることができる。プレーヤにとってみれば、自身がゲーム世界の中にいるかのような錯覚を感じる。   Since the inverted silhouette 60 is a horizontally reversed silhouette image, the game screen can be seen as if the player's back view is there. For players, they feel the illusion that they are in the game world.

また、ゲーム画面上はプレーヤキャラクタ6は表示されていないが、非表示状態でゲーム空間内には配置されており、敵キャラクタ10からの攻撃のヒット判定などはこの非表示状態のプレーヤキャラクタ6に基づいて判定される。   Further, although the player character 6 is not displayed on the game screen, it is arranged in the game space in a non-displayed state, and an attack hit determination from the enemy character 10 is performed on the player character 6 in the non-displayed state. Based on the determination.

もし、非表示のプレーヤキャラクタ6が敵キャラクタ10から特殊な攻撃を受けたと判定された場合には、図19に示すように、反転シルエット60を予め用意してある人体に似せたダメージ用モデル(勿論、仮想カメラに対して上半身だけ写るように相対位置が予め決定されている)に表示を差し替え、このダメージ用モデル62に所定のやられモーションをさせる。それによって、実際にイメージセンサモジュール1227で撮影されたプレーヤ画像W18では何事も起きていないが、あたかもゲーム画面W16内では反転シルエット60のプレーヤが派手にやられたかのように演出することができる。勿論、ダメージ用モデル62によるやられモーションが終了したら、元の反転シルエット60による表示に戻される。   If it is determined that the non-displayed player character 6 has received a special attack from the enemy character 10, as shown in FIG. 19, a model for damage similar to a human body with a reverse silhouette 60 prepared in advance ( Of course, the display is replaced with a relative position so that only the upper body is captured with respect to the virtual camera), and the damage model 62 is caused to perform a predetermined motion. As a result, nothing has happened in the player image W18 actually captured by the image sensor module 1227, but it can be produced as if the player of the inverted silhouette 60 was flashed in the game screen W16. Of course, when the done motion by the damage model 62 is completed, the display is returned to the original inverted silhouette 60.

尚、反転シルエット60の表示/非表示の設定は、記憶部500にシルエット表示フラグを設けてフラグ操作で管理する。また、同様にダメージ用モデル62の表示/非表示の設定も記憶部500にダメージ用モデル表示フラグを設けてフラグ操作で管理することとする。   Note that the display / non-display setting of the inverted silhouette 60 is managed by providing a silhouette display flag in the storage unit 500 and operating the flag. Similarly, the display / non-display setting of the damage model 62 is managed by providing a damage model display flag in the storage unit 500 and performing flag operation.

そして、図20に示すように、本実施形態ではゲームプレイ時間の進行に応じて変身可能ゲージ26が貯まるように制御され、ゲーム画面W20のように規定値まで貯まるとプレーヤキャラクタ6に変身可能になる。変身操作は、プレーヤ2が所定の変身ジェスチャーをするか変身ポーズをとることによって入力される。   Then, as shown in FIG. 20, in this embodiment, the changeable gauge 26 is controlled to be stored according to the progress of the game play time, and can be changed to the player character 6 when the specified value is stored as in the game screen W20. Become. The transformation operation is input when the player 2 makes a predetermined transformation gesture or takes a transformation pose.

変身操作入力が検知されると、ゲーム画面W24のように、反転シルエット60やダメージ用モデル62に代えてプレーヤキャラクタ6が表示される。そして、プレーヤキャラクタ6に変身すると、第1実施形態におけるジェスチャー入力による回避操作入力や特殊攻撃操作入力などが可能になり、変身前より高い操作性と有利な戦闘が可能になる。但し、変身は一定時間で自動的に解除される設定であり、変身開始から変身可能時間がカウントダウン処理され、変身可能時間が「0」になれば、自動的にプレーヤキャラクタ6に代えて反転シルエット60が表示されるように制御され、変身が解かれることとなる。   When the transformation operation input is detected, the player character 6 is displayed instead of the inverted silhouette 60 and the damage model 62 as in the game screen W24. When the player character 6 is transformed, an avoidance operation input or a special attack operation input by gesture input in the first embodiment can be performed, and higher operability and advantageous battle can be achieved than before the transformation. However, the transformation is set to be automatically canceled at a certain time. When the transformation possible time is counted down from the transformation start time and the transformation possible time becomes “0”, the inverted silhouette is automatically substituted for the player character 6. 60 is displayed and the transformation is solved.

尚、変身状態か否かは、記憶部500にて変身フラグで管理する。また、変身可能ゲージ26でゲージ表示されるポイントは、記憶部500に変身可能ポイントとして記憶・管理することとする。   Whether or not the device is in the transformation state is managed by the transformation flag in the storage unit 500. The points displayed on the gauge 26 by the transformable gauge 26 are stored and managed in the storage unit 500 as transformable points.

図21は、本実施形態におけるプレーヤキャラ挙動制御処理(プレーヤキャラ挙動制御処理B)の流れを説明するためのフローチャートである。
同処理において、実行中のモーションが無い場合(ステップS80のNO)、処理部200は現在変身中であるか否かを判定する(ステップS150)。
FIG. 21 is a flowchart for explaining the flow of the player character behavior control process (player character behavior control process B) in the present embodiment.
In the same process, when there is no motion being executed (NO in step S80), the processing unit 200 determines whether or not it is currently being transformed (step S150).

変身中でない状態で(ステップS150のNO)、変身操作入力が有れば(ステップS152のYES)、処理部200は変身可能ゲージ26が規定値まで貯まったかを判定する。そして、規定値まで貯まっている場合には(ステップS154のYES)、変身可能ゲージ26を消費して(ステップS156)、記憶部500に設けたシルエット表示フラグを操作して反転シルエット60の表示設定を表示OFFに設定するとともに、変身フラグを「1(変身状態)」に設定し、プレーヤキャラクタ6のモデルを表示状態に設定する(ステップS158)。更に所定の変身演出表示(例えば、まばゆい虹色の光で反転シルエット60の表示位置が包まれるといった演出表示)を開始する(ステップS160)。
勿論、変身中でない状態でも変身操作入力が無い場合や(ステップS152のNO)、変身操作入力が有っても変身可能ゲージ26が規定値まで貯まっていなければ、ステップS156〜S160はスキップされる。
If there is a transformation operation input (NO in step S150) in a state where transformation is not in progress (YES in step S152), the processing unit 200 determines whether the transformable gauge 26 has accumulated to a specified value. If the specified value is stored (YES in step S154), the transformable gauge 26 is consumed (step S156), and the display setting of the inverted silhouette 60 is performed by operating the silhouette display flag provided in the storage unit 500. Is set to display OFF, the transformation flag is set to “1 (transformation state)”, and the model of the player character 6 is set to the display state (step S158). Further, a predetermined transformation effect display (for example, an effect display in which the display position of the inversion silhouette 60 is wrapped with dazzling rainbow light) is started (step S160).
Of course, steps S156 to S160 are skipped if there is no transformation operation input even in a state where transformation is not being performed (NO in step S152), or if there is a transformation operation input and the transformable gauge 26 is not stored up to the specified value. .

一方、変身中の状態では(ステップS150のYES)、処理部200は変身可能時間を今回の制御サイクル分だけカウントダウンし(ステップS162)、その結果変身可能時間が「0」になったならば(ステップS164のYES)、記憶部500に設けたシルエット表示フラグを操作して反転シルエット60の表示設定を表示ONに設定するとともに、変身フラグを「0(未変身状態)」に設定し、プレーヤキャラクタ6のモデルを非表示状態に設定し、変身を解く(ステップS166)。   On the other hand, in the state of transformation (YES in step S150), the processing unit 200 counts down the possible transformation time for the current control cycle (step S162), and as a result, the transformation possible time becomes “0” ( In step S164, the silhouette display flag provided in the storage unit 500 is operated to set the display setting of the inverted silhouette 60 to display ON, and the transformation flag is set to “0 (untransformed state)”. 6 model is set to a non-display state, and transformation is solved (step S166).

変身可能時間が「0」でなくまだ変身状態が継続されている場合には(ステップS164のNO)、処理部200は変身以外のジェスチャーやポーズによる操作入力の有無を判定する(ステップS180)。そして、変身以外のジェスチャーやポーズによる操作入力が有れば(ステップS180のYES)、入力されたジェスチャーに応じたモーションでプレーヤキャラクタ6の上半身モデル6uの動作制御を開始する(ステップS182)。すなわち、ステップS180〜S182は、第1実施形態のステップS84〜S96(図16参照)に相当する。   If the possible transformation time is not “0” and the transformation state is still continued (NO in step S164), the processing unit 200 determines whether or not there is an operation input by a gesture or pose other than transformation (step S180). Then, if there is an operation input by a gesture or pose other than transformation (YES in step S180), motion control of the upper body model 6u of the player character 6 is started with a motion corresponding to the input gesture (step S182). That is, steps S180 to S182 correspond to steps S84 to S96 (see FIG. 16) of the first embodiment.

一方、変身状態で且つジェスチャーやポーズによる操作入力がなければ(ステップS180のNO)、処理部200はマーカ4が指し示すゲーム空間中の場所へ銃8の銃口をむけるようにプレーヤキャラクタ6の上半身の動作を制御する(ステップS184)。   On the other hand, if there is no operation input by a gesture or a pose in the transformed state (NO in step S180), the processing unit 200 moves the upper body of the player character 6 so as to open the muzzle of the gun 8 to the place in the game space indicated by the marker 4. The operation is controlled (step S184).

変身に関する処理(ステップS154〜S160)や、変身解除に関する処理(ステップS166)、ジェスチャー入力に応じたプレーヤキャラクタ6の動作制御(ステップS182)、銃8の構え制御(ステップS184)の何れかを実行したならば、処理部200は次に、プレーヤキャラクタへのダメージ判定処理を実行する(図22;ステップS200)。そして、敵キャラクタ10から特殊攻撃によって大ダメージを受けたと判定される場合で(ステップS202のYES)、且つ現在変身中で無ければ(ステップS204のNO)、処理部200は反転シルエット60の表示設定をOFFに設定するとともに、ダメージ用モデル62の表示をONに設定し(ステップS206)、ダメージ用モデル62を反転シルエット60の表示位置に配置して(ステップS208)、所定のやられモーションでダメージ用モデル62の動作制御を開始し(ステップS210)、プレーヤキャラ挙動制御処理Bを終了する。   Any one of processing related to transformation (steps S154 to S160), processing related to transformation cancellation (step S166), motion control of the player character 6 in response to a gesture input (step S182), and posture control of the gun 8 (step S184) is executed. If so, the processing unit 200 next executes a damage determination process for the player character (FIG. 22; step S200). If it is determined that the enemy character 10 has received large damage due to a special attack (YES in step S202), and if it is not currently being transformed (NO in step S204), the processing unit 200 sets the display of the inverted silhouette 60. Is set to OFF, the display of the damage model 62 is set to ON (step S206), the damage model 62 is placed at the display position of the inverted silhouette 60 (step S208), and the damage model 62 is used for the damage with a predetermined burned motion. The motion control of the model 62 is started (step S210), and the player character behavior control process B is ended.

一方、敵キャラクタ10から特殊攻撃によって大ダメージを受けたと判定される場合で(ステップS202のYES)、且つ現在変身中であれば(ステップS204のYES)、プレーヤキャラクタ6のやられモーションによる動作制御を開始し、プレーヤキャラ挙動制御処理Bを終了する。   On the other hand, if it is determined that the enemy character 10 has received a large damage due to a special attack (YES in step S202) and currently being transformed (YES in step S204), motion control of the player character 6 based on the struck motion is performed. Start and end the player character behavior control process B.

尚、プレーヤキャラ挙動制御処理Bを実行じ、既に実行中のモーションがある場合には(ステップS80のYES)、処理部200は現在実行中のモーションを今回の制御サイクル分だけ継続実行する(ステップS126)。そして、現在変身中でなく(ステップS220のNO)、且つやられモーションを終了したならば(ステップS222のYES)、反転シルエット60の表示をON、ダメージ用モデル62の表示をOFFに設定し(ステップS224)、プレーヤキャラ挙動制御処理Bを終了する。   When the player character behavior control process B is executed and there is a motion that is already being executed (YES in step S80), the processing unit 200 continuously executes the currently executed motion for the current control cycle (step S80). S126). If it is not currently being transformed (NO in step S220) and the motion has been finished (YES in step S222), the display of the inverted silhouette 60 is set to ON and the display of the damage model 62 is set to OFF (step). S224), the player character behavior control process B is terminated.

図23は、本実施形態におけるゲーム画面生成表示処理の流れを説明するためのフローチャートである。同処理は、第1実施形態のステップS14に代えて実行される処理である。具体的には、反転シルエット60の表示設定がONの場合(ステップS250のON)、処理部200はプレーヤキャラクタ6が非表示状態のゲーム空間画像をレンダリングし(ステップS252)、これに各種情報表示を合成する(ステップS254)。   FIG. 23 is a flowchart for explaining the flow of the game screen generation display process in the present embodiment. This process is a process executed instead of step S14 of the first embodiment. Specifically, when the display setting of the inverted silhouette 60 is ON (step S250 ON), the processing unit 200 renders a game space image in which the player character 6 is not displayed (step S252), and displays various information on this. Are synthesized (step S254).

そして、現在実行中のゲームステージにおける仮想カメラの撮影ポジションが、プレーヤキャラクタ6を後方から撮影する設定の場合には(ステップS256の「後方から」)、人体シルエット30の上半身部分を切り出し、左右反転処理してこれを反転シルエット60とする(ステップS258)。反対に、仮想カメラがプレーヤキャラクタ6を前方から撮影する設定であれば(ステップS256の「前方から」)、処理部200は人体シルエット30の上半身部分を切り出し、左右反転はせずにそのままで反転シルエット60とする(ステップS260)。   If the shooting position of the virtual camera on the currently executed game stage is set to shoot the player character 6 from behind (“from behind” in step S256), the upper body part of the human body silhouette 30 is cut out and reversed left and right. This is processed into the inverted silhouette 60 (step S258). On the other hand, if the virtual camera is set to shoot the player character 6 from the front ("from the front" in step S256), the processing unit 200 cuts out the upper body part of the human body silhouette 30 and flips it as it is without flipping left and right. The silhouette 60 is set (step S260).

反転シルエット60を生成したならば、処理部200は次いで人体シルエット30の統計的色情報に基づいて同系色となるように反転シルエット60の色を設定する(ステップS262)。そして、先に生成されたゲーム空間画像に反転シルエット60を所定位置に合成して、今回の制御サイクルにおける1フレーム分のゲーム画像を生成し(ステップS264)、これを画像表示装置1222に表示させ(ステップS290)、ゲーム画面生成表示処理を終了する。   If the inverted silhouette 60 is generated, the processing unit 200 then sets the color of the inverted silhouette 60 so as to be a similar color based on the statistical color information of the human body silhouette 30 (step S262). Then, the inverted silhouette 60 is combined with the previously generated game space image at a predetermined position to generate a game image for one frame in the current control cycle (step S264), and this is displayed on the image display device 1222. (Step S290), the game screen generation display process is terminated.

一方、反転シルエット60の表示設定がOFFで、且つプレーヤキャラクタ6の表示設定がONの場合には(ステップS250のOFF→S280のON)、プレーヤキャラクタ6を表示したゲーム空間画像をレンダリングし(ステップS282)、これに各種情報表示を合成して今回の制御サイクルにおけるゲーム画像を生成し(ステップS288)、画像表示装置1222に表示させ(ステップS290)、ゲーム画面生成表示処理を終了する。   On the other hand, when the display setting of the reverse silhouette 60 is OFF and the display setting of the player character 6 is ON (OFF in step S250 → ON in S280), the game space image displaying the player character 6 is rendered (step S250). In step S282, a variety of information displays are combined with this to generate a game image in the current control cycle (step S288), which is displayed on the image display device 1222 (step S290), and the game screen generation / display processing ends.

また、プレーヤキャラクタ6の表示設定がOFFで、且つダメージ用モデル62の表示設定がONの場合には(ステップS284のON)、ダメージ用モデル62を表示したゲーム空間画像をレンダリングし(ステップS286)、これに各種情報表示を合成して今回の制御サイクルにおけるゲーム画像を生成し(ステップS288)、画像表示装置1222に表示させ(ステップS290)、ゲーム画面生成表示処理を終了する。   If the display setting of the player character 6 is OFF and the display setting of the damage model 62 is ON (step S284 ON), the game space image displaying the damage model 62 is rendered (step S286). Various information displays are combined with this to generate a game image in the current control cycle (step S288), which is displayed on the image display device 1222 (step S290), and the game screen generation / display process ends.

以上、本実施形態によれば第1実施形態と同様の効果を奏するとともに、プレーヤ2を正面から撮影した画像から左右反転した反転シルエット60を表示させたTPSを実現できる。   As described above, according to the present embodiment, it is possible to realize a TPS that has the same effects as the first embodiment and displays the inverted silhouette 60 that is reversed left and right from an image obtained by shooting the player 2 from the front.

〔変形例〕
以上、本発明を適用した第1〜第2実施形態について説明したが、本発明の実施形態はこれらの構成に限定されるものではなく、適宜、構成要素の追加・省略・変更を施すことができる。
[Modification]
As described above, the first to second embodiments to which the present invention is applied have been described. However, the embodiments of the present invention are not limited to these configurations, and additions, omissions, and changes of components may be appropriately made. it can.

例えば、ゲーム装置は家庭用ゲーム装置1200に限らず、図24に示すような業務用のガンシューティングゲーム装置1100としても良い。ガンシューティングゲーム装置1100は、例えばバンダイナムコゲームス社製の作品名「タイムクライシス4」等で使用される公知のゲーム装置にイメージセンサモジュール1227を追加して実現され得る。具体的には、ガンシューティングゲーム装置1100は、銃を模したガン型コントローラ1130と、画像表示装置1122と、スピーカ1124と、硬貨投入口1142から投入された硬貨を検知する硬貨検知センサ1144と、制御ユニット1150とを、装置本体1101に備えている。   For example, the game device is not limited to the home game device 1200 but may be a professional gun shooting game device 1100 as shown in FIG. The gun shooting game apparatus 1100 can be realized by adding an image sensor module 1227 to a known game apparatus used, for example, with a work name “Time Crisis 4” manufactured by NAMCO BANDAI Games. Specifically, the gun shooting game device 1100 includes a gun-type controller 1130 that simulates a gun, an image display device 1122, a speaker 1124, a coin detection sensor 1144 that detects coins inserted from a coin insertion slot 1142, and The apparatus main body 1101 includes a control unit 1150.

制御ユニット1150は、ゲーム装置の制御基板に相当し、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)などの各種マイクロプロセッサ、ASIC(Application Specific Integrated Circuit)、VRAMやRAM,フラッシュメモリ1152等の各種ICメモリを搭載する。また、通信装置1154や、スピーカ1124へ音声信号を出力するためのアンプ回路、ガン型コントローラ1130や硬貨検知センサ1144との信号入出力回路といった所謂I/F回路(インターフェース回路)を搭載する。これら制御ユニット1150に搭載されている各要素は、それぞれバス回路を介して電気的に接続され、データの読み書きや信号の送受信が可能に接続されている。   The control unit 1150 corresponds to a control board of the game apparatus, and includes various microprocessors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a VRAM, and the like. Various IC memories such as a RAM and a flash memory 1152 are mounted. In addition, a so-called I / F circuit (interface circuit) such as a communication device 1154, an amplifier circuit for outputting an audio signal to the speaker 1124, and a signal input / output circuit with the gun-type controller 1130 and the coin detection sensor 1144 is mounted. Each element mounted on the control unit 1150 is electrically connected via a bus circuit so that data can be read and written and signals can be transmitted and received.

フラッシュメモリ1152には、ゲームプレイに係る各種演算処理を実行するために必要なプログラムや各種設定データが記憶されている。制御ユニット1150は、硬貨検知センサ1144で所定額の硬貨の投入を検知したら、フラッシュメモリ1152からプログラムやデータを読み出して、搭載するICメモリにこれらを一時記憶する。そして、読み出したプログラムを実行して、ゲーム画像を生成して画像表示装置1122に表示させるとともに、ゲーム音を生成してスピーカ1124から放音させる。   The flash memory 1152 stores programs and various setting data necessary for executing various arithmetic processes related to game play. When the coin detection sensor 1144 detects the insertion of a predetermined amount of coins, the control unit 1150 reads the program and data from the flash memory 1152 and temporarily stores them in the IC memory to be mounted. Then, the read program is executed, a game image is generated and displayed on the image display device 1122, and a game sound is generated and emitted from the speaker 1124.

プレーヤは、画像表示装置1122の画面前方に立ち、画面を狙うようにしてガン型コントローラ1130を構える。ゲーム画面内には、標的とガン型コントローラ1130で狙っている位置を示す照準6が表示されるので、ゲーム画面内の任意の標的に照準6を合わせるようにしてガン型コントローラ1130を構え、トリガーを引いて射撃操作してシューティングゲームを楽しむことができる。
尚、ガンシューティングゲーム装置1100でゲームを実行するために必要なプログラムや各種設定データをフラッシュメモリ1152から読み出す構成としているが、通信装置1154で通信回線1に接続して外部の装置からダウンロードする構成としても良い。
The player stands in front of the screen of the image display device 1122 and holds the gun-type controller 1130 so as to aim at the screen. In the game screen, an aim 6 indicating the target and the position aimed at by the gun-type controller 1130 is displayed. Therefore, the gun-type controller 1130 is held so that the aim 6 is aligned with an arbitrary target in the game screen, and the trigger You can enjoy shooting games by pulling and shooting.
The program and various setting data necessary for executing the game on the gun shooting game device 1100 are read from the flash memory 1152, but the communication device 1154 is connected to the communication line 1 and downloaded from an external device. It is also good.

また、上記実施形態ではTPSを実行する例を挙げたが、3人称視点によるゲームであれば、ガンシューティングゲームに限らずRPGなどその他のジャンルのゲームでも良い。   Moreover, although the example which performs TPS was given in the said embodiment, if it is a game by a 3rd person viewpoint, not only a gun shooting game but the game of other genres, such as RPG, may be sufficient.

2 プレーヤ
4 ポインター
6 プレーヤキャラクタ
8 銃
30 人体シルエット
40 頭部特徴点
42 左特徴点
44 右特徴点
50 判定領域
60 反転シルエット
62 ダメージ用モデル
100 操作入力部
102 光信号受光部
110 プレーヤ撮影部
200 処理部
210 ゲーム演算部
212 ポインター制御部
214 プレーヤキャラクタ移動制御部
216 仮想カメラ制御部
218 人体シルエット抽出部
220 特徴点情報取得部
222 ジェスチャー判定部
224 プレーヤキャラクタ挙動制御部
500 記憶部
502 ゲームプログラム
504 ゲーム空間設定データ
510 キャラクタ初期設定データ
530 ジェスチャー辞書データ
550 特徴点データ
552 左右対応設定データ
1200 家庭用ゲーム装置
1201 装置本体
1210 制御ユニット
1220 ビデオモニタ
1222 画像表示装置
1226 光信号出力装置
1227 イメージセンサモジュール
1230 ゲームコントローラ
2 player 4 pointer 6 player character 8 gun 30 human body silhouette 40 head feature point 42 left feature point 44 right feature point 50 determination area 60 inversion silhouette 62 damage model 100 operation input unit 102 optical signal light receiving unit 110 player photographing unit 200 processing Unit 210 game calculation unit 212 pointer control unit 214 player character movement control unit 216 virtual camera control unit 218 human body silhouette extraction unit 220 feature point information acquisition unit 222 gesture determination unit 224 player character behavior control unit 500 storage unit 502 game program 504 game space Setting data 510 Character initial setting data 530 Gesture dictionary data 550 Feature point data 552 Left / right correspondence setting data 1200 Home game device 1201 Device main body 12 DESCRIPTION OF SYMBOLS 10 Control unit 1220 Video monitor 1222 Image display apparatus 1226 Optical signal output apparatus 1227 Image sensor module 1230 Game controller

Claims (12)

プレーヤを撮影するためのデジタル式の撮影装置を備えたコンピュータに、キャラクタモデルが配置されたゲーム空間の画像を生成させて所与のゲームを実行させるためのプログラムであって、
前記キャラクタモデルを移動制御するキャラクタ移動制御手段、
仮想カメラを前記キャラクタモデルから所定距離離れた位置に配置し、前記キャラクタモデルの移動に従って移動制御する仮想カメラ制御手段、
前記仮想カメラに基づき前記キャラクタモデルを含む前記ゲーム空間の画像を生成する画像生成手段、
前記撮影装置により撮影されたプレーヤ画像に基づいて前記キャラクタモデルの挙動を制御するモデル挙動制御手段、
として前記コンピュータを機能させるためのプログラム。
A program for causing a computer including a digital photographing device for photographing a player to generate an image of a game space in which a character model is arranged and to execute a given game,
Character movement control means for controlling movement of the character model;
Virtual camera control means for arranging a virtual camera at a position away from the character model by a predetermined distance and controlling movement according to the movement of the character model;
Image generating means for generating an image of the game space including the character model based on the virtual camera;
Model behavior control means for controlling behavior of the character model based on a player image photographed by the photographing device;
A program for causing the computer to function as
前記キャラクタモデルは、左右の腕を有しており、
プレーヤが表示装置に正対した場合のプレーヤの右の腕が前記仮想カメラから見た前記キャラクタモデルの右側の腕に、左の腕が前記仮想カメラから見た前記キャラクタモデルの左側の腕に対応するように、前記プレーヤ画像の左右と前記キャラクタモデルの左右との対応関係を設定する左右関係設定手段、
前記撮影装置により撮影されたプレーヤ画像における左側の腕部分及び右側の腕部分を判定する腕部分判定手段、
として前記コンピュータを更に機能させ、
前記モデル挙動制御手段が、前記対応関係に従って、前記キャラクタモデルの左腕及び右腕を、それぞれ対応する前記プレーヤ画像の左側又は右側の腕部分の位置変化に基づいて制御する腕制御手段を有するように前記コンピュータを機能させる、
ための請求項1に記載のプログラム。
The character model has left and right arms,
When the player faces the display device, the right arm of the player corresponds to the right arm of the character model viewed from the virtual camera, and the left arm corresponds to the left arm of the character model viewed from the virtual camera Left and right relationship setting means for setting a correspondence relationship between the left and right of the player image and the left and right of the character model,
Arm part determination means for determining a left arm part and a right arm part in the player image photographed by the photographing device;
Further functioning the computer as
The model behavior control means includes arm control means for controlling the left arm and the right arm of the character model based on the position change of the left or right arm portion of the corresponding player image, respectively, according to the correspondence relationship. Make the computer work,
A program according to claim 1 for.
前記ゲームは、前記キャラクタモデルが敵キャラクタと戦闘するゲームであり、
前記キャラクタモデルは、腕の部分的な部位破壊攻撃を受けた場合に当該部分を消失し、
前記腕制御手段が、前記対応関係に従って、前記キャラクタモデルの現存する左腕及び右腕を、それぞれ対応する前記プレーヤ画像の左側又は右側の腕部分の位置変化に基づいて制御するように前記コンピュータを機能させる、
ための請求項2に記載のプログラム。
The game is a game in which the character model battles enemy characters,
When the character model is subjected to a partial part destruction attack of the arm, the part disappears,
The arm control means causes the computer to function so as to control the existing left arm and right arm of the character model based on the position change of the left or right arm portion of the corresponding player image according to the correspondence relationship. ,
A program according to claim 2 for.
前記撮影装置により撮影されたプレーヤ画像中のプレーヤ像が左方及び右方の何れかに移動したことを検出するプレーヤ左右移動検出手段として前記コンピュータを機能させ、
前記モデル挙動制御手段が、前記対応関係に従って、前記キャラクタモデルを前記プレーヤ左右移動検出手段による検出方向に対応する方向に傾けるように姿勢制御する傾斜姿勢制御手段を有するように前記コンピュータを機能させる、
ための請求項2又は3に記載のプログラム。
Causing the computer to function as player left / right movement detecting means for detecting that a player image in the player image photographed by the photographing device has moved to either the left or right side;
The model behavior control means causes the computer to function so as to have an inclination posture control means for controlling the posture so that the character model is inclined in a direction corresponding to a detection direction by the player left-right movement detection means according to the correspondence relationship.
The program of Claim 2 or 3 for.
前記左右関係設定手段が、前記仮想カメラの向きが前記キャラクタモデルの正面側に対向する向きか背面側に対向する向きかによって左右の対応関係を反転させる対応関係反転手段を有するように前記コンピュータを機能させるための請求項2〜4の何れか一項に記載のプログラム。   The computer includes the correspondence relationship inversion means for inverting the correspondence relationship between left and right depending on whether the orientation of the virtual camera faces the front side or the back side of the character model. The program as described in any one of Claims 2-4 for functioning. 前記モデル挙動制御手段が、前記撮影装置により撮影されたプレーヤ画像中のプレーヤ像の上下方向の長さの変化に基づいて、前記キャラクタモデルに屈み動作を行わせる屈み動作制御手段を有するように前記コンピュータを機能させるための請求項1〜5の何れか一項に記載のプログラム。   The model behavior control means includes a bending action control means for causing the character model to bend based on a change in a vertical length of a player image in a player image shot by the shooting apparatus. The program as described in any one of Claims 1-5 for functioning a computer. 前記モデル挙動制御手段が、
前記撮影装置により撮影されたプレーヤ画像に基づいて前記キャラクタモデルの上半身の挙動を制御する上半身挙動制御手段と、
前記キャラクタ移動制御手段による移動制御に基づいて前記キャラクタモデルの下半身の挙動を制御する下半身挙動制御手段と、
を有するように前記コンピュータを機能させるための請求項1〜6の何れか一項に記載のプログラム。
The model behavior control means is
Upper body behavior control means for controlling behavior of the upper body of the character model based on a player image photographed by the photographing device;
Lower body behavior control means for controlling behavior of the lower body of the character model based on movement control by the character movement control means;
The program according to any one of claims 1 to 6 for causing the computer to function so as to include
前記プレーヤ画像中の前記プレーヤ像に基づいて、前記キャラクタモデルを、複数種類のキャラクタモデルの中から選択或いは生成して設定するキャラクタモデル設定手段として前記コンピュータを機能させるための請求項1〜7の何れか一項に記載のプログラム。   8. The computer according to claim 1, wherein the computer functions as character model setting means for selecting or generating the character model from a plurality of types of character models based on the player image in the player image. The program as described in any one. 前記キャラクタモデル設定手段が、前記プレーヤ画像中の前記プレーヤ像の色彩に基づいて前記キャラクタモデルの色を設定する着色手段を有するように前記コンピュータを機能させるための請求項8に記載のプログラム。   The program according to claim 8, wherein the computer functions so that the character model setting unit includes a coloring unit that sets a color of the character model based on a color of the player image in the player image. 前記キャラクタモデル設定手段が、前記プレーヤ画像中の前記プレーヤ像の輪郭形状に基づいて前記キャラクタモデルの体形を設定する体形設定手段を有するように前記コンピュータを機能させるための請求項8又は9に記載のプログラム。   10. The computer according to claim 8, wherein the character model setting means causes the computer to function so as to have body shape setting means for setting a body shape of the character model based on a contour shape of the player image in the player image. Program. 請求項1〜10の何れか一項に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。   The computer-readable information storage medium which memorize | stored the program as described in any one of Claims 1-10. プレーヤを撮影するためのデジタル式の撮影装置を備え、キャラクタモデルが配置されたゲーム空間の画像を生成して所定のゲームを実行するゲーム装置であって、
前記キャラクタモデルを移動制御するキャラクタ移動制御手段と、
仮想カメラを前記キャラクタモデルから所定距離離れた位置に配置し、前記キャラクタモデルの移動に従って移動制御する仮想カメラ制御手段と、
前記仮想カメラに基づき前記キャラクタモデルを含む前記ゲーム空間の画像を生成する画像生成手段と、
前記撮影装置により撮影されたプレーヤ画像に基づいて前記キャラクタモデルの挙動を制御するモデル挙動制御手段と、
を備えたゲーム装置。
A game device that includes a digital photographing device for photographing a player, generates an image of a game space in which a character model is arranged, and executes a predetermined game.
Character movement control means for controlling movement of the character model;
Virtual camera control means for disposing a virtual camera at a predetermined distance from the character model and controlling movement according to the movement of the character model;
Image generating means for generating an image of the game space including the character model based on the virtual camera;
Model behavior control means for controlling the behavior of the character model based on a player image photographed by the photographing device;
A game device comprising:
JP2009082954A 2009-03-30 2009-03-30 Program, information storage medium and game device Pending JP2010233671A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009082954A JP2010233671A (en) 2009-03-30 2009-03-30 Program, information storage medium and game device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009082954A JP2010233671A (en) 2009-03-30 2009-03-30 Program, information storage medium and game device

Publications (1)

Publication Number Publication Date
JP2010233671A true JP2010233671A (en) 2010-10-21

Family

ID=43088623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009082954A Pending JP2010233671A (en) 2009-03-30 2009-03-30 Program, information storage medium and game device

Country Status (1)

Country Link
JP (1) JP2010233671A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012223357A (en) * 2011-04-19 2012-11-15 Onkyo Corp Video game device and video game control method
JP2013104669A (en) * 2011-11-10 2013-05-30 Horiba Ltd Exhaust gas analyzer, and management device and management program for exhaust gas analyzer
KR20130082296A (en) * 2012-01-11 2013-07-19 삼성전자주식회사 Apparatus and method for moving in virtual reality
CN105291117A (en) * 2014-06-19 2016-02-03 邹朝圣 Mechanical arm control system
JP2016123517A (en) * 2014-12-26 2016-07-11 株式会社バンダイナムコエンターテインメント Program and computer system
KR20170033340A (en) * 2014-08-08 2017-03-24 그렉 반 쿠렌 Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
KR101752496B1 (en) * 2010-11-05 2017-07-03 육상조 The video game console
JP2018089269A (en) * 2016-12-07 2018-06-14 任天堂株式会社 Information processing program, information processing unit, and information processing method
JP6461394B1 (en) * 2018-02-14 2019-01-30 株式会社 ディー・エヌ・エー Image generating apparatus and image generating program
JP2019192116A (en) * 2018-04-27 2019-10-31 株式会社 ディー・エヌ・エー Image generation device and image generation program
JP2020054823A (en) * 2018-08-30 2020-04-09 株式会社バンダイ Game system, game method, and program
CN111035926A (en) * 2019-12-12 2020-04-21 腾讯科技(深圳)有限公司 Virtual object control method, device and storage medium
JP2020091774A (en) * 2018-12-07 2020-06-11 株式会社gumi Program, information processing device, information processing system, information processing method, and head mount display
JP2021023667A (en) * 2019-08-07 2021-02-22 任天堂株式会社 Game program, game system, game device, and game process controlling method
JP2021192876A (en) * 2019-11-25 2021-12-23 株式会社バンダイ Game system, game method, and program
WO2023035812A1 (en) * 2021-09-09 2023-03-16 腾讯科技(深圳)有限公司 Virtual character control method and apparatus, storage medium, and electronic device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002008041A (en) * 2000-06-22 2002-01-11 Namco Ltd Action detecting device, action detecting method, and information storage medium
JP2002024833A (en) * 2000-07-07 2002-01-25 Sony Corp Entertainment system, entertainment device and information processing method
JP2003288611A (en) * 2002-03-28 2003-10-10 Toshiba Corp Image processing device and image transmission system
JP2008033521A (en) * 2006-07-27 2008-02-14 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2008225985A (en) * 2007-03-14 2008-09-25 Namco Bandai Games Inc Image recognition system
JP2010067002A (en) * 2008-09-10 2010-03-25 Fujifilm Corp Information processing apparatus, method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002008041A (en) * 2000-06-22 2002-01-11 Namco Ltd Action detecting device, action detecting method, and information storage medium
JP2002024833A (en) * 2000-07-07 2002-01-25 Sony Corp Entertainment system, entertainment device and information processing method
JP2003288611A (en) * 2002-03-28 2003-10-10 Toshiba Corp Image processing device and image transmission system
JP2008033521A (en) * 2006-07-27 2008-02-14 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2008225985A (en) * 2007-03-14 2008-09-25 Namco Bandai Games Inc Image recognition system
JP2010067002A (en) * 2008-09-10 2010-03-25 Fujifilm Corp Information processing apparatus, method, and program

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101752496B1 (en) * 2010-11-05 2017-07-03 육상조 The video game console
JP2012223357A (en) * 2011-04-19 2012-11-15 Onkyo Corp Video game device and video game control method
JP2013104669A (en) * 2011-11-10 2013-05-30 Horiba Ltd Exhaust gas analyzer, and management device and management program for exhaust gas analyzer
US9074965B2 (en) 2011-11-10 2015-07-07 Horiba, Ltd. Exhaust gas analyzing device, management device for exhaust gas analyzing device and management program for exhaust gas analyzing device
KR101888491B1 (en) * 2012-01-11 2018-08-16 삼성전자주식회사 Apparatus and method for moving in virtual reality
KR20130082296A (en) * 2012-01-11 2013-07-19 삼성전자주식회사 Apparatus and method for moving in virtual reality
US10853966B2 (en) 2012-01-11 2020-12-01 Samsung Electronics Co., Ltd Virtual space moving apparatus and method
CN105291117A (en) * 2014-06-19 2016-02-03 邹朝圣 Mechanical arm control system
KR20170033340A (en) * 2014-08-08 2017-03-24 그렉 반 쿠렌 Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
KR101926178B1 (en) 2014-08-08 2018-12-06 그렉 반 쿠렌 Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
JP2016123517A (en) * 2014-12-26 2016-07-11 株式会社バンダイナムコエンターテインメント Program and computer system
US10722795B2 (en) 2016-12-07 2020-07-28 Nintendo Co., Ltd. Storage medium, information processing apparatus and information processing method
JP2018089269A (en) * 2016-12-07 2018-06-14 任天堂株式会社 Information processing program, information processing unit, and information processing method
JP2019139608A (en) * 2018-02-14 2019-08-22 株式会社 ディー・エヌ・エー Image generation device and image generation program
JP6461394B1 (en) * 2018-02-14 2019-01-30 株式会社 ディー・エヌ・エー Image generating apparatus and image generating program
JP2019192116A (en) * 2018-04-27 2019-10-31 株式会社 ディー・エヌ・エー Image generation device and image generation program
JP2020054823A (en) * 2018-08-30 2020-04-09 株式会社バンダイ Game system, game method, and program
JP2020091774A (en) * 2018-12-07 2020-06-11 株式会社gumi Program, information processing device, information processing system, information processing method, and head mount display
JP2021023667A (en) * 2019-08-07 2021-02-22 任天堂株式会社 Game program, game system, game device, and game process controlling method
JP2021192876A (en) * 2019-11-25 2021-12-23 株式会社バンダイ Game system, game method, and program
JP7204853B2 (en) 2019-11-25 2023-01-16 株式会社バンダイ Game system, game method and program
CN111035926A (en) * 2019-12-12 2020-04-21 腾讯科技(深圳)有限公司 Virtual object control method, device and storage medium
CN111035926B (en) * 2019-12-12 2022-07-22 腾讯科技(深圳)有限公司 Virtual object control method, device and storage medium
WO2023035812A1 (en) * 2021-09-09 2023-03-16 腾讯科技(深圳)有限公司 Virtual character control method and apparatus, storage medium, and electronic device

Similar Documents

Publication Publication Date Title
JP2010233671A (en) Program, information storage medium and game device
JP5520656B2 (en) Program and image generation apparatus
JP5410710B2 (en) Program, information storage medium, game system
US5616078A (en) Motion-controlled video entertainment system
EP2039402B1 (en) Input instruction device, input instruction method, and dancing simultation system using the input instruction device and method
JP5627973B2 (en) Program, apparatus, system and method for game processing
EP1073016B1 (en) Method for generating shadows in video games
US8882593B2 (en) Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein
JP6643775B2 (en) Game machine, game system and program
JP5675260B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP5469516B2 (en) Image display program, image display system, image display method, and image display apparatus
JP2008136694A (en) Program, information storage medium and game apparatus
US20110305398A1 (en) Image generation system, shape recognition method, and information storage medium
JP5939733B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP2008186323A (en) Program, information storage medium, and game device
JP2004283419A (en) Game information, information storage medium and game device
US7999812B2 (en) Locality based morphing between less and more deformed models in a computer graphics system
JP2009279050A (en) Program, information storage medium, and game apparatus
EP2253358B1 (en) Game device, game device control method, program, information storage medium
JP5778637B2 (en) Program and game device
JP3747050B1 (en) Program, information storage medium, and image generation system
US8662976B2 (en) Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein
JP5775323B2 (en) Program and image processing apparatus provided with computer for executing the program
US20130109475A1 (en) Game system, control method therefor, and a storage medium storing a computer program
JP6732463B2 (en) Image generation system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140225