JP5238764B2 - GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM - Google Patents

GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM Download PDF

Info

Publication number
JP5238764B2
JP5238764B2 JP2010157516A JP2010157516A JP5238764B2 JP 5238764 B2 JP5238764 B2 JP 5238764B2 JP 2010157516 A JP2010157516 A JP 2010157516A JP 2010157516 A JP2010157516 A JP 2010157516A JP 5238764 B2 JP5238764 B2 JP 5238764B2
Authority
JP
Japan
Prior art keywords
character
time
mark
game
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010157516A
Other languages
Japanese (ja)
Other versions
JP2012022360A (en
Inventor
伸介 向井
孝佳 田中
耀仁 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2010157516A priority Critical patent/JP5238764B2/en
Publication of JP2012022360A publication Critical patent/JP2012022360A/en
Application granted granted Critical
Publication of JP5238764B2 publication Critical patent/JP5238764B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、プレイヤーが体を動かして指示を入力するゲームにおいて、よりスムーズに体を動かせるようにプレイヤーを導くために好適なゲーム装置、ゲーム処理方法、ならびに、プログラムに関する。   The present invention relates to a game device, a game processing method, and a program suitable for guiding a player to move the body more smoothly in a game in which the player moves the body and inputs an instruction.

現実空間におけるモデルの動きを1つ又は複数のカメラで撮影したり、周囲に照射した赤外線の飛行時間やその反射波の位相差を用いてモデルまでの距離を計測したりすることによって、モデルの動きを捉える技術がある。最近では、特許文献1のようにゲームの分野に応用し、プレイヤーを撮影してプレイヤーの所定の部位(例えば、頭部、両眼部など)を追尾し、プレイヤーの動きの認識結果をゲームに反映させることも行われている。   By capturing the movement of the model in real space with one or more cameras, and measuring the distance to the model using the time of flight of the infrared rays irradiated to the surroundings and the phase difference of the reflected waves, There is technology to capture movement. Recently, it is applied to the field of games as in Patent Document 1, and a player is photographed to track a predetermined part of the player (for example, the head, the binocular part, etc.) Reflecting is also done.

特許第4117682号公報Japanese Patent No. 4117682

ところで、例えばダンスゲームのように、現実空間においてプレイヤーが体を動かすことによって進行するゲームにおいて、プレイヤーに所定の動きをさせるために、サンプル映像やお手本映像を見せるだけでは、プレイヤーは今どのようなポーズを取るべきなのかが把握できたとしても、次にどのような動きをすべきなのかを把握することは一般に難しく、連続したスムーズな動きをプレイヤーにさせることが難しいことがあった。例えば、立ちながら両膝を曲げるポーズをプレイヤーに単に提示しただけでは、それが屈伸するポーズなのか、それともジャンプする動きの予備動作なのか、そのときになってからでないと分からない、といった不都合があった。   By the way, in a game that progresses as the player moves in the real space, such as a dance game, in order to make the player perform a predetermined movement, just show the sample video or model video, what kind of player is now Even if it is possible to grasp whether to pose, it is generally difficult to grasp what movement should be performed next, and it may be difficult for the player to make a continuous smooth movement. For example, simply presenting the player with a pose that bends both knees while standing is an inconvenience that it is not possible to know if it is a pose that stretches or is a preliminary movement for jumping. there were.

本発明はこのような課題を解決するものであり、プレイヤーが体を動かして指示を入力するゲームにおいて、よりスムーズに体を動かせるようにプレイヤーを導くために好適なゲーム装置、ゲーム処理方法、ならびに、プログラムを提供することを目的とする。   The present invention solves such a problem, and in a game in which a player moves his / her body and inputs an instruction, a game apparatus suitable for guiding the player to move the body more smoothly, a game processing method, and The purpose is to provide a program.

以上の目的を達成するため、本発明の原理にしたがって、下記の発明を開示する。   In order to achieve the above object, the following invention is disclosed in accordance with the principle of the present invention.

本発明の第1の観点に係るゲーム装置は、記憶部、キャラクター画像生成部、取得部、マーク画像生成部、表示部を備える。
記憶部には、仮想空間内において時間の経過に伴って位置と姿勢とを変化させるキャラクターの当該位置と当該姿勢とが、ゲーム開始からの経過時間に対応付けられて記憶される。
キャラクター画像生成部は、ゲーム開始から現在までの経過時間に対応付けられて記憶部に記憶される位置と姿勢に基づいて、キャラクターを表すキャラクター画像を生成する。
取得部は、ゲーム開始から現在までの経過時間に正の時間(以下「先行時間」という。)を加算した時間に対応付けられて記憶部に記憶される位置であって、現在から先行時間が経過した後に配置されるべきキャラクターの所定部分の位置を取得する。
マーク画像生成部は、取得された位置に配置されるマークオブジェクトを表すマーク画像を生成する。
表示部は、生成されたキャラクター画像と、生成されたマーク画像と、を画面に表示する。
A game device according to a first aspect of the present invention includes a storage unit, a character image generation unit, an acquisition unit, a mark image generation unit, and a display unit.
In the storage unit, the position and the posture of the character that changes the position and the posture with the passage of time in the virtual space are stored in association with the elapsed time from the start of the game.
The character image generation unit generates a character image representing the character based on the position and posture stored in the storage unit in association with the elapsed time from the start of the game to the present.
The acquisition unit is a position that is stored in the storage unit in association with a time obtained by adding a positive time (hereinafter referred to as “preceding time”) to the elapsed time from the start of the game to the current time. The position of a predetermined part of the character to be placed after the lapse is acquired.
The mark image generation unit generates a mark image representing the mark object placed at the acquired position.
The display unit displays the generated character image and the generated mark image on the screen.

本発明のゲーム装置にて実行されるゲームは、例えばダンスゲームのように、現実空間のプレイヤーが、仮想空間に配置されるキャラクターオブジェクト(単に「キャラクター」という。)の動きを参考にしながら体を動かすゲームである。ただし、ゲーム内容は本発明によって限定されない。仮想空間には、キャラクターのほか、現在から先行時間経過した後におけるキャラクターの所定部分の位置にマークオブジェクトが配置される。例えば、ダンスゲームにおいて、キャラクターはプレイヤーにダンスの手本を提示するヒト型のインストラクターの形をしており、キャラクターの所定部分はキャラクターの“手の先”や“足の先”などである。   A game executed by the game device of the present invention is a game in which a player in a real space moves his body while referring to the movement of a character object (simply called “character”) placed in a virtual space, such as a dance game. It is a moving game. However, game content is not limited by the present invention. In the virtual space, in addition to the character, a mark object is arranged at a position of a predetermined portion of the character after the preceding time has elapsed from the present. For example, in a dance game, the character is in the form of a human-type instructor that presents the player with a dance model, and the predetermined part of the character is the character's “hand tip” or “foot tip”.

ゲームには、ゲーム開始からの時間と対応付けて、プレイヤーがその時間にクリアすべき課題(ゲーム課題)が予め用意されている。画面には、時間の経過と共に位置や姿勢が変化するキャラクターを表すキャラクター画像が表示される。キャラクターの位置と姿勢は、プレイヤーが今達成すべきゲーム課題を表す。画面に表示される画像は、仮想視点の位置から仮想視線の向きへキャラクターを含む仮想空間を眺めた様子を仮想投影面に投影した画像である。   In the game, a task (game task) to be cleared by the player at that time is prepared in advance in association with the time from the start of the game. On the screen, a character image representing a character whose position and posture change with the passage of time is displayed. The character's position and posture represent the game task that the player should accomplish now. The image displayed on the screen is an image obtained by projecting a virtual space including a character from the position of the virtual viewpoint in the direction of the virtual line of sight onto the virtual projection plane.

さらに、画面には、現在から先行時間経過した後におけるキャラクターの所定部分の位置に、マーク画像が表示される。マーク画像は、仮想視点の位置から仮想視線の向きへマークオブジェクトを眺めた様子を仮想投影面に投影して得られる画像である。マークオブジェクトの形状は任意である。例えば、マークオブジェクトの形状が球形であるとすると、マークオブジェクトを仮想投影面に投影して得られるマーク画像の形状は、円形である。仮想空間内をキャラクターが動くのに伴って、キャラクター画像の位置や形状だけでなく、マーク画像の画面内における位置も変化する。マーク画像の位置は、現在から先行時間経過した後にプレイヤーが達成すべきゲーム課題のヒントとなる。   Furthermore, a mark image is displayed on the screen at the position of a predetermined portion of the character after the preceding time has elapsed from the present. The mark image is an image obtained by projecting a state in which the mark object is viewed from the position of the virtual viewpoint in the direction of the virtual line of sight on the virtual projection plane. The shape of the mark object is arbitrary. For example, if the shape of the mark object is a sphere, the shape of the mark image obtained by projecting the mark object onto the virtual projection plane is a circle. As the character moves in the virtual space, not only the position and shape of the character image but also the position of the mark image on the screen changes. The position of the mark image serves as a hint for a game task to be achieved by the player after the previous time has elapsed since the present time.

つまり、ゲーム装置は、プレイヤーが今達成すべきゲーム課題を提示するだけでなく、現在から先行時間経過した後に提示されることになるゲーム課題の一部を提示する。プレイヤーは、キャラクター画像の位置と姿勢を見れば、いま体をどのように動かすべきなのかを把握でき、マーク画像の位置を見れば、現在から先行時間経過した後に体の一部分をどのように動かすべきなのかを把握することができる。プレイヤーは、将来どのように体を動かすことになるのかを念頭に置きながら、体を動かすことができる。従って、本発明によれば、プレイヤーは、よりスムーズに体を動かせるようになる。ゲーム装置は、よりスムーズに体を動かせるようにプレイヤーを導くことができる。   That is, the game device not only presents the game task to be achieved by the player, but also presents a part of the game task to be presented after the preceding time has elapsed from the present time. The player can grasp how the body should move now by looking at the position and posture of the character image, and if he sees the position of the mark image, the player will move a part of the body after the preceding time has elapsed It is possible to grasp what should be done. Players can move their bodies while keeping in mind how they will move in the future. Therefore, according to the present invention, the player can move the body more smoothly. The game device can guide the player to move the body more smoothly.

マーク画像は複数であってもよく、マーク画像のそれぞれに対応する先行時間は互いに異なっていてもよい。   There may be a plurality of mark images, and the preceding times corresponding to the respective mark images may be different from each other.

つまり、現実空間において今から先行時間経過したときに所定部分が存在すべるべき位置が、プレイヤーに複数提供される。画面には、例えば、今プレイヤーがいるべき位置と姿勢を表すキャラクターと共に、X秒後にプレイヤーの手の先があるべき位置を表すマーク画像、Y秒後にプレイヤーの手の先があるべき位置を表すマーク画像、N秒後にプレイヤーの手の先があるべき位置を表すマーク画像、などが表示される。従って、プレイヤーは、将来クリアすべきゲーム課題をより詳しく知ることができる。そして、ゲーム装置がよりスムーズに体を動かせるようにプレイヤーを導くことができるという効果が増す。   In other words, the player is provided with a plurality of positions where the predetermined portion should exist when the preceding time has elapsed in the real space. On the screen, for example, a mark image indicating the position where the player's hand should be in X seconds and a position where the player's hand should be in Y seconds are displayed together with a character indicating the position and posture that the player should be at now. A mark image, a mark image representing a position where the player's hand should be, and the like after N seconds are displayed. Therefore, the player can know in more detail a game task to be cleared in the future. And the effect that a player can be guided so that a game device can move a body more smoothly increases.

それぞれの先行時間は等間隔に設定されてもよい。   Each preceding time may be set at equal intervals.

本発明によれば、例えば、先行時間が、5秒後・10秒後・15秒後や、1小節後・2小節後・3小節後、などのように、プレイヤーが把握しやすい時間間隔で設定される。従って、プレイヤーは、将来クリアすべきゲーム課題をより詳しく且つより明確に知ることができる。   According to the present invention, for example, the preceding time is 5 seconds, 10 seconds, 15 seconds later, 1 bar later, 2 bars later, 3 bars later, etc. Is set. Therefore, the player can know the game task to be cleared in the future in more detail and more clearly.

表示部は、先行時間が短い順に複数のマーク画像を配置して画面に表示してもよい。   The display unit may display a plurality of mark images on the screen in the order of shorter preceding times.

つまり、マーク画像は、時系列順に重ねて表示される。本発明によれば、プレイヤーは、将来時間の経過と共にどのように体を動かせばよいのかを明瞭に把握できる。   That is, the mark images are displayed so as to overlap in time series. According to the present invention, the player can clearly grasp how to move his body over time.

マーク画像生成部は、仮想空間内に配置される仮想視点の位置からキャラクターの所定部分までの距離に応じて、マーク画像の大きさを変化させてもよい。   The mark image generation unit may change the size of the mark image according to the distance from the position of the virtual viewpoint arranged in the virtual space to the predetermined part of the character.

例えば、仮想視点の位置に近いほどマーク画像を大きくすると、プレイヤーは、マーク画像が大きければ、体の所定部分を前に出せばよいことがすぐ分かる。プレイヤーは、遠近感を捉えやすくなる。そして、ゲーム装置がよりスムーズに体を動かせるようにプレイヤーを導くことができるという効果が増す。   For example, if the mark image is enlarged as it is closer to the position of the virtual viewpoint, the player can immediately know that if the mark image is large, a predetermined part of the body should be put forward. Players can easily get a sense of perspective. And the effect that a player can be guided so that a game device can move a body more smoothly increases.

マーク画像生成部は、仮想空間内に配置される仮想視点の位置からキャラクターの所定部分までの距離に応じて、マークオブジェクトの大きさを変化させてもよい。   The mark image generation unit may change the size of the mark object in accordance with the distance from the position of the virtual viewpoint arranged in the virtual space to the predetermined part of the character.

例えば、仮想空間内において仮想視点の位置に近いほどマークオブジェクトを大きくすると、仮想視点の位置から仮想視線の向きへマークオブジェクトを眺めた様子を仮想投影面に投影して得られるマーク画像は、マークオブジェクトが仮想視点に近いとき、マークオブジェクトの大きさを一定にした場合よりも更に大きく表示される。一般に、目に近いものほど大きく見えるが、本発明では、マークオブジェクトそのものの大きさを変えることにより、遠近感が誇張して表現される。プレイヤーは、キャラクターの奥行きを捉えやすくなる。そして、ゲーム装置がよりスムーズに体を動かせるようにプレイヤーを導くことができるという効果が増す。   For example, if the mark object is enlarged as it is closer to the virtual viewpoint in the virtual space, the mark image obtained by projecting the mark object from the virtual viewpoint position in the direction of the virtual line of sight onto the virtual projection plane is When the object is close to the virtual viewpoint, the mark object is displayed larger than when the size of the mark object is constant. In general, the closer to the eye, the larger it looks, but in the present invention, the perspective is exaggerated by changing the size of the mark object itself. Players can easily capture the depth of the character. And the effect that a player can be guided so that a game device can move a body more smoothly increases.

マーク画像生成部は、キャラクターの所定部分の位置の単位時間当たりの変化量、又は、キャラクターの所定部分の姿勢の単位時間当たりの変化量に応じて、マーク画像の明度、彩度、色相のうち少なくともいずれか1つを変化させてもよい。   The mark image generator generates a mark image brightness, saturation, or hue according to the amount of change in the position of the predetermined portion of the character per unit time or the amount of change in the posture of the predetermined portion of the character per unit time. At least one of them may be changed.

つまり、所定部分の位置の変化量に応じて、あるいは、所定部分の姿勢の変化量に応じて、マーク画像の明るさや色彩が変化する。プレイヤーは、マーク画像の明るさや色彩の変化の度合いを見れば、マークオブジェクトが仮想視点に近づいているのか遠ざかっているのかを簡単に把握することができる。本発明によれば、ゲーム装置がよりスムーズに体を動かせるようにプレイヤーを導くことができるという効果が増す。   That is, the brightness and color of the mark image change according to the change amount of the position of the predetermined portion or the change amount of the posture of the predetermined portion. The player can easily grasp whether the mark object is approaching or moving away from the virtual viewpoint by looking at the degree of change in brightness and color of the mark image. According to the present invention, the effect that the player can be guided so that the game apparatus can move the body more smoothly is increased.

表示部は、仮想空間内に配置された仮想視点の位置から仮想視線の向きへ仮想空間を眺めた様子を表す画像であって、生成されたキャラクター画像と、生成されたマーク画像と、を含む画像を画面に表示してもよい。   The display unit is an image representing a state in which the virtual space is viewed from the position of the virtual viewpoint arranged in the virtual space in the direction of the virtual line of sight, and includes a generated character image and a generated mark image An image may be displayed on the screen.

本発明によれば、仮想空間内の様子をより立体的に表現でき、より現実感のある画像を表示することができる。   According to the present invention, the state in the virtual space can be expressed more three-dimensionally, and a more realistic image can be displayed.

マーク画像は複数であってもよく、マーク画像のそれぞれに対応する先行時間は等しくてもよい。
そして、表示部は、表示される画面において、複数のマーク画像のうち一のマーク画像(以下「第1マーク画像」という。)と他の一のマーク画像(以下「第2マーク画像」という。)とが重なる場合、第1マーク画像と第2マーク画像とが重ならないように、仮想視点の位置と仮想視線の向きを変化させてもよい。
There may be a plurality of mark images, and the preceding time corresponding to each of the mark images may be equal.
The display unit displays one mark image (hereinafter referred to as “first mark image”) and another one of the mark images (hereinafter referred to as “second mark image”) on the displayed screen. ), The position of the virtual viewpoint and the direction of the virtual line of sight may be changed so that the first mark image and the second mark image do not overlap.

例えば、所定部分として、右手と左手といったように、キャラクターの複数の部位を設定することができる。このとき、1つの先行時間に対応して、複数のマーク画像が画面に表示される。しかし、キャラクターの位置や姿勢、及び、仮想視点の位置や仮想視線の向きによっては、マーク画像同士が重なって見えてしまうことがある。そこで、本発明では、マーク画像同士が重なって見えることのないように、仮想視点の位置と仮想視線の向きを変化させることとしている。本発明によれば、マーク画像が見やすいように、仮想視点と仮想視線が変化するので、プレイヤーにとってマーク画像の区別が付きづらくなったり見づらくなったりしてしまうことを防ぐことができ、ゲーム装置がよりスムーズに体を動かせるようにプレイヤーを導くことができるという効果が増す。   For example, a plurality of parts of the character can be set as the predetermined part, such as a right hand and a left hand. At this time, a plurality of mark images are displayed on the screen corresponding to one preceding time. However, depending on the position and posture of the character, the position of the virtual viewpoint, and the direction of the virtual line of sight, the mark images may appear to overlap each other. Therefore, in the present invention, the position of the virtual viewpoint and the direction of the virtual line of sight are changed so that the mark images do not appear to overlap each other. According to the present invention, since the virtual viewpoint and the virtual line of sight change so that the mark image is easy to see, it is possible to prevent the player from making the mark image difficult to distinguish or difficult to see. The effect of guiding the player to move the body more smoothly increases.

本発明のその他の観点に係るゲーム処理方法は、記憶部、キャラクター画像生成部、取得部、マーク画像生成部、表示部を備えるゲーム装置にて実行されるゲーム処理方法であって、キャラクター画像生成ステップ、取得ステップ、マーク画像生成ステップ、表示ステップを備える。
記憶部には、仮想空間内において時間の経過に伴って位置と姿勢とを変化させるキャラクターの当該位置と当該姿勢とが、ゲーム開始からの経過時間に対応付けられて記憶される。
キャラクター画像生成ステップでは、キャラクター画像生成部が、ゲーム開始から現在までの経過時間に対応付けられて記憶部に記憶される位置と姿勢に基づいて、キャラクターを表すキャラクター画像を生成する。
取得ステップでは、取得部が、ゲーム開始から現在までの経過時間に正の時間(以下「先行時間」という。)を加算した時間に対応付けられて記憶部に記憶される位置であって、現在から先行時間が経過した後に配置されるべきキャラクターの所定部分の位置を取得する。
マーク画像生成ステップでは、マーク画像生成部が、取得された位置に配置されるマークオブジェクトを表すマーク画像を生成する。
表示ステップでは、表示部が、生成されたキャラクター画像と、生成されたマーク画像と、を画面に表示する。
A game processing method according to another aspect of the present invention is a game processing method that is executed by a game device including a storage unit, a character image generation unit, an acquisition unit, a mark image generation unit, and a display unit. A step, an acquisition step, a mark image generation step, and a display step.
In the storage unit, the position and the posture of the character that changes the position and the posture with the passage of time in the virtual space are stored in association with the elapsed time from the start of the game.
In the character image generation step, the character image generation unit generates a character image representing the character based on the position and posture stored in the storage unit in association with the elapsed time from the start of the game to the present time.
In the acquisition step, the acquisition unit is a position stored in the storage unit in association with a time obtained by adding a positive time (hereinafter referred to as “preceding time”) to the elapsed time from the start of the game to the current time. The position of a predetermined portion of the character to be placed after the preceding time has elapsed is acquired.
In the mark image generation step, the mark image generation unit generates a mark image representing the mark object placed at the acquired position.
In the display step, the display unit displays the generated character image and the generated mark image on the screen.

本発明によれば、プレイヤーは、よりスムーズに体を動かせるようになる。ゲーム装置は、よりスムーズに体を動かせるようにプレイヤーを導くことができる。   According to the present invention, the player can move the body more smoothly. The game device can guide the player to move the body more smoothly.

本発明のその他の観点に係るプログラムは、コンピュータを、記憶部、キャラクター画像生成部、取得部、マーク画像生成部、表示部とし機能させる。
記憶部には、仮想空間内において時間の経過に伴って位置と姿勢とを変化させるキャラクターの当該位置と当該姿勢とが、ゲーム開始からの経過時間に対応付けられて記憶される。
キャラクター画像生成部は、ゲーム開始から現在までの経過時間に対応付けられて記憶部に記憶される位置と姿勢に基づいて、キャラクターを表すキャラクター画像を生成する。
取得部は、ゲーム開始から現在までの経過時間に正の時間(以下「先行時間」という。)を加算した時間に対応付けられて記憶部に記憶される位置であって、現在から先行時間が経過した後に配置されるべきキャラクターの所定部分の位置を取得する。
マーク画像生成部は、取得された位置に配置されるマークオブジェクトを表すマーク画像を生成する。
表示部は、生成されたキャラクター画像と、生成されたマーク画像と、を画面に表示する。
A program according to another aspect of the present invention causes a computer to function as a storage unit, a character image generation unit, an acquisition unit, a mark image generation unit, and a display unit.
In the storage unit, the position and the posture of the character that changes the position and the posture with the passage of time in the virtual space are stored in association with the elapsed time from the start of the game.
The character image generation unit generates a character image representing the character based on the position and posture stored in the storage unit in association with the elapsed time from the start of the game to the present.
The acquisition unit is a position that is stored in the storage unit in association with a time obtained by adding a positive time (hereinafter referred to as “preceding time”) to the elapsed time from the start of the game to the current time. The position of a predetermined part of the character to be placed after the lapse is acquired.
The mark image generation unit generates a mark image representing the mark object placed at the acquired position.
The display unit displays the generated character image and the generated mark image on the screen.

本発明によれば、コンピュータを上述のように動作するゲーム装置として機能させることができる。
また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記憶媒体に記録することができる。
上記プログラムは、プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記憶媒体は、コンピュータとは独立して配布・販売することができる。
According to the present invention, it is possible to cause a computer to function as a game device that operates as described above.
The program of the present invention can be recorded on a computer-readable information storage medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.
The above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information storage medium can be distributed and sold independently from the computer.

本発明によれば、プレイヤーが体を動かして指示を入力するゲームにおいて、よりスムーズに体を動かせるようにプレイヤーを導くために好適なゲーム装置、ゲーム処理方法、ならびに、プログラムを提供することができる。   According to the present invention, it is possible to provide a game device, a game processing method, and a program suitable for guiding a player so that the player can move the body more smoothly in a game in which the player moves the body and inputs an instruction. .

本発明のゲーム装置が実現される典型的な情報処理装置の概要構成を示す図である。It is a figure which shows schematic structure of the typical information processing apparatus with which the game device of this invention is implement | achieved. 情報処理装置の外観を模式的に表す図である。It is a figure showing typically the appearance of an information processor. ゲーム装置の機能的な構成を説明するための図である。It is a figure for demonstrating the functional structure of a game device. キャラクター画像を表す図である。It is a figure showing a character image. マーク画像を表す図である。It is a figure showing a mark image. キャラクター画像とマーク画像を合成してできる画像を表す図である。It is a figure showing the image formed by combining a character image and a mark image. キャラクター画像と、複数の先行時間のそれぞれに対応するマーク画像と、を表す図である。It is a figure showing a character image and the mark image corresponding to each of several preceding time. キャラクター画像と、複数の先行時間のそれぞれに対応するマーク画像と、を表す図である。It is a figure showing a character image and the mark image corresponding to each of several preceding time. キャラクター画像と、複数の先行時間のそれぞれに対応するマーク画像と、を表す図である。It is a figure showing a character image and the mark image corresponding to each of several preceding time. ゲーム処理を説明するためのフローチャートである。It is a flowchart for demonstrating a game process. 実施形態2において、仮想空間内に配置されるキャラクターとマークオブジェクトを表す図である。In Embodiment 2, it is a figure showing the character and mark object which are arrange | positioned in virtual space. キャラクター画像とマーク画像を合成してできる画像を表す図である。It is a figure showing the image formed by combining a character image and a mark image. キャラクター画像とマーク画像を合成してできる画像を表す図である。It is a figure showing the image formed by combining a character image and a mark image. (a)実施形態3において、キャラクターの所定部分の位置の変化を説明するための図である。(b)キャラクターの所定部分の姿勢の変化を説明するための図である。(A) In Embodiment 3, it is a figure for demonstrating the change of the position of the predetermined part of a character. (B) It is a figure for demonstrating the change of the attitude | position of the predetermined part of a character. キャラクターの所定部分の移動速度と、マーク画像の明度と、の関係を示す図である。It is a figure which shows the relationship between the moving speed of the predetermined part of a character, and the brightness of a mark image. 実施形態4において、キャラクター画像と、複数の先行時間のそれぞれに対応し軌跡として描かれるマーク画像と、を表す図である。In Embodiment 4, it is a figure showing the character image and the mark image drawn as a locus | trajectory corresponding to each of several preceding time. 仮想視点の位置と仮想視線の向きの両方を変化させる様子を模式的に表した図である。It is the figure which represented typically a mode that both the position of a virtual viewpoint and the direction of a virtual visual line were changed. 仮想視点の位置と仮想視線の向きを変化させた後における、キャラクター画像と、複数の先行時間のそれぞれに対応し軌跡として描かれるマーク画像と、を表す図である。It is a figure showing the character image after changing the position of a virtual viewpoint, and the direction of a virtual eyes | visual_axis, and the mark image drawn as a locus | trajectory corresponding to each of several preceding time. マーク画像が示すように所定部分が移動した後におけるキャラクター画像を表す図である。It is a figure showing the character image after the predetermined part moved as a mark image shows. ゲーム処理を説明するためのフローチャートである。It is a flowchart for demonstrating a game process.

本発明の実施形態を説明する。以下では、理解を容易にするため、ゲーム用の情報処理装置を利用して本発明が実現される実施形態を説明するが、以下の実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素もしくは全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。   An embodiment of the present invention will be described. In the following, for ease of understanding, an embodiment in which the present invention is realized using an information processing apparatus for games will be described. However, the following embodiment is for explanation, and the scope of the present invention There is no limit. Therefore, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

(実施形態1)
図1は、本発明のゲーム装置の機能を果たす典型的な情報処理装置100の概要構成を示す模式図である。
(Embodiment 1)
FIG. 1 is a schematic diagram showing a schematic configuration of a typical information processing apparatus 100 that fulfills the functions of the game apparatus of the present invention.

情報処理装置100は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、ハードディスク104と、インターフェース105と、外部メモリ106と、入力装置107と、DVD−ROM(Digital Versatile Disk - Read Only Memory)ドライブ108と、画像処理部109と、音声処理部110と、NIC(Network Interface Card)111と、を備える。   The information processing apparatus 100 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a hard disk 104, an interface 105, an external memory 106, an input device 107, and the like. And a DVD-ROM (Digital Versatile Disk-Read Only Memory) drive 108, an image processing unit 109, an audio processing unit 110, and a NIC (Network Interface Card) 111.

ゲーム用のプログラムおよびデータを記憶したDVD−ROMをDVD−ROMドライブ108に装着し、情報処理装置100の電源を投入することにより、当該プログラムが実行され、本実施形態のゲーム装置が実現される。   When a DVD-ROM storing a game program and data is loaded into the DVD-ROM drive 108 and the information processing apparatus 100 is turned on, the program is executed and the game apparatus of the present embodiment is realized. .

CPU 101は、情報処理装置100全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。また、CPU 101は、ALU(Arithmetic Logic Unit)(図示せず)を用いて、レジスタという高速アクセスが可能な記憶領域に記憶されたデータの加減乗除等の算術演算や、論理和、論理積、論理否定等の論理演算、ビット和、ビット積、ビット反転、ビットシフト、ビット回転等のビット演算などを行うことができる。さらに、CPU 101は、マルチメディア処理対応のための加減乗除等の飽和演算や、三角関数等、ベクトル演算などを高速に行うことができるコプロセッサを備える。   The CPU 101 controls the overall operation of the information processing apparatus 100 and is connected to each component to exchange control signals and data. The CPU 101 uses an ALU (Arithmetic Logic Unit) (not shown) to perform arithmetic operations such as addition, subtraction, multiplication, and division of data stored in a high-speed accessible storage area called a register, logical sum, logical product, Logical operations such as logical negation, bit operations such as bit sum, bit product, bit inversion, bit shift, and bit rotation can be performed. Further, the CPU 101 includes a coprocessor that can perform saturation calculation such as addition / subtraction / multiplication / division for multimedia processing, vector calculation such as trigonometric function at high speed.

ROM 102には、電源投入直後に実行されるIPL(Initial Program Loader)が記録される。IPLがCPU 101によって実行されることにより、DVD−ROMに記録されたプログラムがRAM 103に読み出され、CPU 101による起動処理が開始される。   The ROM 102 records an IPL (Initial Program Loader) that is executed immediately after the power is turned on. When the IPL is executed by the CPU 101, the program recorded on the DVD-ROM is read to the RAM 103, and the startup process by the CPU 101 is started.

RAM 103は、データやプログラムを一時的に記憶するためのもので、例えば、DVD−ROMから読み出されたプログラムやデータ、その他ゲームの進行やチャット通信に必要なデータが保持される。また、CPU 101は、RAM 103に変数領域を設け、当該変数に格納された値に対して直接ALUを作用させて演算を行ったり、RAM 103に格納された値を一旦レジスタに格納してからレジスタに対して演算を行い、演算結果をメモリに書き戻す、などの処理を行う。   The RAM 103 is for temporarily storing data and programs, and holds, for example, programs and data read from a DVD-ROM, and other data necessary for game progress and chat communication. Further, the CPU 101 provides a variable area in the RAM 103 and performs an operation by directly operating the ALU on the value stored in the variable, or temporarily stores the value stored in the RAM 103 in the register. Perform operations such as performing operations on registers and writing back the operation results to memory.

ハードディスク104は、情報処理装置100全体の動作制御に必要なオペレーティングシステム(OS)のプログラムや各種のゲームデータ等を格納する。CPU 101は、ハードディスク104に記憶される情報を随時書き換えることができる。   The hard disk 104 stores an operating system (OS) program necessary for operation control of the entire information processing apparatus 100, various game data, and the like. The CPU 101 can rewrite information stored in the hard disk 104 at any time.

インターフェース105を介して着脱自在に接続された外部メモリ106には、ゲームのプレイ状況(過去の成績等)を示すデータ、ゲームの進行状態を示すデータ、ネットワークを用いた他の装置との通信のログ(記録)のデータなどが記憶される。CPU 101は、外部メモリ106に記憶される情報を随時書き換えることができる。また、情報処理装置100は、インターフェース105を介して、増設用のハードディスクを接続することができる。   The external memory 106 detachably connected via the interface 105 stores data indicating game play status (past results, etc.), data indicating the progress of the game, and communication with other devices using the network. Log (record) data and the like are stored. The CPU 101 can rewrite information stored in the external memory 106 at any time. In addition, the information processing apparatus 100 can connect an additional hard disk via the interface 105.

入力装置107は、図2に示すように、ゲーム画面が表示されるモニター250付近に設置される。入力装置107は、ユーザの様子などを撮影するカメラを備える。CPU 101は、カメラによって撮影された画像を表す画像データを解析し、画像に含まれるユーザの部位(例えばユーザの手、足、顔など)を判別する。画像解析の手法には、例えば、パターン認識による解析、特徴点の抽出による解析、空間周波数の算出による解析などがある。カメラによる撮影は、ゲーム中に継続的に行われる。   As shown in FIG. 2, the input device 107 is installed near a monitor 250 on which a game screen is displayed. The input device 107 includes a camera that captures a user's situation. The CPU 101 analyzes image data representing an image photographed by the camera, and determines a user part (for example, a user's hand, foot, face, etc.) included in the image. Image analysis methods include, for example, analysis by pattern recognition, analysis by extraction of feature points, analysis by calculation of spatial frequency, and the like. Shooting by the camera is continuously performed during the game.

また、入力装置107は、入力装置107からユーザ(もしくはユーザの任意の部位)までの距離を測定する深度センサーを備える。例えば、入力装置107は、赤外線を周囲に照射し、この赤外線の反射波を検知する。そして、入力装置107は、照射波と反射波との位相差や、赤外線が発射されてからその反射光が検知されるまでの時間(飛行時間)に基づいて、照射波の発射口から照射波を反射した物体までの距離(以下「深度」ともいう。)を求める。深度センサーによる深度の検知は、赤外線を発射可能な方向のそれぞれについて、所定の時間間隔で繰り返し行われる。   The input device 107 includes a depth sensor that measures the distance from the input device 107 to the user (or any part of the user). For example, the input device 107 irradiates the surroundings with infrared rays and detects the reflected waves of the infrared rays. Then, the input device 107 determines the irradiation wave from the irradiation wave emission port based on the phase difference between the irradiation wave and the reflected wave and the time (flight time) from when the infrared ray is emitted until the reflected light is detected. The distance (hereinafter also referred to as “depth”) to the object that reflects is obtained. Depth detection by the depth sensor is repeatedly performed at predetermined time intervals in each of the directions in which infrared rays can be emitted.

深度センサーを備えることにより、情報処理装置100は、現実空間に配置された物体の3次元的な位置や形状をより詳しく把握することが可能になる。具体的には、CPU 101が第1の時刻に取得された第1の画像データと第2の時刻に取得された第2の画像データとを画像解析した結果、第1の画像データと第2の画像データの両方にユーザの頭部を表す部分が含まれていることを判別したとする。CPU 101は、第1の画像データ内における頭部の位置と、第2の画像データ内における頭部の位置と、の変化から、カメラから見てユーザの頭部が上下左右のどの方向にどの程度動いたのかを判別することができるだけでなく、第1の画像データにおける頭部の深度と、第2の画像データ内における頭部の深度と、の変化から、カメラから見てユーザの頭部が前後のどちらの方向にどの程度動いたのか(どの程度カメラに近づいたりカメラから遠ざかったりしたのか)を判別することもできる。   By providing the depth sensor, the information processing apparatus 100 can grasp in more detail the three-dimensional position and shape of the object arranged in the real space. Specifically, as a result of image analysis of the first image data acquired at the first time and the second image data acquired at the second time by the CPU 101, the first image data and the second image data Assume that it is determined that a part representing the user's head is included in both of the image data. The CPU 101 determines in which direction the user's head is up, down, left, or right as viewed from the camera based on the change in the position of the head in the first image data and the position of the head in the second image data. In addition to being able to determine whether it has moved to some extent, the head of the user as viewed from the camera from the change in the depth of the head in the first image data and the depth of the head in the second image data It is also possible to determine how far the camera has moved in either the forward or backward direction (how close or away from the camera).

このように、CPU 101は、入力装置107が備えるカメラによって撮影された画像と、入力装置107が備える深度センサーによって測定された距離(深度)と、に基づいて、いわゆるモーションキャプチャーのように、現実空間におけるユーザの3次元的な動きをデジタル化して把握することができる。   As described above, the CPU 101 uses the image captured by the camera included in the input device 107 and the distance (depth) measured by the depth sensor included in the input device 107 as in the case of so-called motion capture. The user's three-dimensional movement in the space can be digitized and grasped.

例えば、ボーリングゲームにおいて、プレイヤーがモニター250画面の前(つまり入力装置107の前)でボールを投げるモーションをすると、CPU 101は、プレイヤーがボールを投げるモーションを行ったことを認識することができる。そして、CPU 101は、認識したモーションに応じて、ゲームを進行することができる。つまり、プレイヤーは、タッチパッド型のコントローラなどを持つことなく、自分の体を自由に動かすことによって、所望の指示を入力することができる。入力装置107は、プレイヤーからの指示入力を受け付ける、いわゆる“コントローラ”の役割を果たす。   For example, in a bowling game, when the player makes a motion of throwing a ball in front of the monitor 250 screen (that is, in front of the input device 107), the CPU 101 can recognize that the player has made a motion of throwing the ball. Then, the CPU 101 can proceed with the game according to the recognized motion. That is, the player can input a desired instruction by freely moving his / her body without having a touchpad controller or the like. The input device 107 serves as a so-called “controller” that receives an instruction input from a player.

撮影された画像を表すデジタルの画像データは、複数の画素の集合である。典型的には、画素のそれぞれに三原色(R,G,B)の強度を表す値が対応付けられる。画像深度センサーにより各方向の深度が測定されるということは、実質的には、1つの画素が、赤(R),緑(G),青(B)に加えて、深度(D)というもう一次元を用いて表されることを意味する。   Digital image data representing a captured image is a set of a plurality of pixels. Typically, a value representing the intensity of the three primary colors (R, G, B) is associated with each pixel. The fact that the depth in each direction is measured by the image depth sensor means that, in effect, one pixel has a depth (D) in addition to red (R), green (G), and blue (B). It is expressed using one dimension.

DVD−ROMドライブ108に装着されるDVD−ROMには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データなどが予め記録される。DVD−ROMドライブ108は、CPU 101の制御によって、装着されたDVD−ROMに記録されたプログラムやデータを読み出す。CPU 101は、読み出されたプログラムやデータをRAM 103等に一時的に記憶する。   A DVD-ROM mounted on the DVD-ROM drive 108 stores in advance a program for realizing a game, image data and sound data associated with the game, and the like. The DVD-ROM drive 108 reads programs and data recorded on the attached DVD-ROM under the control of the CPU 101. The CPU 101 temporarily stores the read program and data in the RAM 103 or the like.

画像処理部109は、DVD−ROMから読み出されたデータをCPU 101や画像処理部109が備える画像演算プロセッサ(図示せず)によって加工処理した後、画像処理部109が備えるフレームメモリ(図示せず)に記録する。フレームメモリに記録された画像情報は、所定の同期タイミングでビデオ信号に変換され、画像処理部109に接続されるモニター250へ出力される。   The image processing unit 109 processes data read from the DVD-ROM by the CPU 101 or an image arithmetic processor (not shown) included in the image processing unit 109, and then performs a frame memory (not shown) included in the image processing unit 109. Record). Image information recorded in the frame memory is converted into a video signal at a predetermined synchronization timing, and is output to the monitor 250 connected to the image processing unit 109.

画像演算プロセッサは、2次元の画像の重ね合わせ演算やαブレンディング等の透過演算、各種の飽和演算を高速に実行できる。また、画像演算プロセッサは、仮想3次元空間に配置され、各種のテクスチャ情報が付加されたポリゴン情報を、Zバッファ法によりレンダリングして、所定の視点位置から仮想3次元空間に配置されたポリゴンを所定の視線の方向へ俯瞰したレンダリング画像を得る演算の高速実行も可能である。   The image calculation processor can execute a two-dimensional image overlay calculation, a transmission calculation such as α blending, and various saturation calculations at high speed. Further, the image arithmetic processor renders polygon information arranged in the virtual three-dimensional space and added with various pieces of texture information by the Z buffer method, so that the polygon arranged in the virtual three-dimensional space from a predetermined viewpoint position is rendered. It is also possible to perform a high-speed execution of a calculation for obtaining a rendering image viewed from a predetermined line of sight.

さらに、CPU 101と画像演算プロセッサが協調動作することにより、文字の形状を定義するフォント情報に従って、文字列を2次元画像としてフレームメモリへ描画したり、各ポリゴン表面へ描画することが可能である。   Furthermore, by the cooperative operation of the CPU 101 and the image arithmetic processor, it is possible to draw a character string as a two-dimensional image on a frame memory or draw it on the surface of each polygon according to font information that defines the character shape. .

また、CPU 101と画像演算プロセッサがDVD−ROMに予め格納された画像データをフレームメモリに書き込むことによって、ゲームの様子などを画面に表示することができる。画像データをフレームメモリに書き込み表示させる処理を、定期的なタイミング(典型的には垂直同期割り込み(VSYNC)のタイミング)で繰り返し行うことにより、モニター250にアニメーションを表示することが可能になる。   In addition, the CPU 101 and the image arithmetic processor can write the image data stored in advance in the DVD-ROM into the frame memory, thereby displaying the state of the game on the screen. By repeatedly performing the process of writing and displaying the image data in the frame memory at a regular timing (typically the timing of the vertical synchronization interrupt (VSYNC)), an animation can be displayed on the monitor 250.

音声処理部110は、DVD−ROMから読み出した音声データをアナログ音声信号に変換し、スピーカーから出力させる。また、CPU 101の制御の下、ゲームの進行の中で発生させるべき効果音や楽曲などの音声データを生成し、生成された音声データをデコードすることにより、様々な音声をスピーカーから出力させる。   The audio processing unit 110 converts audio data read from the DVD-ROM into an analog audio signal and outputs it from a speaker. Further, under the control of the CPU 101, sound data such as sound effects and music to be generated during the progress of the game is generated, and various sound is output from the speaker by decoding the generated sound data.

音声処理部110は、DVD−ROMに記録された音声データがMIDIデータである場合には、音声処理部110が有する音源データを参照して、MIDIデータをPCMデータに変換する。また、音声処理部110は、ADPCM(Adaptive Differential Pulse Code Modulation)形式やOgg Vorbis形式等により圧縮された音声データである場合には、圧縮された音声データをPCMデータに変換する。PCMデータは、サンプリング周波数に応じたタイミングでD/A(Digital/Analog)変換を行って、スピーカーに出力することにより、音声出力が可能となる。   When the audio data recorded on the DVD-ROM is MIDI data, the audio processing unit 110 refers to the sound source data included in the audio processing unit 110 and converts the MIDI data into PCM data. In addition, when the audio processing unit 110 is audio data compressed in an ADPCM (Adaptive Differential Pulse Code Modulation) format, an Ogg Vorbis format, or the like, the audio processing unit 110 converts the compressed audio data into PCM data. The PCM data can be output by performing D / A (Digital / Analog) conversion at a timing corresponding to the sampling frequency and outputting it to a speaker.

NIC 111は、情報処理装置100をインターネット等のコンピュータ通信網に接続する。NIC 111は、例えば、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−T規格にしたがうものや、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integrated Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム等と、これらとCPU 101との仲立ちを行うインターフェース(図示せず)と、から構成される。   The NIC 111 connects the information processing apparatus 100 to a computer communication network such as the Internet. The NIC 111 is based on, for example, a 10BASE-T / 100BASE-T standard used when configuring a LAN (Local Area Network), an analog modem for connecting to the Internet using a telephone line, ISDN (Integrated Services). A digital network (ADSL) modem, an ADSL (Asymmetric Digital Subscriber Line) modem, a cable modem for connecting to the Internet using a cable television line, and an interface (not shown) that mediates between these and the CPU 101 Composed.

次に、上記構成を有する情報処理装置100により実現される、本実施形態のゲーム装置300の機能的な構成等について説明する。   Next, a functional configuration and the like of the game apparatus 300 according to the present embodiment realized by the information processing apparatus 100 having the above configuration will be described.

本実施形態のゲーム装置300において実行されるゲームはダンスゲームである。CPU 101は、ゲームを開始すると、ダンス用の楽曲を再生すると共に、プレイヤーが達成すべきゲーム課題をプレイヤーに順々に提示する。ゲーム課題は、ゲーム内時刻と、現実空間においてプレイヤーがいるべき位置と取るべき姿勢とを表すデータと、が対応付けられることにより定義される。CPU 101は、ゲーム課題の内容を反映したキャラクターオブジェクト(以下、単に「キャラクター」という。本実施形態ではダンスのインストラクターの姿をしている。)をモニター250に表示する。CPU 101は、そのキャラクターの位置や姿勢を変化させることにより、プレイヤーにゲーム課題を提示する。   The game executed in the game device 300 of the present embodiment is a dance game. When starting the game, the CPU 101 reproduces dance music and presents the game tasks to be achieved by the player in order to the player. A game task is defined by associating in-game time with data representing the position that the player should be in the real space and the posture to be taken. The CPU 101 displays on the monitor 250 a character object reflecting the content of the game task (hereinafter simply referred to as “character”. In this embodiment, it is a dance instructor). The CPU 101 presents a game task to the player by changing the position and posture of the character.

プレイヤーは、モニター250に動画で表示されるキャラクターの動きを参考にしながら自分の体を動かす。プレイヤーの体の動きが入力装置107によって検知される。例えば、プレイヤーの両手の位置と向き、プレイヤーの両足の位置と向き、プレイヤーの頭の位置と向きなどがCPU 101によって識別される。そして、この識別結果に基づいて、予め設定されたゲーム課題通りにプレイヤーが手、足、頭などを動かしたか否かが、つまりプレイヤーの成績が、CPU 101によって判定される。プレイヤーは、キャラクターの動きを参考にして体を動かせば、楽曲に合わせてダンスを踊っている感覚を味わうことができる。   The player moves his / her body while referring to the movement of the character displayed on the monitor 250 as a moving image. The movement of the player's body is detected by the input device 107. For example, the CPU 101 identifies the position and orientation of both hands of the player, the position and orientation of both feet of the player, the position and orientation of the player's head, and the like. Then, based on the identification result, the CPU 101 determines whether or not the player has moved his hand, foot, head, or the like according to a preset game task, that is, the player's score. Players can experience the sensation of dancing to the music by moving their bodies with reference to the movement of the character.

図3は、本実施形態のゲーム装置300の機能的な構成を示す図である。ゲーム装置300は、記憶部301、キャラクター画像生成部302、取得部303、マーク画像生成部304、表示部305を備える。   FIG. 3 is a diagram illustrating a functional configuration of the game apparatus 300 according to the present embodiment. The game apparatus 300 includes a storage unit 301, a character image generation unit 302, an acquisition unit 303, a mark image generation unit 304, and a display unit 305.

記憶部301は、仮想空間内おいて時間の経過に伴って位置と姿勢とを変化させるキャラクターの位置と姿勢とを、ゲーム開始からの経過時間に対応付けて記憶する。ハードディスク104が、記憶部301として機能する。   The storage unit 301 stores the position and posture of the character whose position and posture change with time in the virtual space in association with the elapsed time from the start of the game. The hard disk 104 functions as the storage unit 301.

キャラクターの位置は、仮想空間内に予め定義されるグローバル座標系を用いた座標値によって表される。キャラクターの位置として、キャラクターの代表点の座標値が用いられる。代表点は、例えば、キャラクターの重心点である。キャラクターの姿勢は、グローバル座標系におけるベクトル、もしくはキャラクターを構成する複数の点の座標値の組み合わせによって表される。   The position of the character is represented by coordinate values using a global coordinate system defined in advance in the virtual space. As the character position, the coordinate value of the representative point of the character is used. The representative point is, for example, the center of gravity of the character. The character's posture is represented by a vector in the global coordinate system or a combination of coordinate values of a plurality of points constituting the character.

ハードディスク104には、ゲームの開始時刻T0におけるキャラクターの位置と姿勢を定義するデータ、開始時刻から所定時間ΔT経過後の時刻T1(=T0+ΔT)におけるキャラクターの位置と姿勢を定義するデータ、時刻T1から更に所定時間ΔT経過後の時刻T2(=T1+ΔT)におけるキャラクターの位置と姿勢を定義するデータ、などが格納されている。キャラクターは、ハードディスク104に予め記憶された位置と姿勢を定義するデータに基づいて、CPU 101と画像処理部109の制御により動く。   In the hard disk 104, data defining the character position and posture at the game start time T0, data defining the character position and posture at the time T1 (= T0 + ΔT) after a predetermined time ΔT from the start time, from the time T1. Furthermore, data defining the position and posture of the character at time T2 (= T1 + ΔT) after a predetermined time ΔT has been stored. The character moves under the control of the CPU 101 and the image processing unit 109 based on data defining the position and posture stored in advance in the hard disk 104.

所定時間ΔTの長さは、典型的には垂直同期割り込み(VSYNC)に相当する時間長である。それぞれの時刻における位置と姿勢を定義するデータに基づいて、CPU 101が順々にキャラクターの位置と姿勢を変化させていけば、キャラクターのアニメーション画像がモニター250に表示されることになる。   The length of the predetermined time ΔT is typically a time length corresponding to a vertical synchronization interrupt (VSYNC). If the CPU 101 sequentially changes the position and orientation of the character based on the data defining the position and orientation at each time, an animation image of the character is displayed on the monitor 250.

本実施形態では、キャラクターの位置と姿勢を定義するデータのそれぞれの時間間隔は等間隔になるように定義されている。ただし、これらの時間間隔は必ずしも等しくなくてもよい。例えば、キャラクターの動きが速いシーンや“決めポーズ”のあたりでは時間間隔を狭くして細かく描写する一方、キャラクターの動きが遅いシーンやしばらく静止するシーンなどでは時間間隔を広くして簡略化して描写してもよい。このようにすれば、ハードディスク104に予め記憶すべきデータの量を減らすことができる。また、見る側のプレイヤーにとっては、シーンごとにメリハリの効いた分かりやすい画像を見ることができる、という効果もある。   In the present embodiment, the time intervals of the data defining the character position and posture are defined to be equal. However, these time intervals are not necessarily equal. For example, in a scene where the character moves fast or in the “determined pose”, the time interval is narrowed and detailed, while in a scene where the character moves slowly or a scene where the character moves for a while, the time interval is widened and simplified. May be. In this way, the amount of data to be stored in advance in the hard disk 104 can be reduced. In addition, the viewing player can also see a clear and easy-to-understand image for each scene.

キャラクター画像生成部302は、ゲーム開始から現在までの経過時間に対応付けられて記憶部301に記憶される位置と姿勢に基づいて、キャラクターを表す画像(以下「キャラクター画像」という。)を生成する。CPU 101と画像処理部109が協働して、キャラクター画像生成部302として機能する。   The character image generation unit 302 generates an image representing a character (hereinafter referred to as “character image”) based on the position and posture stored in the storage unit 301 in association with the elapsed time from the start of the game to the present. . The CPU 101 and the image processing unit 109 cooperate to function as the character image generation unit 302.

すなわち、CPU 101は、リアルタイムクロック(RTC)で時刻を計時し、ゲームの開始時刻と現在時刻との差分(つまりゲーム開始からの経過時間)を計算する。CPU 101は、計算された経過時間に対応付けられて記憶された位置と姿勢を定義するデータをハードディスク104から読み出す。そして、CPU 101は、読み出した位置に、読み出した姿勢で、キャラクターを配置した画像を、生成する。生成された画像は、モニター250に表示される。   That is, the CPU 101 measures time with a real-time clock (RTC), and calculates the difference between the game start time and the current time (that is, the elapsed time since the game start). The CPU 101 reads from the hard disk 104 data defining the position and orientation stored in association with the calculated elapsed time. Then, the CPU 101 generates an image in which characters are arranged at the read position in the read posture. The generated image is displayed on the monitor 250.

本実施形態では、キャラクター410は、プレイヤーから見て自分の鏡写しになるような動きをする。つまり、キャラクター410の右足(プレイヤーからみて左側に見える足)が前に出た場合には、プレイヤーは、自分の左足を前に出せばよい。   In this embodiment, the character 410 moves so as to be a mirror of itself as seen from the player. In other words, when the right foot of the character 410 (the foot seen on the left side when viewed from the player) comes out forward, the player may put out his left foot forward.

取得部303は、ゲーム開始から現在までの経過時間に正の時間(以下「先行時間」という。)を加算した時間に対応付けられて記憶部301に記憶される位置であって、現在からこの先行時間が経過した後に配置されるべきキャラクターの所定部分の位置を取得する。CPU 101とハードディスク104が協働して、取得部303として機能する。   The acquisition unit 303 is a position stored in the storage unit 301 in association with a time obtained by adding a positive time (hereinafter referred to as “preceding time”) to the elapsed time from the start of the game to the present time. The position of a predetermined portion of the character to be placed after the preceding time has elapsed is acquired. The CPU 101 and the hard disk 104 cooperate to function as the acquisition unit 303.

ここで、キャラクターの“所定部分”とは、例えばキャラクターの形状がヒト型である場合には、キャラクターの手の先(指の先)や足の先(つま先)などである。ただし、キャラクターの形状はヒト型に限らず任意である。所定部分は、キャラクター中、位置の変化量もしくは姿勢の変化量が比較的大きいと予想される部位であることが望ましい。また、ゲーム制作者がプレイヤーに特に注目して欲しい部分を“所定部分”に設定するとよい。   Here, the “predetermined portion” of the character is, for example, the tip of the character (tip of a finger) or the tip of the foot (toe) when the shape of the character is a human type. However, the shape of the character is not limited to the human type and is arbitrary. The predetermined portion is preferably a part of the character that is expected to have a relatively large change in position or change in posture. Further, it is preferable to set a “predetermined portion” for a portion that the game creator wants the player to pay particular attention to.

また、先行時間の長さは、例えば、現在時刻からX秒経過した(未来の)時刻というように、あるいは、現在の割り込み(VSYNC)からX回後の割り込みというように、予め決められる値である。   Further, the length of the preceding time is a predetermined value, for example, a time when X seconds have passed (future) after the current time, or an interrupt X times after the current interrupt (VSYNC). is there.

キャラクターの表面は、典型的には三角形や四角形の形状をした複数のプリミティブを網目状に繋げてできるポリゴンで表される。本実施形態では、CPU 101は、キャラクターの表面を表すポリゴンのうち、現在から先行時間だけ未来に配置される両手の先の部分に相当するポリゴンの位置座標を取得する。   The surface of a character is typically represented by a polygon formed by connecting a plurality of primitives having a triangular or quadrangular shape in a mesh shape. In the present embodiment, the CPU 101 acquires the position coordinates of a polygon corresponding to the tip portion of both hands arranged in the future for the preceding time from the present among the polygons representing the surface of the character.

マーク画像生成部304は、取得部303によって取得された位置に配置されるマークオブジェクトを表すマーク画像を生成する。仮想空間内にマークオブジェクトが配置され、この配置されたマークオブジェクトを仮想空間内の仮想視点の位置から仮想視線の向きに眺めたときの様子を表す画像がマーク画像である。CPU 101と画像処理部109が協働して、マーク画像生成部304として機能する。   The mark image generation unit 304 generates a mark image representing a mark object placed at the position acquired by the acquisition unit 303. A mark object is an image representing a state in which a mark object is arranged in the virtual space, and the arranged mark object is viewed in the direction of the virtual line of sight from the position of the virtual viewpoint in the virtual space. The CPU 101 and the image processing unit 109 work together to function as the mark image generation unit 304.

本実施形態では、マークオブジェクトは、周囲と比べてより明るく輝く“光の球”である。マークオブジェクトの明度は他のオブジェクトの明度よりも相対的に大きく設定され、プレイヤーから見てマークオブジェクトを表すマーク画像が一際目立つようになっている。   In the present embodiment, the mark object is a “light sphere” that shines brighter than the surroundings. The brightness of the mark object is set to be relatively higher than the brightness of other objects, and the mark image representing the mark object is conspicuous when viewed from the player.

表示部305は、キャラクター画像生成部302によって生成されたキャラクター画像と、マーク画像生成部304によって生成されたマーク画像と、を合成した画像を、モニター250に表示する。CPU 101と画像処理部109が協働して、表示部305として機能する。   The display unit 305 displays an image obtained by combining the character image generated by the character image generation unit 302 and the mark image generated by the mark image generation unit 304 on the monitor 250. The CPU 101 and the image processing unit 109 cooperate to function as the display unit 305.

ここで、モニター250に表示される画像の生成工程について、図面を用いて順を追って説明する。   Here, a process of generating an image displayed on the monitor 250 will be described in order with reference to the drawings.

図4は、キャラクター画像生成部302によって生成されるキャラクター画像410を表す図である。キャラクター画像410は、プレイヤーが現在いるべき位置と現在取るべき姿勢を表す。本図の場合、CPU 101は、現実空間において入力装置107によって得られるプレイヤーの位置と姿勢の検知結果から、プレイヤーがキャラクター画像410が示すように両足を少し広げて両腕を降ろすポーズをしていると判断すると、プレイヤーの成績が優れていると判定し、ゲージ450が示す値を増やす。一方、CPU 101は、プレイヤーがキャラクター画像410と異なる位置又は異なる姿勢であると判断すると、プレイヤーの成績が劣っていると判定し、ゲージ450が示す値を減らす。なお、CPU 101は、ゲージ450が示す値が所定値(典型的にはゼロ)以下になると、ゲームを終了する。   FIG. 4 is a diagram illustrating a character image 410 generated by the character image generation unit 302. The character image 410 represents the position where the player should be present and the posture to be currently taken. In the case of this figure, the CPU 101 poses that the player slightly spreads both legs and lowers both arms as shown in the character image 410 based on the detection result of the position and posture of the player obtained by the input device 107 in the real space. If it is determined that the player's performance is good, it is determined that the player's performance is excellent, and the value indicated by the gauge 450 is increased. On the other hand, when the CPU 101 determines that the player is in a position different from the character image 410 or in a different posture, the CPU 101 determines that the player's performance is inferior, and reduces the value indicated by the gauge 450. Note that the CPU 101 ends the game when the value indicated by the gauge 450 becomes a predetermined value (typically zero) or less.

図5は、マーク画像生成部304によって生成されるマーク画像431(本図では431A,431Bの2つ)を表す図である。マーク画像431は1つだけであってもよいし、図5に示すように2つ以上であってもよい。本実施形態では、CPU 101は、現在から先行時間経過した後における、キャラクターの右手(プレイヤーから向かって左側の手)の先の位置に対応するマークオブジェクトを表すマーク画像431Aと、キャラクターの左手(プレイヤーから向かって右側の手)の先の位置に対応するマークオブジェクトを表すマーク画像431Bと、を生成する。   FIG. 5 is a diagram showing mark images 431 (two in the figure, 431A and 431B) generated by the mark image generating unit 304. There may be only one mark image 431, or two or more mark images 431 as shown in FIG. In the present embodiment, the CPU 101 displays a mark image 431A representing a mark object corresponding to the position ahead of the character's right hand (left hand from the player) after the previous time has elapsed, and the character's left hand ( A mark image 431B representing a mark object corresponding to the position ahead of the player (right hand) is generated.

マーク画像431A,431Bは、現在時刻から所定の先行時間経過後(X秒後)の未来にキャラクターの両手の先が配置されることになる画面内の位置に表示される。図5には、先行時間後のキャラクター画像420を記載しているが、これは本発明を分かりやすくするために記載したものであり、先行時間後のキャラクター画像420はモニター250には表示されない。   The mark images 431A and 431B are displayed at positions on the screen where the tips of both hands of the character are to be placed in the future after a predetermined preceding time (after X seconds) from the current time. FIG. 5 shows a character image 420 after the preceding time, which is described for the sake of clarity of the present invention, and the character image 420 after the preceding time is not displayed on the monitor 250.

図4に示したキャラクター画像410に、図5に示したマーク画像431A,431Bを重ねることによって得られる画像を、図6に示す。マーク画像431Aは、キャラクターの右手の先が示す位置601A(プレイヤーが現在左腕を配置すべき位置)よりも少し上側に配置され、マーク画像431Bは、キャラクターの左手の先が示す位置601B(プレイヤーが現在右腕を配置すべき位置)よりも少し上側に配置されている。プレイヤーは、キャラクター画像410とマーク画像431A,431Bを見れば、キャラクターがこれから両腕を上げる動きをすることが一目で“予見”できる。つまり、プレイヤーは、自分が現在両腕を下げているものの、これから両腕を上げることになる旨を容易に把握することができる。プレイヤーは、キャラクター画像410とマーク画像431A,431Bを見れば、将来の動きを踏まえて、連続した動きをしやすくなる。   FIG. 6 shows an image obtained by superimposing the mark images 431A and 431B shown in FIG. 5 on the character image 410 shown in FIG. The mark image 431A is arranged slightly above the position 601A indicated by the tip of the character's right hand (the position where the player should currently place the left arm), and the mark image 431B is indicated by the position 601B indicated by the tip of the character's left hand (the player The position where the right arm should be placed is currently slightly above the position. If the player sees the character image 410 and the mark images 431A and 431B, the character can “foresee” at a glance that the character will now move both arms up. That is, the player can easily grasp that he / she currently lowers his arms but will raise his / her arms. If the player looks at the character image 410 and the mark images 431A and 431B, the player can easily move continuously based on future movements.

図5,6では、1つのみの先行時間に対応するマーク画像431A,431Bが示されているが、複数の先行時間に対応するマーク画像が含まれていてもよい。すなわち、CPU 101は、ゲーム開始から現在までの経過時間Tに第1の先行時間ΔT1を加算した時間(=T+ΔT1)に対応付けて記憶されるキャラクターの所定部分の位置と、ゲーム開始から現在までの経過時間Tに第2の先行時間ΔT2(≠ΔT1)を加算した時間(=T+Δ2)に対応付けて記憶されるキャラクターの所定部分の位置と、を取得し、それぞれの時間に対応するマークオブジェクトを仮想空間内に配置し、このマークオブジェクトを表すマーク画像を別途生成して表示してもよい。   5 and 6, mark images 431A and 431B corresponding to only one preceding time are shown, but mark images corresponding to a plurality of preceding times may be included. That is, the CPU 101 determines the position of the predetermined portion of the character stored in association with the time (= T + ΔT1) obtained by adding the first preceding time ΔT1 to the elapsed time T from the start of the game to the present, and from the start of the game to the present And the position of a predetermined portion of the character stored in association with the time (= T + Δ2) obtained by adding the second preceding time ΔT2 (≠ ΔT1) to the elapsed time T of the mark object, and the mark object corresponding to each time May be arranged in a virtual space, and a mark image representing the mark object may be separately generated and displayed.

例えば図7には、3つの先行時間ΔT1,ΔT2,ΔT3に対応する3種類のマーク画像431A,431B、432A,432B、433A,433Bが含まれている。CPU 101は、第1の先行時間ΔT1に対応するマーク画像431A,431Bと、第2の先行時間ΔT2に対応するマーク画像432A,432Bと、第3の先行時間ΔT3に対応するマーク画像433A,433Bと、を生成する。ただし、ΔT1<ΔT2<ΔT3である。つまり、プレイヤーは、キャラクターがこれから両腕を頭のあたりまでだんだんと上げていくポーズをとることを容易に把握できる。   For example, FIG. 7 includes three types of mark images 431A, 431B, 432A, 432B, 433A, and 433B corresponding to three preceding times ΔT1, ΔT2, and ΔT3. The CPU 101 performs mark images 431A and 431B corresponding to the first preceding time ΔT1, mark images 432A and 432B corresponding to the second preceding time ΔT2, and mark images 433A and 433B corresponding to the third preceding time ΔT3. And generate. However, ΔT1 <ΔT2 <ΔT3. In other words, the player can easily grasp that the character will take a pose that gradually raises both arms to the head.

より多くの先行時間を設け、各先行時間に対応するマーク画像を表示することにより、プレイヤーが連続的な動きを取りやすくなる効果を高めることができる。多くのマーク画像を同時に表示すると、図8に示すように、プレイヤーからは、マーク画像440A,440Bが軌跡を描くように連続的に見えるようになる。プレイヤーは、マーク画像440A,440Bによって表現されるラインに沿うように自分の体を動かせば良いので、連続した動きをしやすくなるという効果が増す。   By providing more preceding times and displaying a mark image corresponding to each preceding time, it is possible to enhance the effect of making it easier for the player to take continuous movements. When many mark images are displayed simultaneously, as shown in FIG. 8, the mark images 440 </ b> A and 440 </ b> B can be continuously viewed from the player so as to draw a locus. Since the player only has to move his / her body along the lines represented by the mark images 440A and 440B, the effect of facilitating continuous movement increases.

図9は、図8に示す画像が表示された後の時間に生成される画像を示す。この画像が表示されたタイミングでは、プレイヤーは、両手を左右に水平に伸ばすポーズをすべきである。また、マーク画像440A,440Bが描くラインは、キャラクターの頭上へ向かっていることから、プレイヤーは、両手を水平に伸ばした後、更に両手を頭上へ輪を描くように回すべきである、というゲーム課題を直感的に把握することができる。   FIG. 9 shows an image generated at a time after the image shown in FIG. 8 is displayed. At the timing when this image is displayed, the player should pose to extend both hands horizontally from side to side. In addition, since the lines drawn by the mark images 440A and 440B are directed above the character's head, the player should extend both hands horizontally and then turn both hands to draw a ring above the head. The problem can be grasped intuitively.

先行時間を複数設ける場合、CPU 101は、それぞれの先行時間を等間隔に設定してもよい。例えば、1秒後の手の位置を表す第1のマーク画像、2秒後の手の位置を表す第2のマーク画像、N秒後のポーズを表す第Nのマーク画像(Nは2以上の整数)をモニター250に一緒に表示することとすれば、プレイヤーは、時間の流れと共にこれから行うべき動作をより細かく把握することができるようになる。先行時間同士の間隔は任意に設定できる。   When providing a plurality of preceding times, the CPU 101 may set the preceding times at equal intervals. For example, a first mark image representing the position of the hand after 1 second, a second mark image representing the position of the hand after 2 seconds, and an Nth mark image representing the pose after N seconds (N is 2 or more) (Integer) is displayed on the monitor 250 together, the player can grasp the action to be performed in more detail with the passage of time. The interval between the preceding times can be arbitrarily set.

なお、CPU 101は、先行時間が短い順に、複数のマーク画像を配置して、モニター250に表示する。つまり、CPU 101は、時系列順に、仮想空間内に複数のマークオブジェクトを配置していき、各マークオブジェクトを表すマーク画像をそれぞれ表示するものとする。   Note that the CPU 101 arranges and displays a plurality of mark images on the monitor 250 in ascending order of the preceding time. That is, it is assumed that the CPU 101 arranges a plurality of mark objects in the virtual space in order of time series and displays mark images representing the respective mark objects.

図5〜7に示すように、1つの先行時間につき2つのマーク画像431A,431Bを生成する場合、CPU 101は、それぞれの違いをプレイヤーにはっきりと知らしめるために、互いに異なる態様でマーク画像431A,431Bを生成してもよい。例えば、CPU 101は、マーク画像431A,431Bを互いに異なる色彩(明度・彩度・色相の組み合わせ)で描画してもよい。例えば、キャラクターの右手(プレイヤーから見て左側の手)に対応するマーク画像431Aは所定の第1の色(例えば“赤”)とし、キャラクターの左手(プレイヤーから見て右側の手)に対応するマーク画像431Bは所定の第2の色(例えば“青”)としてもよい。これにより、プレイヤーは色彩を区別することによりマーク画像を簡単に区別できるので、どのマーク画像が体にどの部分に対応するのかが把握しづらくなってしまうといった問題をなるべく回避できるようになる。勿論、マーク画像が3つ以上の場合にも、CPU 101は、互いに異なる態様(異なる色彩)に設定すればよい。   As shown in FIGS. 5 to 7, when two mark images 431A and 431B are generated per one preceding time, the CPU 101 makes the mark image 431A different from each other in order to clearly notify the player of the difference between them. , 431B may be generated. For example, the CPU 101 may draw the mark images 431A and 431B with different colors (a combination of brightness, saturation, and hue). For example, the mark image 431A corresponding to the character's right hand (left hand as viewed from the player) has a predetermined first color (eg, “red”) and corresponds to the character's left hand (right hand as viewed from the player). The mark image 431B may have a predetermined second color (for example, “blue”). Thereby, since the player can easily distinguish the mark image by distinguishing the colors, it is possible to avoid as much as possible the problem that it is difficult to grasp which mark image corresponds to which part of the body. Of course, even when there are three or more mark images, the CPU 101 may set different modes (different colors).

次に、本実施形態の上記各部が実行するゲーム処理について、図10のフローチャートを用いて説明する。CPU 101は、ゲームを開始すると共に、ダンスの課題曲を表す楽曲データの再生を開始する。CPU 101は、ゲームを開始してからの経過時間を計時する。   Next, game processing executed by each of the above-described units of the present embodiment will be described with reference to the flowchart of FIG. The CPU 101 starts the game and starts to reproduce the music data representing the dance subject music. The CPU 101 measures the elapsed time since the game was started.

まず、CPU 101は、ゲーム開始から現在までの経過時間に対応付けて記憶されたキャラクターの位置と姿勢を示すデータをハードディスク104から読み出して取得する(ステップS1001)。   First, the CPU 101 reads out and obtains data indicating the position and posture of the character stored in association with the elapsed time from the start of the game to the present from the hard disk 104 (step S1001).

CPU 101は、ステップS1001で読み出した位置と姿勢に基づいて、キャラクター画像410を生成する(ステップS1002)。CPU 101は、仮想空間内において、取得した位置に、取得した姿勢で、キャラクターを配置することにより、キャラクター画像410を生成する。   The CPU 101 generates a character image 410 based on the position and orientation read in step S1001 (step S1002). The CPU 101 generates a character image 410 by arranging a character in the acquired position with the acquired posture in the virtual space.

CPU 101は、ゲーム開始から現在までの経過時間に先行時間を加算した時間に対応付けて記憶されたキャラクターの位置を示すデータをハードディスク104から読み出して取得する(ステップS1003)。先行時間を複数設ける場合には、CPU 101は、先行時間のそれぞれに対応付けて記憶されたキャラクターの位置を取得する。   The CPU 101 reads out and obtains data indicating the character position stored in association with the time obtained by adding the preceding time to the elapsed time from the start of the game to the present time from the hard disk 104 (step S1003). When providing a plurality of preceding times, the CPU 101 acquires the character positions stored in association with the preceding times.

CPU 101は、ステップS1003で取得したキャラクターの位置に基づいて、マーク画像431A,431Bを生成する(ステップS1004)。CPU 101は、仮想空間内において、取得した位置にマークオブジェクトを配置した様子を表す画像を生成することにより、マーク画像431A,431Bを生成する。   The CPU 101 generates mark images 431A and 431B based on the character positions acquired in step S1003 (step S1004). The CPU 101 generates mark images 431A and 431B by generating an image representing a state in which the mark object is arranged at the acquired position in the virtual space.

CPU 101は、ステップS1002で生成したキャラクター画像410と、ステップS1004で生成したマーク画像431A,431Bと、を合成して、モニター250に表示する(ステップS1005)。   The CPU 101 combines the character image 410 generated in step S1002 and the mark images 431A and 431B generated in step S1004 and displays them on the monitor 250 (step S1005).

CPU 101は、ゲーム開始から現在までの経過時間に対応付けて記憶された仮想空間におけるキャラクターの位置と姿勢と、入力装置107によって検知された現実空間におけるプレイヤーの位置と姿勢と、に基づいて、プレイヤーの成績を判定する(ステップS1006)。   The CPU 101, based on the character position and posture in the virtual space stored in association with the elapsed time from the start of the game to the present, and the player position and posture in the real space detected by the input device 107, The player's grade is determined (step S1006).

すなわち、CPU 101は、検知されたプレイヤーの位置と姿勢と、キャラクターの位置と姿勢と、の類似度を計算し、類似度が所定値以上であれば、プレイヤーがゲーム課題を達成している(プレイヤーの成績が優れている)と判定し、ゲージ450が示す値を増やす。一方、計算された類似度が所定値未満であれば、CPU 101は、プレイヤーがゲーム課題を達成していない(プレイヤーの成績が劣っている)と判定し、ゲージ450が示す値を減らす。計算された類似度が高いほど、現実空間におけるプレイヤーのポーズと、仮想空間におけるキャラクターのポーズが似ており、プレイヤーがゲーム課題に近いポーズをとったと判定される。   That is, the CPU 101 calculates the similarity between the detected position and posture of the player and the position and posture of the character, and if the similarity is equal to or greater than a predetermined value, the player has achieved the game task ( And the value indicated by the gauge 450 is increased. On the other hand, if the calculated similarity is less than the predetermined value, the CPU 101 determines that the player has not achieved the game task (the player's performance is inferior) and decreases the value indicated by the gauge 450. As the calculated similarity is higher, the player's pose in the real space is more similar to the character's pose in the virtual space, and it is determined that the player has taken a pose close to the game task.

CPU 101は、ゲームを終了するか否かを判別する(ステップS1007)。例えば、CPU 101は、再生される楽曲データ内の位置を表すポインタが楽曲の最後に到達した場合(楽曲の再生が終わった場合)に、ゲームを終了すると判別する。あるいは、プレイヤーのゲームの成績を表すゲージ430の値が、所定値(典型的にはゼロ)以下になった場合に、ゲームを終了すると判別する。   The CPU 101 determines whether or not to end the game (step S1007). For example, the CPU 101 determines that the game is to be ended when the pointer indicating the position in the music data to be played reaches the end of the music (when the music has been played). Alternatively, it is determined that the game is to be ended when the value of the gauge 430 indicating the player's game performance is equal to or lower than a predetermined value (typically zero).

ゲームを終了しないと判別した場合(ステップS1007;NO)、CPU 101は、ステップS1001〜S1006の処理を繰り返す。一方、ゲームを終了すると判別した場合(ステップS1007;YES)、CPU 101は、楽曲の再生を停止し、ゲームを終了する。   When it is determined that the game is not finished (step S1007; NO), the CPU 101 repeats the processes of steps S1001 to S1006. On the other hand, if it is determined that the game is to be ended (step S1007; YES), the CPU 101 stops the reproduction of the music and ends the game.

CPU 101は、例えば、VSYNC1回分につき、ステップS1001〜S1107の一連の処理を1回実行する。すなわち、キャラクター画像410とマーク画像431A,431Bを描画して表示する処理が、VSYNCのタイミングで繰り返し実行される。従って、モニター250には、キャラクター画像410とマーク画像431A,431Bがアニメーション表示される。   For example, the CPU 101 executes a series of processes of steps S1001 to S1107 once for one VSYNC. That is, the process of drawing and displaying the character image 410 and the mark images 431A and 431B is repeatedly executed at the timing of VSYNC. Therefore, the character image 410 and the mark images 431A and 431B are animated on the monitor 250.

本実施形態によれば、プレイヤーには、現在達成すべきゲーム課題と共に、この後与えられることになるゲーム課題のヒントになる情報が与えられる。例えば、手を動かしてダンスを踊るゲームにおいて、今どのように手を動かせばよいのかがキャラクター画像410の位置と姿勢によって与えられ、次に(何秒後かに)どのように手を動かせばよいのかがマーク画像431の位置によって与えられる。プレイヤーは、キャラクター画像410を見れば、今与えられているゲーム課題を簡単に理解することができ、また、マーク画像431を見れば、この後に与えられる見込みのゲーム課題の内容のおおよその見当をつけることができる。従って、プレイヤーは、次のポーズを念頭に置きながら、今とるべきポーズをとることができる。ゲーム装置300は、よりスムーズに体を動かせるようにプレイヤーを導くことができる。   According to the present embodiment, the player is provided with information about a game task to be achieved, as well as information that will be a hint for the game task to be given later. For example, in a game of dancing by moving hands, how to move hands now is given by the position and posture of the character image 410, and then (how many seconds later) how to move the hands Whether it is good or not is given by the position of the mark image 431. The player can easily understand the game task currently given by looking at the character image 410, and can get an approximate idea of the content of the expected game task to be given later by looking at the mark image 431. You can turn it on. Therefore, the player can take the pose to be taken while keeping the next pose in mind. The game apparatus 300 can guide the player to move the body more smoothly.

また、マーク画像431の大きさをキャラクター画像410の大きさよりも相対的に小さくすることにより、プレイヤーが現在与えられているゲーム課題を表すキャラクター画像410を見るときに、マーク画像431がなるべく邪魔にならないようにすることができる。   Also, by making the size of the mark image 431 relatively smaller than the size of the character image 410, the mark image 431 is as obstructive as possible when the player views the character image 410 representing the game task currently given. It can be avoided.

また、キャラクター全体のうち位置の変化が比較的大きい部分にマーク画像431(マークオブジェクト)を配置することにより、キャラクターのどの部分の動きに特に注意すべきなのかをプレイヤーに提示することができる。   Further, by placing the mark image 431 (mark object) in a portion of the entire character where the position change is relatively large, it is possible to present to the player which portion of the character should be particularly noted.

マーク画像431の位置となる上記の「所定部分」は、手の先に限らず、足、胴体、頭など、任意の場所に設定することができる。また、CPU 101は、ゲームの内容に合わせてこの所定部分を入れ替えてもよい。例えば、CPU 101は、手を頻繁に動かすシーンでは所定部分を“手の先”や“指の先”に設定し、足を頻繁に動かすシーンでは所定部分を“足の先”や“膝”などに設定してもよい。   The “predetermined portion” as the position of the mark image 431 is not limited to the tip of the hand, but can be set at an arbitrary place such as a foot, a torso, or a head. Further, the CPU 101 may replace this predetermined portion according to the content of the game. For example, the CPU 101 sets a predetermined portion as “tip of hand” or “tip of finger” in a scene where the hand is frequently moved, and sets the predetermined portion as “tip of foot” or “knee” in a scene where the foot is frequently moved. You may set it.

CPU 101は、ゲームの進行に応じてこの所定部分を入れ替えてもよい。CPU 101は、提示したゲーム課題と入力装置107による識別結果に基づいてプレイヤーの成績を判定し、判定されたプレイヤーの成績に応じて所定部分を変えてもよい。例えば、ゲームの所定期間内(例えばゲームの前半)に提示されたゲーム課題が「足」「手」「頭」のそれぞれの位置と姿勢に関するものであり、これらのうち「足」の位置と姿勢に関するゲーム課題の達成度が相対的に低い場合、もしくは、「足」の位置と姿勢に関するゲーム課題の達成度が所定値以下であった場合、CPU 101は、この所定期間が過ぎた後(例えばゲームの後半)には、所定部分を「足」に設定して仮想空間内にマークオブジェクトを配置し、マーク画像431を表示する。これにより、ゲーム装置300は、プレイヤーに弱点を指摘すると共に、この弱点を強化するためのヒントを提示することができる。プレイヤーは、よりスムーズに体を動かせるように効率良く練習することができる。   The CPU 101 may replace this predetermined portion as the game progresses. The CPU 101 may determine the player's score based on the presented game task and the identification result by the input device 107, and may change the predetermined portion according to the determined player's score. For example, the game tasks presented within a predetermined period of the game (for example, the first half of the game) relate to the positions and postures of “foot”, “hand”, and “head”, and among these, the position and posture of “foot” If the achievement level of the game task relating to the position and orientation of the “foot” is less than or equal to a predetermined value, the CPU 101 determines (for example, after the predetermined period has passed) In the second half of the game, the predetermined part is set to “foot”, the mark object is arranged in the virtual space, and the mark image 431 is displayed. Thereby, the game apparatus 300 can point out a weak point to the player and present a hint for strengthening the weak point. Players can practice efficiently to move their bodies more smoothly.

プレイヤーが所定部分を選択できるようにしてもよい。例えば、CPU 101は、ゲームを開始する前に、マーク画像431(もしくはマークオブジェクト)を配置したい体の部位を指定する指示入力をプレイヤーから受け付ける。プレイヤーは、入力装置107等を用いて、任意の部位を指定する指示を入力する。CPU 101は、受け付けられた指示入力に応じて、この所定部分を設定する。従って、手の動かし方に不安のあるプレイヤーが所定部分を“手の先”に指定したり、足の動かし方に不安のあるプレイヤーが所定部分を“足の先”に指定したりする、といったように、CPU 101は、プレイヤーの都合に合わせて、マーク画像431(もしくはマークオブジェクト)を配置すべき部位を決定することができる。   The player may be able to select a predetermined portion. For example, before starting the game, the CPU 101 receives an instruction input for designating a body part where the mark image 431 (or mark object) is to be placed from the player. The player inputs an instruction for designating an arbitrary part using the input device 107 or the like. The CPU 101 sets this predetermined portion in response to the received instruction input. Therefore, a player who is worried about how to move the hand designates the predetermined part as “the tip of the hand”, or a player who is uneasy about how to move the foot designates the predetermined part as “the tip of the foot”. As described above, the CPU 101 can determine the part where the mark image 431 (or mark object) is to be arranged in accordance with the convenience of the player.

(実施形態2)
次に、本発明のその他の実施形態について説明する。本実施形態では、モニター250に表示されるマーク画像431の大きさが、仮想視点からキャラクターの所定部分までの距離に応じて変化する。
(Embodiment 2)
Next, other embodiments of the present invention will be described. In the present embodiment, the size of the mark image 431 displayed on the monitor 250 changes according to the distance from the virtual viewpoint to a predetermined part of the character.

図11は、キャラクター1110とマークオブジェクト1120とが配置される3次元仮想空間を表す図である。マークオブジェクト1120の位置は、時系列順に、1120A,1120B,1120C,1120Dと移動していく。仮想空間内には、仮想視点1150が配置される。仮想視点1150は、言わば、仮想空間の様子を撮影する仮想的なカメラである。CPU 101は、仮想視点1150の位置から、仮想視線1160の向きへ、この仮想空間を眺めた様子をモニター250に表示する。仮想視点1150の位置と仮想視線1160の向き1160は可変である。   FIG. 11 is a diagram illustrating a three-dimensional virtual space in which the character 1110 and the mark object 1120 are arranged. The position of the mark object 1120 moves to 1120A, 1120B, 1120C, 1120D in time series order. A virtual viewpoint 1150 is arranged in the virtual space. In other words, the virtual viewpoint 1150 is a virtual camera that captures the state of the virtual space. The CPU 101 displays on the monitor 250 a state of viewing this virtual space from the position of the virtual viewpoint 1150 in the direction of the virtual line of sight 1160. The position of the virtual viewpoint 1150 and the direction 1160 of the virtual line of sight 1160 are variable.

CPU 101は、入力装置107がプレイヤーから受け付けた指示に基づいて、もしくは、プログラムに組み込まれた所定のアルゴリズムに基づいて、仮想視点1150の位置を移動することができる。同様に、CPU 101は、入力装置107がプレイヤーから受け付けた指示に基づいて、もしくは、プログラムに組み込まれた所定のアルゴリズムに基づいて、仮想視線1160の向きを移動することができる。なお、CPU 101が仮想視点1150と仮想視線1160を変化させる処理の詳細については後述する。   The CPU 101 can move the position of the virtual viewpoint 1150 based on an instruction received from the player by the input device 107 or based on a predetermined algorithm incorporated in the program. Similarly, the CPU 101 can move the direction of the virtual visual line 1160 based on an instruction received from the player by the input device 107 or based on a predetermined algorithm incorporated in the program. The details of the process in which the CPU 101 changes the virtual viewpoint 1150 and the virtual line of sight 1160 will be described later.

上述したように、CPU 101は、ゲーム開始から現在までの経過時間に対応付けられてハードディスク104に記憶されたキャラクター1110の位置と姿勢を示す情報を取得する。そして、CPU 101は、取得した位置に、取得した姿勢で、キャラクター1110を配置する。   As described above, the CPU 101 acquires information indicating the position and posture of the character 1110 stored in the hard disk 104 in association with the elapsed time from the start of the game to the present time. Then, the CPU 101 arranges the character 1110 at the acquired position with the acquired posture.

また、CPU 101は、ゲーム開始から現在までの経過時間に所定の先行時間を加算した時間に対応付けられてハードディスク104に記憶されたキャラクター1110の所定部分の位置を取得する。本実施形態では、所定部分は、ヒト型のキャラクター1110における“右手の先端”の部分である。そして、CPU 101は、取得した位置に、マークオブジェクト1120を配置する。   Further, the CPU 101 acquires the position of a predetermined portion of the character 1110 stored in the hard disk 104 in association with a time obtained by adding a predetermined preceding time to the elapsed time from the start of the game to the present time. In the present embodiment, the predetermined portion is a “right hand tip” portion of the human-type character 1110. Then, the CPU 101 places the mark object 1120 at the acquired position.

そして、CPU 101は、図12に示すように、キャラクター1110を表すキャラクター画像1210と、マークオブジェクト1120A,1120B,1120C,1120Dを表すマーク画像1231A,1231B,1231C,1231Dと、を含む画像を生成して、モニター250に表示する。   Then, as shown in FIG. 12, the CPU 101 generates an image including a character image 1210 representing the character 1110 and mark images 1231A, 1231B, 1231C, and 1231D representing the mark objects 1120A, 1120B, 1120C, and 1120D. Displayed on the monitor 250.

ここで、CPU 101は、仮想空間内に配置される仮想視点1150の位置からキャラクター1110の所定部分の位置までの距離に応じて、マーク画像1120の大きさを変化させる。   Here, the CPU 101 changes the size of the mark image 1120 according to the distance from the position of the virtual viewpoint 1150 arranged in the virtual space to the position of the predetermined portion of the character 1110.

詳細には、CPU 101は、現在の仮想視点1150の位置から、現在より先行時間だけ未来の時間におけるキャラクター1110の所定部分の位置までの距離、言い換えれば、現在の仮想視点1150の位置からマークオブジェクト1120Aの位置までの距離を計算する。そして、CPU 101は、計算された距離が短いほど大きくなるように、マーク画像1231A,1231B,1231C,1231Dをモニター250に表示する。図11の場合、距離の長さは、短い順に、LD<LC<LB<LAである。従って、図12に示すように、マーク画像1231Dが最も大きく、ついで1231C,1231B,1231Aの順に大きい。   Specifically, the CPU 101 determines the distance from the current position of the virtual viewpoint 1150 to the position of the predetermined portion of the character 1110 in the future time ahead of the present time, in other words, from the position of the current virtual viewpoint 1150 to the mark object. The distance to the position of 1120A is calculated. Then, the CPU 101 displays the mark images 1231A, 1231B, 1231C, and 1231D on the monitor 250 so that the calculated distance becomes shorter as the calculated distance becomes shorter. In the case of FIG. 11, the length of the distance is LD <LC <LB <LA in ascending order. Therefore, as shown in FIG. 12, the mark image 1231D is the largest, and then the largest in the order of 1231C, 1231B, and 1231A.

つまり、プレイヤーからは、マークオブジェクト1120が仮想視点1150に近くなるほど、マーク画像1231が大きく見え、マークオブジェクト1120が仮想視点1150から遠くなるほど、マーク画像1231が小さく見える。ゲーム装置300は、遠近感を得やすい画像をプレイヤーに提供することができる。   That is, to the player, the closer the mark object 1120 is to the virtual viewpoint 1150, the larger the mark image 1231 appears, and the farther the mark object 1120 is from the virtual viewpoint 1150, the smaller the mark image 1231 looks. The game apparatus 300 can provide the player with an image that is easy to obtain perspective.

また、図12に示すようにマーク画像1231が時間経過と共にだんだんと大きくなるように変化している場合、マークオブジェクト1120が仮想視点1150へ時間経過と共に近づいていることになるので、プレイヤーは、マーク画像1231に対応する部分を入力装置107へ近づける動作をすべきである(左手を前に出すべきである)、というゲームのヒントを得ることができる。あるいは、マーク画像1231が時間経過と共にだんだんと小さくなるように変化している場合、マークオブジェクト1120が仮想視点1150へ時間経過と共に遠ざかっていることになるので、プレイヤーは、マーク画像1231に対応する部分を入力装置107から遠ざける動作をすべきである(左手を後ろにすべきである)、というゲームのヒントを得ることができる。   Also, as shown in FIG. 12, when the mark image 1231 changes so as to gradually increase with time, the mark object 1120 approaches the virtual viewpoint 1150 with time, so that the player It is possible to obtain a game hint that the part corresponding to the image 1231 should be moved closer to the input device 107 (the left hand should be put forward). Alternatively, when the mark image 1231 changes so as to gradually become smaller with the passage of time, the mark object 1120 has moved away from the virtual viewpoint 1150 with the passage of time, so that the player corresponds to the mark image 1231. It is possible to obtain a game hint that the user should move away from the input device 107 (the left hand should be behind).

図12に示す画像がモニター250へ表示された時間から、更に時間が経過した後に表示される画像を示したのが図13である。図13では、現在のキャラクター1110の右手(プレイヤーから見て左側の手)の位置と、マーク画像1231Aの位置と、がほぼ合致している。従って、プレイヤーは、キャラクター画像1210が表している、左手を右手よりも前に出すポーズを、そのまま維持すべきである、というゲームのヒントを得ることができる。   FIG. 13 shows an image displayed after a further time has elapsed from the time when the image shown in FIG. 12 is displayed on the monitor 250. In FIG. 13, the position of the current character 1110's right hand (left hand as viewed from the player) and the position of the mark image 1231A substantially match. Therefore, the player can obtain a game hint that the character image 1210 represents the pose for putting the left hand ahead of the right hand as it is.

CPU 101は、仮想視点1150の位置からマークオブジェクト1120の位置までの距離を計算し、計算された距離が短いほど、マークオブジェクト1120自体を大きくしてもよい。例えば、マークオブジェクト1120を球体とし、計算された距離が短いほどこの球体の半径を大きくし、計算された距離が長いほどこの球体の半径を小さくしてもよい。これにより、マーク画像1231の奥行き感がより強調され、特に前後の動きに関して、プレイヤーによりスムーズに体を動かせるように導くことができる効果が増す。   The CPU 101 may calculate the distance from the position of the virtual viewpoint 1150 to the position of the mark object 1120, and the mark object 1120 itself may be enlarged as the calculated distance is shorter. For example, the mark object 1120 may be a sphere, and the radius of the sphere may be increased as the calculated distance is shorter, and the radius of the sphere may be decreased as the calculated distance is longer. Thereby, the sense of depth of the mark image 1231 is further emphasized, and in particular, the effect of being able to guide the player to move the body more smoothly with respect to forward and backward movements is increased.

一般の自然現象に当てはめた場合、計算される距離が比較的大きい場合と小さい場合とでは、仮にキャラクター1110の所定部分の位置の変位が同じであったするならば、距離が比較的小さい(近い)ときには位置の変位がより大きく感じられ、距離が比較的大きい(遠い)ときには位置の変位がより小さく感じられる傾向にある。つまり、仮想カメラを引いている場面には、マーク画像1231の大きさの変化が分かりづらくなり、遠近感が損なわれる恐れがある。そこで、CPU 101は、仮想視点1150の位置からマークオブジェクト1120の位置までの距離が所定の閾値よりも大きい場合には、計算された距離が短いほど(近いほど)マークオブジェクト1120自体を大きくし、計算された距離が長いほど(遠いほど)マークオブジェクト1120自体を小さくすることによって、前後の位置関係を誇張して表現するのである。従って、ゲーム装置300は奥行きが強調された画像をプレイヤーに提供することになり、プレイヤーは、画像の遠近感やキャラクター1110の前後の動きをより把握し易くなる。   When applied to a general natural phenomenon, if the calculated distance is relatively large and small, if the displacement of the position of the predetermined portion of the character 1110 is the same, the distance is relatively small (close) ) When the position displacement is felt larger, and when the distance is relatively large (far), the position displacement tends to be felt smaller. That is, in the scene where the virtual camera is being pulled, it is difficult to understand the change in the size of the mark image 1231, and there is a risk that the sense of perspective is impaired. Therefore, when the distance from the position of the virtual viewpoint 1150 to the position of the mark object 1120 is larger than the predetermined threshold, the CPU 101 enlarges the mark object 1120 itself as the calculated distance is shorter (closer), The longer the calculated distance (the farther it is), the smaller the mark object 1120 itself, the exaggerated representation of the positional relationship between the front and rear. Accordingly, the game apparatus 300 provides the player with an image with an enhanced depth, and the player can more easily understand the perspective of the image and the movement of the character 1110 back and forth.

本実施形態によれば、プレイヤーは、キャラクター画像1210が表示される位置とマーク画像1231が表示される位置を見比べることにより、マーク画像1231に対応する体の部分を上下左右のどこへ動かせばよいのかを把握できるだけでなく、マーク画像1231の大きさの変化を見ることにより、マーク画像1231に対応する体の部分を前後のどちらへ動かせばよいのかを容易に把握できるようになる。従って、ゲーム装置300がプレイヤーによりスムーズに体を動かせるように導くことができる効果がさらに増す。   According to the present embodiment, the player can move the body part corresponding to the mark image 1231 to the top, bottom, left, or right by comparing the position where the character image 1210 is displayed with the position where the mark image 1231 is displayed. In addition to grasping the change in the size of the mark image 1231, it is possible to easily grasp which body part corresponding to the mark image 1231 should be moved forward or backward. Therefore, the effect that the game apparatus 300 can be guided to move the body more smoothly by the player is further increased.

(実施形態3)
次に、本発明のその他の実施形態について説明する。本実施形態では、マーク画像の明るさや色合いが、マーク画像に対応するキャラクターの所定部分の単位時間当たりの移動量に応じて変化する。ここでは、キャラクターの形状はヒト型であるものとし、キャラクターの所定部分は“手の先”としている。
(Embodiment 3)
Next, other embodiments of the present invention will be described. In the present embodiment, the brightness and color of the mark image change according to the amount of movement per unit time of a predetermined portion of the character corresponding to the mark image. Here, the shape of the character is assumed to be a human type, and the predetermined part of the character is “the tip of the hand”.

図14(a)は、ある時刻T1におけるキャラクター1410の手の位置P1と、時刻T1より後の時刻T2におけるキャラクター1410の手の位置P2と、を示す図である。CPU 101は、時刻T1におけるキャラクター1410の手の先の位置座標(Cx1,Cy1,Cz1)と、時刻T2におけるキャラクター1410の手の先の位置座標(Cx2,Cy2,Cz2)と、から、時刻T1から時刻T2までの間に手が移動した距離Dを計算する。   FIG. 14A shows a position P1 of the hand of the character 1410 at a certain time T1 and a position P2 of the hand of the character 1410 at a time T2 after the time T1. The CPU 101 determines the time T1 from the position coordinates (Cx1, Cy1, Cz1) of the hand of the character 1410 at time T1 and the position coordinates (Cx2, Cy2, Cz2) of the hand of the character 1410 at time T2. The distance D from which the hand moved between time T2 and time T2 is calculated.

例えば、時刻T1と時刻T2の時間差をVSYNC1回分とすれば、計算される距離Dは、VSYNC1回分当たりにキャラクター1410の所定部分が移動する変位、すなわちVSYNCを時間単位とした、所定部分の移動速度である。   For example, if the time difference between the time T1 and the time T2 is one VSYNC, the calculated distance D is the displacement that the predetermined part of the character 1410 moves per VSYNC, that is, the moving speed of the predetermined part with VSYNC as a time unit. It is.

そして、CPU 101は、計算された距離Dが短いほど、マーク画像の明度を大きくする。すなわち、キャラクター1410の所定部分の移動速度が小さいほど、マーク画像が明るく表示される。プレイヤーは、マーク画像の明るさを見れば、所定部分がどのくらい速く動くのかを把握することができる。プレイヤーは、次に体のどこをどちらへ動かせばよいのかが分かるだけでなく、どのくらいの速さで体を動かせばよいのかを容易に把握することができる。   Then, the CPU 101 increases the brightness of the mark image as the calculated distance D is shorter. That is, the smaller the moving speed of the predetermined portion of the character 1410, the brighter the mark image is displayed. The player can grasp how fast the predetermined portion moves by looking at the brightness of the mark image. The player not only knows where the body should move next, but also easily knows how fast the body should move.

図15は、移動速度Vと明度Bとの関係を示す図である。マーク画像の明度を表す関数B(V)は、移動速度Vが大きくなるにつれて明度Bが小さくなる形状をしている。明度の最大値BMAXは100%以下の所定値である。関数B(V)は、ゼロでない最小値BMINに収束する。図15は例示に過ぎず、関数B(V)として任意の関数を用いることができる。ただし、移動速度Vの増加に対して単調減少するものとする。   FIG. 15 is a diagram illustrating a relationship between the moving speed V and the lightness B. The function B (V) representing the brightness of the mark image has a shape in which the brightness B decreases as the moving speed V increases. The maximum brightness value BMAX is a predetermined value of 100% or less. The function B (V) converges to a minimum value BMIN that is not zero. FIG. 15 is merely an example, and an arbitrary function can be used as the function B (V). However, it is assumed that the movement speed V increases monotonously.

CPU 101は、マーク画像の明度の代わりに、マーク画像の彩度や色相を変化させてもよい。CPU 101は、マーク画像の色相、彩度、明度のうち、少なくともいずれか1つ以上を変化させてもよい。   The CPU 101 may change the saturation and hue of the mark image instead of the brightness of the mark image. The CPU 101 may change at least one of the hue, saturation, and brightness of the mark image.

例えば、CPU 101は、マーク画像を、移動速度が大きいほど赤色に近づけ、移動速度が小さいほど青色に近づける、というように、色彩に変化をつけてもよい。CPU 101は、既定値の明度・彩度・色相を用いて描かれたマーク画像に、所定色のフィルターをかけることとし、移動速度に応じてフィルターを切り換えるようにすればよい。   For example, the CPU 101 may change the color of the mark image such that the higher the moving speed, the closer to red, and the lower the moving speed, the closer to blue. The CPU 101 may apply a filter of a predetermined color to a mark image drawn using predetermined brightness, saturation, and hue, and switch the filter according to the moving speed.

勿論、CPU 101は、HSB(Hue, Saturation, Brightness)モデルではなく、RGB(Red, Green, Blue)モデル等を用いて、マーク画像の色彩を変化させてもよい。   Of course, the CPU 101 may change the color of the mark image using an RGB (Red, Green, Blue) model or the like instead of an HSB (Hue, Saturation, Brightness) model.

また、CPU 101は、キャラクターの所定部分の単位時間当たりの位置の変化量の代わりに、キャラクター1410の所定部分の単位時間当たりの姿勢の変化量に応じて、マーク画像の明度等を変化させてもよい。   Further, the CPU 101 changes the brightness of the mark image in accordance with the amount of change in the posture of the predetermined portion of the character 1410 per unit time instead of the amount of change in the position of the predetermined portion of the character per unit time. Also good.

図14(b)は、時刻T1におけるキャラクター1410の手の向きを示すベクトルV1と、時刻T1より後の時刻T2におけるキャラクターの手の向きを示すベクトルV2と、を示す図である。CPU 101は、ベクトルV1とベクトルV2とのなす角度θを計算する。そして、CPU 101は、角度θが小さいほど、キャラクター画像の明度を大きくする。すなわち、キャラクター1410の所定部分の向きの変化量が小さいほど、マーク画像が明るく表示される。プレイヤーは、マーク画像の明るさを見れば、所定部分がどのくらい大きく動くのかを把握することができる。   FIG. 14B shows a vector V1 indicating the orientation of the character 1410's hand at time T1 and a vector V2 indicating the orientation of the character's hand at time T2 after time T1. The CPU 101 calculates an angle θ formed by the vector V1 and the vector V2. Then, the CPU 101 increases the brightness of the character image as the angle θ decreases. That is, the smaller the amount of change in the direction of the predetermined portion of the character 1410, the brighter the mark image is displayed. The player can grasp how much the predetermined portion moves by looking at the brightness of the mark image.

CPU 101は、キャラクターの姿勢の変化量として、上記の角度θの代わりに、ベクトルV1,V2の内積を用いてもよい。   The CPU 101 may use the inner product of the vectors V1 and V2 instead of the angle θ as the change amount of the character posture.

より詳細には、CPU 101は、キャラクターの手の付け根部分から、キャラクターの手の先の部分へ結ぶベクトルを上記のベクトルV1もしくはV2とし、キャラクターの姿勢の変化量としてベクトルV1,V2の内積を用いてもよい。つまり、CPU 101は、多面体(ポリゴン)で表されるキャラクターのうちの所定部分に相当する立体内の2つの端点を結ぶベクトルを、キャラクターの所定部分の姿勢を表すパラメータとしてもよい。この場合、所定部分が大きいほど(例えば、手が長いほど、あるいは手が太いほど)、変化量を表す内積値が大きくなる。従って、姿勢が変化するオブジェクトが大きいほど、マーク画像は明るく強調して表示される。   More specifically, the CPU 101 uses the vector V1 or V2 as a vector connecting from the base of the character's hand to the tip of the character's hand, and uses the inner product of the vectors V1 and V2 as the amount of change in the character's posture. It may be used. That is, the CPU 101 may use a vector connecting two end points in a solid corresponding to a predetermined portion of a character represented by a polyhedron (polygon) as a parameter representing the posture of the predetermined portion of the character. In this case, the larger the predetermined portion (for example, the longer the hand or the thicker the hand), the larger the inner product value representing the amount of change. Therefore, the larger the object whose posture changes, the brighter the mark image is displayed.

本実施形態によれば、ゲーム装置300は、スムーズに体を動かせるようにプレイヤーを導くことができる。例えば、プレイヤーは、ゲーム課題を達成するために、マーク画像が明るく表示されている場合には比較的ゆっくりとしたモーションで体を動かし、マーク画像が暗く表示されている場合には比較的素早いモーションで体を動かせばよい、というゲームのヒントを得ることができる。   According to this embodiment, the game apparatus 300 can guide the player so that the body can move smoothly. For example, to accomplish a game task, a player moves his body with a relatively slow motion when the mark image is displayed brightly, and a relatively quick motion when the mark image is displayed darkly. You can get a hint of the game that you just need to move your body.

(実施形態4)
次に、本発明のその他の実施形態について説明する。本実施形態では、モニター250に表示されるマーク画像の軌跡の形状に応じて、仮想視点の位置及び/又は仮想視線の向きが変化する。
(Embodiment 4)
Next, other embodiments of the present invention will be described. In the present embodiment, the position of the virtual viewpoint and / or the direction of the virtual line of sight changes according to the shape of the trajectory of the mark image displayed on the monitor 250.

図16は、キャラクター画像1610とマーク画像1631A,1631Bとを表す図である。マーク画像1631Aを第1マーク画像とも呼び、マーク画像1631Bを第2マーク画像とも呼ぶ。   FIG. 16 is a diagram illustrating a character image 1610 and mark images 1631A and 1631B. The mark image 1631A is also called a first mark image, and the mark image 1631B is also called a second mark image.

1つのみの先行時間を設けた場合には、例えば図6のマーク画像431A,431Bに示すように、マーク画像は、マークオブジェクトをある仮想の投影面に投影した形状になる。マークオブジェクトが球体であれば、マーク画像は常に円になる。一方、複数の先行時間を設けた場合、例えば図7のマーク画像431A〜433A,431B〜433Bに示すように、マーク画像は、コマ送りのように間隔を開けて並べられる。さらに先行時間を増やしていくと、マーク画像は、図16のマーク画像1631A,1631Bに示すように、連続的な軌跡を描いたようなライン状になる。   When only one preceding time is provided, for example, as shown in mark images 431A and 431B in FIG. 6, the mark image has a shape obtained by projecting a mark object onto a virtual projection plane. If the mark object is a sphere, the mark image is always a circle. On the other hand, when a plurality of preceding times are provided, for example, as shown in mark images 431A to 433A and 431B to 433B in FIG. 7, the mark images are arranged at intervals like frame advance. When the preceding time is further increased, the mark image becomes a line shape that draws a continuous trajectory as shown by mark images 1631A and 1631B in FIG.

1つの先行時間につき複数のマーク画像(図16ではマーク画像1631A,1631Bの2つ)を描くとき、この軌跡が長くなればなるほど、互いに交差して見分けが難しくなる恐れがでてくる。図16には、両手を下ろしたキャラクターが、ボクシングでパンチをするポーズをとるまでの両手の動きが、2つのマーク画像1631A,1631Bとして表示されている。仮想視点の位置と仮想視線の向きは固定されたままである。すると、2つのマーク画像1631A,1631Bは、図16に示すように重なってしまい、互いに判別がつきづらくなるばかりか、マーク画像1631A,1631Bの位置や形状が分かりづらくなってしまう。図16の場合、キャラクターの左手の動きを示すマーク画像1631Bが、キャラクターの右手の動きを示すマーク画像1631Aの後ろに隠れてしまって見えないことになり、不都合が生じる。そこで、本実施形態では、CPU 101は、マーク画像1631A,1631Bがなるべく互いに重ならないように、仮想視点の位置と仮想視線の向きを変化させることとしている。   When a plurality of mark images (two mark images 1631A and 1631B in FIG. 16) are drawn for one preceding time, the longer this trajectory, the more likely it is to cross each other and make it difficult to distinguish. In FIG. 16, the movements of both hands until the character with both hands lowered takes a punching pose in boxing are displayed as two mark images 1631A and 1631B. The position of the virtual viewpoint and the direction of the virtual line of sight remain fixed. Then, the two mark images 1631A and 1631B overlap as shown in FIG. 16, and it becomes difficult to distinguish each other, and the positions and shapes of the mark images 1631A and 1631B are difficult to understand. In the case of FIG. 16, the mark image 1631B showing the movement of the left hand of the character is hidden behind the mark image 1631A showing the movement of the right hand of the character and cannot be seen, resulting in inconvenience. Therefore, in the present embodiment, the CPU 101 changes the position of the virtual viewpoint and the direction of the virtual line of sight so that the mark images 1631A and 1631B do not overlap each other as much as possible.

図17は、仮想視点の位置と仮想視線の向きの両方を変化させる様子を模式的に示した図である。CPU 101は、移動前の仮想視点1750の位置から、移動後の仮想視点1770の位置まで、まるで画面をスクロールしていくかのように、滑らかに徐々に移動する。同様に、CPU 101は、移動前の仮想視線1760の向きから、移動後の仮想視線1780の向きまで、滑らかに徐々に移動する。仮想視点と仮想視線を非連続的に一気に移動するよりも、仮想視点と仮想視線を連続的に滑らかに移動させた方が、プレイヤーにとっては、仮想視点と仮想視点の移り変わりを把握しやすく見やすい画像になると推測される。勿論、現実のテレビ中継において複数の固定されたカメラ間で撮影カメラを瞬時に切り換えるかのように、仮想視点の位置と仮想視線の向きを非連続的に変化させてもよい。   FIG. 17 is a diagram schematically showing how both the position of the virtual viewpoint and the direction of the virtual line of sight are changed. The CPU 101 moves smoothly and gradually from the position of the virtual viewpoint 1750 before the movement to the position of the virtual viewpoint 1770 after the movement as if scrolling the screen. Similarly, the CPU 101 smoothly and gradually moves from the direction of the virtual visual line 1760 before the movement to the direction of the virtual visual line 1780 after the movement. Rather than moving the virtual viewpoint and the virtual line of sight discontinuously, it is easier for the player to understand the transition between the virtual viewpoint and the virtual viewpoint, making it easier to see the transition between the virtual viewpoint and the virtual viewpoint. It is estimated that Of course, the position of the virtual viewpoint and the direction of the virtual line of sight may be discontinuously changed as if the photographing camera is instantaneously switched between a plurality of fixed cameras in an actual television relay.

図18は、図16における仮想視点の位置と仮想視線の向きを変化させた後のキャラクター画像1610とマーク画像1631A,1631Bとを表す画像である。図18では、マーク画像1631A,1631Bは交差していない。また、キャラクターがこれから右手を前に出すことが、マーク画像1631Aの形状からはっきりと分かる。仮想視点の位置と仮想視線の向きを変化させることにより、プレイヤーは、キャラクター(の所定部分)がこれからどのように動くのかを把握し易くなる。   FIG. 18 is an image representing the character image 1610 and the mark images 1631A and 1631B after changing the position of the virtual viewpoint and the direction of the virtual line of sight in FIG. In FIG. 18, the mark images 1631A and 1631B do not intersect. Also, it can be clearly seen from the shape of the mark image 1631A that the character will now put out his right hand. By changing the position of the virtual viewpoint and the direction of the virtual line of sight, it becomes easier for the player to understand how the character (predetermined part) will move from now on.

図19は、図18に示すようにキャラクター画像1610とマーク画像1631A,1631Bが表示された後、所定部分(両手)がマーク画像1631A,1631Bが示すとおりに移動したときのキャラクター画像1610を表す図である。例えば、キャラクターが正面に向けてパンチをするポーズのように、所定部分(手)が仮想視点に近づくような動きをする場合には、CPU 101は、プレイヤーが奥行き感を把握し易くなるように、仮想視点の位置と仮想視線の向きを変化させることが望ましい。   FIG. 19 shows a character image 1610 when a predetermined portion (both hands) moves as indicated by the mark images 1631A and 1631B after the character image 1610 and the mark images 1631A and 1631B are displayed as shown in FIG. It is. For example, when a predetermined part (hand) moves close to the virtual viewpoint, such as a pose where the character punches forward, the CPU 101 makes it easier for the player to grasp the sense of depth. It is desirable to change the position of the virtual viewpoint and the direction of the virtual line of sight.

次に、本実施形態の各部が実行するゲーム処理について、図20のフローチャートを用いて説明する。本実施形態では、互いに長さが異なる複数の先行時間が設定されているものとする。   Next, game processing executed by each unit of the present embodiment will be described with reference to the flowchart of FIG. In the present embodiment, it is assumed that a plurality of preceding times having different lengths are set.

まず、CPU 101は、ゲーム開始から現在までの経過時間に対応付けて記憶されたキャラクターの位置と姿勢を示すデータをハードディスク104から読み出して取得する(ステップS2001)。   First, the CPU 101 reads out and obtains data indicating the position and posture of the character stored in association with the elapsed time from the start of the game to the present from the hard disk 104 (step S2001).

CPU 101は、ステップS2001で読み出した位置と姿勢に基づいて、キャラクターを配置する(ステップS2002)。   The CPU 101 arranges characters based on the position and posture read in step S2001 (step S2002).

CPU 101は、ゲーム開始から現在までの経過時間に、複数の先行時間のうちいずれかの先行時間を加算した時間に対応付けて記憶されたキャラクターの位置を示すデータをハードディスク104から読み出して取得する(ステップS2003)。   The CPU 101 reads out and obtains data indicating the position of the character stored from the hard disk 104 in association with a time obtained by adding one of the plurality of preceding times to the elapsed time from the start of the game to the present time. (Step S2003).

CPU 101は、ステップS2003で取得したキャラクターの位置に基づいて、仮想空間内にマークオブジェクトを配置する(ステップS2004)。   The CPU 101 arranges a mark object in the virtual space based on the character position acquired in step S2003 (step S2004).

CPU 101は、すべての先行時間に対応するマークオブジェクトを配置したか否かを判別する(ステップS2005)。   The CPU 101 determines whether or not mark objects corresponding to all preceding times have been arranged (step S2005).

未だすべての先行時間に対応するマークオブジェクトを配置していない場合(ステップS2005;NO)、CPU 101は、すべての先行時間に対応するマークオブジェクトを配置するまで、ステップS2003〜2005の処理を繰り返す。   When the mark objects corresponding to all the preceding times have not yet been arranged (step S2005; NO), the CPU 101 repeats the processes of steps S2003 to 2005 until the mark objects corresponding to all the preceding times are arranged.

すべての先行時間に対応するマークオブジェクトを配置した場合(ステップS2005;YES)、CPU 101は、仮想視点の位置から仮想視線の向きへキャラクターとマークオブジェクトを眺めた様子を表す画像を生成する(ステップS2006)。生成される画像には、キャラクター画像1610とマーク画像1631A,1631Bが含まれる。   When mark objects corresponding to all preceding times are arranged (step S2005; YES), the CPU 101 generates an image representing a state in which the character and the mark object are viewed from the position of the virtual viewpoint toward the direction of the virtual line of sight (step). S2006). The generated images include a character image 1610 and mark images 1631A and 1631B.

CPU 101は、モニター250に表示される画面内において、マーク画像1631Aとマーク画像1631Bが重なり合うか否かを判別する(ステップS2007)。   The CPU 101 determines whether or not the mark image 1631A and the mark image 1631B overlap in the screen displayed on the monitor 250 (step S2007).

マーク画像1631Aとマーク画像1631Bが重ならないと判別された場合(ステップS2007;NO)、CPU 101はステップS2009の処理に移る。一方、マーク画像1631Aとマーク画像1631Bが重なり合うと判別された場合(ステップS2007;YES)、CPU 101は、マーク画像1631Aとマーク画像1631Bが重なり合わないように、仮想視点の位置と仮想視線の向きを変化させる(ステップS2008)。言い換えれば、CPU 101は、マーク画像1631Aとマーク画像1631Bが画面内で重ならないように、仮想カメラの位置と向きを移動する。CPU 101は、マーク画像1631Aとマーク画像1631Bが重なり合わなくなるまで、ステップS2006〜2008の処理を繰り返す。   If it is determined that the mark image 1631A and the mark image 1631B do not overlap (step S2007; NO), the CPU 101 proceeds to the process of step S2009. On the other hand, when it is determined that the mark image 1631A and the mark image 1631B overlap (step S2007; YES), the CPU 101 determines the position of the virtual viewpoint and the direction of the virtual line of sight so that the mark image 1631A and the mark image 1631B do not overlap. Is changed (step S2008). In other words, the CPU 101 moves the position and orientation of the virtual camera so that the mark image 1631A and the mark image 1631B do not overlap on the screen. The CPU 101 repeats the processes in steps S2006 to 2008 until the mark image 1631A and the mark image 1631B do not overlap each other.

CPU 101は、キャラクター画像1610とマーク画像1631A,1631Bをモニター250に表示する(ステップS2009)。   The CPU 101 displays the character image 1610 and the mark images 1631A and 1631B on the monitor 250 (step S2009).

CPU 101は、ゲーム開始から現在までの経過時間に対応付けて記憶された仮想空間におけるキャラクターの位置と姿勢と、入力装置107によって検知された現実空間におけるプレイヤーの位置と姿勢と、に基づいて、プレイヤーの成績を判定する(ステップS2010)。   The CPU 101, based on the character position and posture in the virtual space stored in association with the elapsed time from the start of the game to the present, and the player position and posture in the real space detected by the input device 107, The player's score is determined (step S2010).

CPU 101は、ゲームを終了するか否かを判別する(ステップS2011)。例えば、CPU 101は、再生される楽曲データ内の位置を表すポインタが楽曲の最後に到達した場合(楽曲の再生が終わった場合)に、ゲームを終了すると判別する。あるいは、プレイヤーのゲームの成績を表すゲージの値が、所定値(典型的にはゼロ)以下になった場合に、ゲームを終了すると判別する。   The CPU 101 determines whether or not to end the game (step S2011). For example, the CPU 101 determines that the game is to be ended when the pointer indicating the position in the music data to be played reaches the end of the music (when the music has been played). Alternatively, it is determined that the game is to be ended when the value of the gauge representing the player's game performance falls below a predetermined value (typically zero).

ゲームを終了しないと判別した場合(ステップS2011;NO)、CPU 101は、ステップS2001〜S2011の処理を繰り返す。一方、ゲームを終了すると判別した場合(ステップS2011;YES)、CPU 101は、楽曲の再生を停止し、ゲームを終了する。   When it is determined that the game is not finished (step S2011; NO), the CPU 101 repeats the processes of steps S2001 to S2011. On the other hand, when it is determined that the game is to be ended (step S2011; YES), the CPU 101 stops the reproduction of the music and ends the game.

本実施形態によれば、同じ先行時間に対応づけられるマーク画像同士が重ならないように仮想カメラの位置と向きが変化するので、プレイヤーにとってマーク画像が見やすいなり、ゲーム装置300がプレイヤーをスムーズに体を動かせるように導くことができるという効果が増す。   According to the present embodiment, since the position and orientation of the virtual camera change so that the mark images associated with the same preceding time do not overlap each other, it becomes easy for the player to see the mark image, and the game apparatus 300 can smoothly recognize the player. The effect that it can be guided to move is increased.

本発明は、上述した実施形態に限定されず、種々の変形及び応用が可能である。また、上述した実施形態の各構成要素を自由に組み合わせることも可能である。   The present invention is not limited to the above-described embodiments, and various modifications and applications are possible. Moreover, it is also possible to freely combine the constituent elements of the above-described embodiments.

上記のゲーム装置300の全部又は一部としてコンピュータを動作させるためのプログラムを、メモリカード、CD−ROM、DVD、MO(Magneto Optical disk)などのコンピュータ読み取り可能な記録媒体に格納して配布し、これを別のコンピュータにインストールし、上述の手段として動作させ、あるいは、上述の工程を実行させてもよい。   A program for operating a computer as all or part of the game apparatus 300 is stored in a computer-readable recording medium such as a memory card, CD-ROM, DVD, or MO (Magneto Optical disk) and distributed. This may be installed in another computer and operated as the above-described means, or the above-described steps may be executed.

さらに、インターネット上のサーバ装置が有するディスク装置等にプログラムを格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するものとしてもよい。   Furthermore, the program may be stored in a disk device or the like included in a server device on the Internet, and may be downloaded onto a computer by being superimposed on a carrier wave, for example.

以上説明したように、本発明によれば、プレイヤーが体を動かして指示を入力するゲームにおいて、よりスムーズに体を動かせるようにプレイヤーを導くために好適なゲーム装置、ゲーム処理方法、ならびに、プログラムを提供することができる。   As described above, according to the present invention, in a game in which a player moves his / her body and inputs an instruction, a game device, a game processing method, and a program suitable for guiding the player to move the body more smoothly Can be provided.

100 情報処理装置
101 CPU
102 ROM
103 RAM
104 ハードディスク
105 インターフェース
106 外部メモリ
107 入力装置
108 DVD−ROMドライブ
109 画像処理部
110 音声処理部
111 NIC
250 モニター
300 ゲーム装置
301 記憶部
302 キャラクター画像生成部
303 取得部
304 マーク画像生成部
305 表示部
410,420 キャラクター画像
431,431A,431B,432A,432B,433A,433B マーク画像
440A,440B マーク画像
1110 キャラクターオブジェクト(キャラクター)
1120A,1120B,1120C,1120D マークオブジェクト
1150 仮想視点
1160 仮想視線
1210 キャラクター画像
1231,1231A,1231B,1231C,1231D マーク画像
1410 キャラクター
1610 キャラクター画像
1631A,1631B マーク画像
1710 キャラクター
1720A,1720B マークオブジェクト
1750,1770 仮想視点
1760,1780 仮想視線
100 Information processing apparatus 101 CPU
102 ROM
103 RAM
104 Hard disk 105 Interface 106 External memory 107 Input device 108 DVD-ROM drive 109 Image processing unit 110 Audio processing unit 111 NIC
250 Monitor 300 Game device 301 Storage unit 302 Character image generation unit 303 Acquisition unit 304 Mark image generation unit 305 Display unit 410, 420 Character image 431, 431A, 431B, 432A, 432B, 433A, 433B Mark image 440A, 440B Mark image 1110 Character object (character)
1120A, 1120B, 1120C, 1120D Mark object 1150 Virtual viewpoint 1160 Virtual line of sight 1210 Character image 1231, 1231A, 1231B, 1231C, 1231D Mark image 1410 Character 1610 Character image 1631A, 1631B Mark image 1710 Character 1720A, 1720B Mark object 1750, 1770 Virtual Viewpoint 1760, 1780 Virtual line of sight

Claims (14)

仮想空間内において時間の経過に伴って位置と姿勢とを変化させるキャラクターの当該位置と当該姿勢とが、ゲーム開始からの経過時間に対応付けられて記憶される記憶部と、
ゲーム開始から現在までの経過時間に対応付けられて前記記憶部に記憶される位置と姿勢に基づいて、キャラクターを表すキャラクター画像を生成するキャラクター画像生成部と、
ゲーム開始から現在までの経過時間に正の時間(以下「先行時間」という。)を加算した時間に対応付けられて前記記憶部に記憶される位置であって、現在から前記先行時間が経過した後に配置されるべき前記キャラクターの所定部分の位置を取得する取得部と、
前記取得された位置に配置されるマークオブジェクトを表すマーク画像を生成するマーク画像生成部と、
前記生成されたキャラクター画像と、前記生成されたマーク画像と、を画面に表示する表示部と、
現実空間におけるプレイヤーの位置と姿勢を検知する検知部と、
前記検知された前記現実空間における前記プレイヤーの位置と姿勢と、前記記憶された前記仮想空間における前記キャラクターの位置と姿勢と、に基づいて、前記プレイヤーの成績を判定する成績判定部と、
を備え、
前記取得部は、前記判定された成績に基づいて、前記キャラクターの複数の部位のうちいずれかの部位に前記所定部分を設定する、
ことを特徴とするゲーム装置。
A storage unit that stores the position and the posture of the character that changes the position and the posture with time in the virtual space in association with the elapsed time from the start of the game;
A character image generation unit that generates a character image representing a character based on the position and posture stored in the storage unit in association with the elapsed time from the start of the game to the present time;
A position stored in the storage unit in association with a time obtained by adding a positive time (hereinafter referred to as “preceding time”) to the elapsed time from the start of the game to the present, and the preceding time has elapsed from the present An acquisition unit for acquiring a position of a predetermined part of the character to be placed later;
A mark image generation unit that generates a mark image representing a mark object placed at the acquired position;
A display unit for displaying the generated character image and the generated mark image on a screen;
A detection unit for detecting the position and posture of the player in the real space;
A score determination unit that determines the score of the player based on the detected position and posture of the player in the real space and the position and posture of the character in the stored virtual space;
With
The acquisition unit sets the predetermined part in any part of the plurality of parts of the character based on the determined result.
A game device characterized by that.
仮想空間内において時間の経過に伴って位置と姿勢とを変化させるキャラクターの当該位置と当該姿勢とが、ゲーム開始からの経過時間に対応付けられて記憶される記憶部と、
ゲーム開始から現在までの経過時間に対応付けられて前記記憶部に記憶される位置と姿勢に基づいて、キャラクターを表すキャラクター画像を生成するキャラクター画像生成部と、
ゲーム開始から現在までの経過時間に正の時間(以下「先行時間」という。)を加算した時間に対応付けられて前記記憶部に記憶される位置であって、現在から前記先行時間が経過した後に配置されるべき前記キャラクターの所定部分の位置を取得する取得部と、
前記取得された位置に配置されるマークオブジェクトを表すマーク画像を生成するマーク画像生成部と、
前記生成されたキャラクター画像と、前記生成されたマーク画像と、を画面に表示する表示部と、
前記キャラクターの所定部分を指定する指示入力をプレイヤーから受け付ける受付部と、
を備え、
前記取得部は、前記受け付けられた指示入力に応じて、前記キャラクターの複数の部位のうちいずれかの部位に前記所定部分を設定する、
ことを特徴とするゲーム装置。
A storage unit that stores the position and the posture of the character that changes the position and the posture with time in the virtual space in association with the elapsed time from the start of the game;
A character image generation unit that generates a character image representing a character based on the position and posture stored in the storage unit in association with the elapsed time from the start of the game to the present time;
A position stored in the storage unit in association with a time obtained by adding a positive time (hereinafter referred to as “preceding time”) to the elapsed time from the start of the game to the present, and the preceding time has elapsed from the present An acquisition unit for acquiring a position of a predetermined part of the character to be placed later;
A mark image generation unit that generates a mark image representing a mark object placed at the acquired position;
A display unit for displaying the generated character image and the generated mark image on a screen;
A receiving unit for receiving an instruction input for designating a predetermined portion of the character from a player;
With
The acquisition unit sets the predetermined part in any part of the plurality of parts of the character in response to the received instruction input.
A game device characterized by that.
請求項1又は2に記載のゲーム装置であって、
前記マーク画像は複数であり、前記マーク画像のそれぞれに対応する先行時間は互いに異なる、
ことを特徴とするゲーム装置。
The game device according to claim 1 or 2,
The mark images are plural, and the preceding times corresponding to the mark images are different from each other,
A game device characterized by that.
請求項3に記載のゲーム装置であって、
それぞれの前記先行時間は等間隔に設定される、
ことを特徴とするゲーム装置。
The game device according to claim 3,
Each preceding time is set at equal intervals,
A game device characterized by that.
請求項4に記載のゲーム装置であって、
前記表示部は、前記先行時間が短い順に前記複数のマーク画像を配置して前記画面に表示する、
ことを特徴とするゲーム装置。
The game device according to claim 4,
The display unit arranges and displays the plurality of mark images in order from the shortest preceding time,
A game device characterized by that.
請求項1乃至5のいずれか1項に記載のゲーム装置であって、
前記マーク画像生成部は、前記仮想空間内に配置される仮想視点の位置から前記キャラクターの所定部分までの距離に応じて、前記マーク画像の大きさを変化させる、
ことを特徴とするゲーム装置。
A game device according to any one of claims 1 to 5,
The mark image generation unit changes the size of the mark image according to a distance from a position of a virtual viewpoint arranged in the virtual space to a predetermined portion of the character.
A game device characterized by that.
請求項1乃至6のいずれか1項に記載のゲーム装置であって、
前記マーク画像生成部は、前記仮想空間内に配置される仮想視点の位置から前記キャラクターの所定部分までの距離に応じて、前記マークオブジェクトの大きさを変化させる、
ことを特徴とするゲーム装置。
A game device according to any one of claims 1 to 6,
The mark image generation unit changes the size of the mark object according to a distance from a position of a virtual viewpoint arranged in the virtual space to a predetermined portion of the character.
A game device characterized by that.
請求項1乃至7のいずれか1項に記載のゲーム装置であって、
前記マーク画像生成部は、前記キャラクターの所定部分の位置の単位時間当たりの変化量、又は、前記キャラクターの所定部分の姿勢の単位時間当たりの変化量に応じて、前記マーク画像の明度、彩度、色相のうち少なくともいずれか1つを変化させる、
ことを特徴とするゲーム装置。
The game device according to any one of claims 1 to 7,
The mark image generation unit may change the brightness or saturation of the mark image according to the amount of change per unit time of the position of the predetermined portion of the character or the amount of change per unit time of the posture of the predetermined portion of the character. , Changing at least one of the hues,
A game device characterized by that.
請求項1乃至8のいずれか1項に記載のゲーム装置であって、
前記表示部は、前記仮想空間内に配置された仮想視点の位置から仮想視線の向きへ前記仮想空間を眺めた様子を表す画像であって、前記生成されたキャラクター画像と、前記生成されたマーク画像と、を含む画像を前記画面に表示する、
ことを特徴とするゲーム装置。
A game device according to any one of claims 1 to 8,
The display unit is an image representing a state in which the virtual space is viewed from a position of a virtual viewpoint arranged in the virtual space in a direction of a virtual line of sight, the generated character image, and the generated mark And an image including the image is displayed on the screen.
A game device characterized by that.
請求項9に記載のゲーム装置であって、
前記マーク画像は複数であり、前記マーク画像のそれぞれに対応する先行時間は等しく、
前記表示部は、前記表示される画面において、前記複数のマーク画像のうち一のマーク画像(以下「第1マーク画像」という。)と他の一のマーク画像(以下「第2マーク画像」という。)とが重なる場合、前記第1マーク画像と前記第2マーク画像とが重ならないように、前記仮想視点の位置と前記仮想視線の向きを変化させる、
ことを特徴とするゲーム装置。
The game device according to claim 9,
The mark image is plural, and the preceding time corresponding to each of the mark images is equal,
In the displayed screen, the display unit displays one mark image (hereinafter referred to as “first mark image”) and the other one of the plurality of mark images (hereinafter referred to as “second mark image”). .)), The position of the virtual viewpoint and the direction of the virtual line of sight are changed so that the first mark image and the second mark image do not overlap.
A game device characterized by that.
記憶部、キャラクター画像生成部、取得部、マーク画像生成部、表示部、検知部、成績判定部を備えるゲーム装置にて実行されるゲーム処理方法であって、
前記記憶部には、仮想空間内において時間の経過に伴って位置と姿勢とを変化させるキャラクターの当該位置と当該姿勢とが、ゲーム開始からの経過時間に対応付けられて記憶され、
前記キャラクター画像生成部が、ゲーム開始から現在までの経過時間に対応付けられて前記記憶部に記憶される位置と姿勢に基づいて、キャラクターを表すキャラクター画像を生成するキャラクター画像生成ステップと、
前記取得部が、ゲーム開始から現在までの経過時間に正の時間(以下「先行時間」という。)を加算した時間に対応付けられて前記記憶部に記憶される位置であって、現在から前記先行時間が経過した後に配置されるべき前記キャラクターの所定部分の位置を取得する取得ステップと、
前記マーク画像生成部が、前記取得された位置に配置されるマークオブジェクトを表すマーク画像を生成するマーク画像生成ステップと、
前記表示部が、前記生成されたキャラクター画像と、前記生成されたマーク画像と、を画面に表示する表示ステップと、
前記検知部が、現実空間におけるプレイヤーの位置と姿勢を検知する検知ステップと、
前記成績判定部が、前記検知された前記現実空間における前記プレイヤーの位置と姿勢と、前記記憶された前記仮想空間における前記キャラクターの位置と姿勢と、に基づいて、前記プレイヤーの成績を判定する成績判定ステップと、
を備え、
前記取得ステップでは、前記取得部が、前記判定された成績に応じて、前記キャラクターの複数の部位のうちいずれかの部位に前記所定部分を設定する、
ことを特徴とするゲーム処理方法。
A game processing method executed on a game device including a storage unit, a character image generation unit, an acquisition unit, a mark image generation unit, a display unit, a detection unit, and a score determination unit,
In the storage unit, the position and the posture of the character that changes the position and the posture with the passage of time in the virtual space are stored in association with the elapsed time from the start of the game,
A character image generation step in which the character image generation unit generates a character image representing a character based on the position and posture stored in the storage unit in association with the elapsed time from the start of the game to the present time;
The acquisition unit is a position stored in the storage unit in association with a time obtained by adding a positive time (hereinafter referred to as “preceding time”) to the elapsed time from the start of the game to the present, An acquisition step of acquiring a position of a predetermined portion of the character to be placed after the preceding time has elapsed;
A mark image generation step in which the mark image generation unit generates a mark image representing a mark object placed at the acquired position;
A display step in which the display unit displays the generated character image and the generated mark image on a screen;
A detection step in which the detection unit detects the position and orientation of the player in real space;
A result for the player to determine the player's score based on the detected position and posture of the player in the real space and the position and posture of the character in the stored virtual space. A determination step;
With
In the obtaining step, the obtaining unit sets the predetermined portion in any part of the plurality of parts of the character according to the determined result.
The game processing method characterized by the above-mentioned.
記憶部、キャラクター画像生成部、取得部、マーク画像生成部、表示部、検知部、受付部を備えるゲーム装置にて実行されるゲーム処理方法であって、
前記記憶部には、仮想空間内において時間の経過に伴って位置と姿勢とを変化させるキャラクターの当該位置と当該姿勢とが、ゲーム開始からの経過時間に対応付けられて記憶され、
前記キャラクター画像生成部が、ゲーム開始から現在までの経過時間に対応付けられて前記記憶部に記憶される位置と姿勢に基づいて、キャラクターを表すキャラクター画像を生成するキャラクター画像生成ステップと、
前記取得部が、ゲーム開始から現在までの経過時間に正の時間(以下「先行時間」という。)を加算した時間に対応付けられて前記記憶部に記憶される位置であって、現在から前記先行時間が経過した後に配置されるべき前記キャラクターの所定部分の位置を取得する取得ステップと、
前記マーク画像生成部が、前記取得された位置に配置されるマークオブジェクトを表すマーク画像を生成するマーク画像生成ステップと、
前記表示部が、前記生成されたキャラクター画像と、前記生成されたマーク画像と、を画面に表示する表示ステップと、
前記受付部が、前記キャラクターの所定部分を指定する指示入力をプレイヤーから受け付ける受付ステップと、
を備え、
前記取得ステップでは、前記取得部が、前記受け付けられた指示入力に応じて、前記キャラクターの複数の部位のうちいずれかの部位に前記所定部分を設定する、
ことを特徴とするゲーム処理方法。
A game processing method executed by a game device including a storage unit, a character image generation unit, an acquisition unit, a mark image generation unit, a display unit, a detection unit, and a reception unit ,
In the storage unit, the position and the posture of the character that changes the position and the posture with the passage of time in the virtual space are stored in association with the elapsed time from the start of the game,
A character image generation step in which the character image generation unit generates a character image representing a character based on the position and posture stored in the storage unit in association with the elapsed time from the start of the game to the present time;
The acquisition unit is a position stored in the storage unit in association with a time obtained by adding a positive time (hereinafter referred to as “preceding time”) to the elapsed time from the start of the game to the present, An acquisition step of acquiring a position of a predetermined portion of the character to be placed after the preceding time has elapsed;
A mark image generation step in which the mark image generation unit generates a mark image representing a mark object placed at the acquired position;
A display step in which the display unit displays the generated character image and the generated mark image on a screen;
A receiving step in which the receiving unit receives an instruction input for designating a predetermined portion of the character from a player;
With
In the obtaining step, the obtaining unit sets the predetermined portion in any part of the plurality of parts of the character in response to the received instruction input.
The game processing method characterized by the above-mentioned.
コンピュータを、
仮想空間内において時間の経過に伴って位置と姿勢とを変化させるキャラクターの当該位置と当該姿勢とが、ゲーム開始からの経過時間に対応付けられて記憶される記憶部、
ゲーム開始から現在までの経過時間に対応付けられて前記記憶部に記憶される位置と姿勢に基づいて、キャラクターを表すキャラクター画像を生成するキャラクター画像生成部、
ゲーム開始から現在までの経過時間に正の時間(以下「先行時間」という。)を加算した時間に対応付けられて前記記憶部に記憶される位置であって、現在から前記先行時間が経過した後に配置されるべき前記キャラクターの所定部分の位置を取得する取得部、
前記取得された位置に配置されるマークオブジェクトを表すマーク画像を生成するマーク画像生成部、
前記生成されたキャラクター画像と、前記生成されたマーク画像と、を画面に表示する表示部、
現実空間におけるプレイヤーの位置と姿勢を検知する検知部、
前記検知された前記現実空間における前記プレイヤーの位置と姿勢と、前記記憶された前記仮想空間における前記キャラクターの位置と姿勢と、に基づいて、前記プレイヤーの成績を判定する成績判定部、
として機能させ、
前記取得部は、前記判定された成績に応じて、前記キャラクターの複数の部位のうちいずれかの部位に前記所定部分を設定する、
ことを特徴とするプログラム。
Computer
A storage unit that stores the position and the posture of the character that changes the position and the posture with time in the virtual space in association with the elapsed time from the start of the game,
A character image generation unit that generates a character image representing a character based on the position and posture stored in the storage unit in association with the elapsed time from the start of the game to the present time;
A position stored in the storage unit in association with a time obtained by adding a positive time (hereinafter referred to as “preceding time”) to the elapsed time from the start of the game to the present, and the preceding time has elapsed from the present An acquisition unit for acquiring a position of a predetermined part of the character to be arranged later;
A mark image generation unit for generating a mark image representing a mark object placed at the acquired position;
A display unit for displaying the generated character image and the generated mark image on a screen;
A detector that detects the position and orientation of the player in real space,
A score determination unit that determines the score of the player based on the detected position and posture of the player in the real space and the position and posture of the character in the stored virtual space;
Function as
The acquisition unit sets the predetermined part in any part of the plurality of parts of the character according to the determined result,
A program characterized by that.
コンピュータを、
仮想空間内において時間の経過に伴って位置と姿勢とを変化させるキャラクターの当該位置と当該姿勢とが、ゲーム開始からの経過時間に対応付けられて記憶される記憶部、
ゲーム開始から現在までの経過時間に対応付けられて前記記憶部に記憶される位置と姿勢に基づいて、キャラクターを表すキャラクター画像を生成するキャラクター画像生成部、
ゲーム開始から現在までの経過時間に正の時間(以下「先行時間」という。)を加算した時間に対応付けられて前記記憶部に記憶される位置であって、現在から前記先行時間が経過した後に配置されるべき前記キャラクターの所定部分の位置を取得する取得部、
前記取得された位置に配置されるマークオブジェクトを表すマーク画像を生成するマーク画像生成部、
前記生成されたキャラクター画像と、前記生成されたマーク画像と、を画面に表示する表示部、
前記キャラクターの所定部分を指定する指示入力をプレイヤーから受け付ける受付部、
として機能させ、
前記取得部は、前記受け付けられた指示入力に応じて、前記キャラクターの複数の部位のうちいずれかの部位に前記所定部分を設定する、
ことを特徴とするプログラム。
Computer
A storage unit that stores the position and the posture of the character that changes the position and the posture with time in the virtual space in association with the elapsed time from the start of the game,
A character image generation unit that generates a character image representing a character based on the position and posture stored in the storage unit in association with the elapsed time from the start of the game to the present time;
A position stored in the storage unit in association with a time obtained by adding a positive time (hereinafter referred to as “preceding time”) to the elapsed time from the start of the game to the present, and the preceding time has elapsed from the present An acquisition unit for acquiring a position of a predetermined part of the character to be arranged later;
A mark image generation unit for generating a mark image representing a mark object placed at the acquired position;
A display unit for displaying the generated character image and the generated mark image on a screen;
A receiving unit for receiving an instruction input for designating a predetermined portion of the character from a player;
Function as
The acquisition unit sets the predetermined part in any part of the plurality of parts of the character in response to the received instruction input.
A program characterized by that.
JP2010157516A 2010-07-12 2010-07-12 GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM Active JP5238764B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010157516A JP5238764B2 (en) 2010-07-12 2010-07-12 GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010157516A JP5238764B2 (en) 2010-07-12 2010-07-12 GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2012022360A JP2012022360A (en) 2012-02-02
JP5238764B2 true JP5238764B2 (en) 2013-07-17

Family

ID=45776632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010157516A Active JP5238764B2 (en) 2010-07-12 2010-07-12 GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP5238764B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210385554A1 (en) * 2018-10-16 2021-12-09 Sony Group Corporation Information processing device, information processing method, and information processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3145059B2 (en) * 1997-06-13 2001-03-12 株式会社ナムコ Information storage medium and image generation device
JP5410710B2 (en) * 2007-09-12 2014-02-05 株式会社バンダイナムコゲームス Program, information storage medium, game system
JP4583472B2 (en) * 2008-04-28 2010-11-17 株式会社コナミデジタルエンタテインメント GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM

Also Published As

Publication number Publication date
JP2012022360A (en) 2012-02-02

Similar Documents

Publication Publication Date Title
JP4384697B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
JP5661763B2 (en) Visual display representation method and system based on player representation
JP5785254B2 (en) Real-time animation of facial expressions
US8319777B2 (en) Character display, character displaying method, information recording medium, and program
KR101160851B1 (en) Image generating device, image generating method, and information recording medium
GB2556347A (en) Virtual reality
JP5325327B2 (en) Game device, detailed presentation method, and program
JP2010184009A (en) Determination apparatus, determination method and program
JP5580156B2 (en) GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM
JP5325265B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2011239937A (en) Game device, game processing method, and program
JP5307060B2 (en) Image processing apparatus, image processing method, and program
JP4267646B2 (en) Image generating apparatus, image generating method, and program
JP5502043B2 (en) Game device and program
JP5238764B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
JP2011039895A (en) Virtual space display device, viewpoint setting method, and program
JP5238756B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
JP2011239936A (en) Game device, game processing method, and program
JP5124545B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
JP2012055637A (en) Game device, game processing method, and program
JP5499001B2 (en) Game device and program
JP5431411B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2011156253A (en) Game device, game processing method, and program
EP2560382A2 (en) Game apparatus, control method for game apparatus, information recording medium, and program
JP2012120565A (en) Game device, method for controlling game device, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120817

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121225

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130401

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5238764

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250