JP7325833B2 - Game program, game processing method, and game device - Google Patents
Game program, game processing method, and game device Download PDFInfo
- Publication number
- JP7325833B2 JP7325833B2 JP2020203591A JP2020203591A JP7325833B2 JP 7325833 B2 JP7325833 B2 JP 7325833B2 JP 2020203591 A JP2020203591 A JP 2020203591A JP 2020203591 A JP2020203591 A JP 2020203591A JP 7325833 B2 JP7325833 B2 JP 7325833B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- virtual space
- game
- image
- reference position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
本発明は、ゲームプログラム、ゲーム処理方法、及びゲーム装置に関する。 The present invention relates to a game program, a game processing method, and a game device.
音楽ゲームには、ユーザの身体の動きを検出して、ダンスの良し悪しを評価するダンスゲームがある。例えば、特許文献1には、ユーザ(プレイヤ)が楽曲に合わせて手や足を動かすことによって描くべき軌跡とタイミングを、ユーザの対面に表示されるゲーム画面に案内表示し、その案内表示を見ながらユーザが手や足を動かすダンスゲームについて開示されている。このダンスゲームは、例えば、家庭用のゲーム機でプレイすることができる。
Among music games, there is a dance game that detects the movement of the user's body and evaluates the quality of the dance. For example,
また、特許文献2には、同様に楽曲に合わせてゲーム画面に案内表示される指示に合わせて、実空間に配置されている操作パネルをユーザが足で踏む動作を行うダンスゲームについて開示されている。このダンスゲームは、実空間におけるユーザの足の踏む位置を判定するための操作パネルを足元に設置しておく必要があり、ゲームセンターなどの遊戯施設に設置される所謂アーケードゲームとして構成されている例である。 Similarly, Patent Document 2 discloses a dance game in which the user steps on an operation panel arranged in real space in accordance with instructions displayed on the game screen in time with music. there is This dance game requires an operation panel to be installed at the user's feet for determining the position of the user's foot in the real space, and is configured as a so-called arcade game installed in amusement facilities such as game arcades. For example.
しかしながら、上述した特許文献1に記載のゲームでは、ユーザがどのような身体の動き(軌跡)をどのタイミングでするべきかをゲーム画面で案内できるものの、実空間においてユーザが動作すべき位置(例えば、足の踏む位置)を指示するようなゲームには不向きであった。例えば、上述した特許文献2に記載のようなゲームを、足もとに操作パネルを設置することなく家庭用のゲーム機のような簡易な構成で実現しようとすると、ユーザは、実空間内においてどの位置に足を動かせば良いのか分かりづらく、直感的なプレイが困難な場合があった。
However, in the game described in
本発明のいくつかの態様は、簡易な構成で、より直感的なプレイが可能なようにユーザが動作すべき内容を案内するゲームプログラム、ゲーム処理方法、及びゲーム装置を提供することを目的の一つとする。 SUMMARY OF THE INVENTION An object of some aspects of the present invention is to provide a game program, a game processing method, and a game device that guide the user to what actions should be performed so that a more intuitive play is possible with a simple configuration. be one.
また、本発明の他の態様は、後述する実施形態に記載した作用効果を奏することを可能にするゲームプログラム、ゲーム処理方法、及びゲーム装置を提供することを目的の一つとする。 Another object of the present invention is to provide a game program, a game processing method, and a game device that can achieve the effects described in the embodiments described later.
上述した課題を解決するために、本発明の一態様は、ユーザの頭部に装着することにより、前記ユーザに視認可能に映像を出力するとともに実空間を視認可能な映像出力装置を用いてプレイ可能なゲームの処理を実行するコンピュータに、前記実空間を撮像した撮像映像を取得するステップと、前記撮像映像から前記実空間に対応する仮想空間を生成するステップと、前記仮想空間内の、前記ユーザに対応する基準位置に基づく位置に、前記ユーザの動作を指示する指示オブジェクトを前記ユーザに視認可能に配置するステップと、少なくとも前記指示オブジェクトが配置された前記仮想空間を、前記実空間に対応付けて表示させるステップと、前記撮像映像から前記ユーザの身体の少なくとも一部の動作を検出するステップと、前記検出された動作を、前記仮想空間内に配置された前記指示オブジェクトに基づくタイミング及び位置に基づいて評価するステップと、を実行させるためのゲームプログラムである。 In order to solve the above-described problems, one aspect of the present invention provides a video output device that outputs a video that can be visually recognized by the user and that can visually recognize the real space by wearing it on the user's head. a step of obtaining a captured image of the real space in a computer that executes possible game processing; a step of generating a virtual space corresponding to the real space from the captured image; arranging a pointing object that instructs the action of the user at a position based on a reference position corresponding to the user so that the user can see the pointing object; detecting motion of at least a part of the user's body from the captured image; and determining the detected motion in timing and position based on the pointing object placed in the virtual space. and a step of evaluating based on.
また、本発明の一態様は、ユーザの頭部に装着することにより、前記ユーザに視認可能に映像を出力するとともに実空間を視認可能な映像出力装置を用いてプレイ可能なゲームの処理を実行するコンピュータにより実行されるゲーム処理方法であって、前記実空間を撮像した撮像映像を取得するステップと、前記撮像映像から前記実空間に対応する仮想空間を生成するステップと、前記仮想空間内の、前記ユーザに対応する基準位置に基づく位置に、前記ユーザの動作を指示する指示オブジェクトを前記ユーザに視認可能に配置するステップと、少なくとも前記指示オブジェクトが配置された前記仮想空間を、前記実空間に対応付けて表示させるステップと、前記撮像映像から前記ユーザの身体の少なくとも一部の動作を検出するステップと、前記検出された動作を、前記仮想空間内に配置された前記指示オブジェクトに基づくタイミング及び位置に基づいて評価するステップと、を含むゲーム処理方法である。 Further, according to one aspect of the present invention, a video output device that is worn on the user's head outputs a video that can be visually recognized by the user and that can visually recognize the real space. A game processing method executed by a computer, comprising the steps of: obtaining a captured image of the real space; generating a virtual space corresponding to the real space from the captured image; arranging, at a position based on a reference position corresponding to the user, a pointing object that instructs the action of the user so as to be visible to the user; detecting motion of at least a part of the user's body from the captured image; and timing the detected motion based on the pointing object placed in the virtual space. and evaluating based on the position.
また、本発明の一態様は、ユーザの頭部に装着することにより、前記ユーザに視認可能に映像を出力するとともに実空間を視認可能な映像出力装置を用いてプレイ可能なゲームの処理を実行するゲーム装置であって、前記実空間を撮像した撮像映像を取得する取得部と、前記取得部により取得された前記撮像映像から前記実空間に対応する仮想空間を生成する生成部と、前記生成部により生成された前記仮想空間内の、前記ユーザに対応する基準位置に基づく位置に、前記ユーザの動作を指示する指示オブジェクトを前記ユーザに視認可能に配置する配置部と、少なくとも前記指示オブジェクトが配置された前記仮想空間を、前記実空間に対応付けて表示させる表示制御部と、前記取得部により取得された前記撮像映像から前記ユーザの身体の少なくとも一部の動作を検出する検出部と、前記検出部により検出された動作を、前記仮想空間内に配置された前記指示オブジェクトに基づくタイミング及び位置に基づいて評価する評価部と、を備えるゲーム装置である。 Further, according to one aspect of the present invention, a video output device that is worn on the user's head outputs a video that can be visually recognized by the user and that can visually recognize the real space. a game device comprising: an acquisition unit that acquires a captured image obtained by imaging the real space; a generation unit that generates a virtual space corresponding to the real space from the captured image acquired by the acquisition unit; an arrangement unit for arranging an instruction object that instructs the user's action at a position based on a reference position corresponding to the user in the virtual space generated by the unit so that the instruction object can be visually recognized by the user; a display control unit that displays the arranged virtual space in association with the real space; a detection unit that detects motion of at least a part of the user's body from the captured image acquired by the acquisition unit; and an evaluation unit that evaluates the action detected by the detection unit based on timing and position based on the pointing object placed in the virtual space.
以下、本発明の一実施形態について、図面を参照して説明する。
[第1の実施形態]
まず、本発明の第1の実施形態について説明する。
An embodiment of the present invention will be described below with reference to the drawings.
[First Embodiment]
First, a first embodiment of the present invention will be described.
〔ゲーム装置の概要〕
まず、本実施形態に係るゲーム装置で実行されるゲームの処理の一例について、その概要を説明する。本実施形態に係るゲーム装置は、典型的には家庭用のゲーム機を例示できるが、ゲームセンターなどの遊戯施設などで使用されてもよい。
[Overview of game device]
First, an overview of an example of game processing executed by the game device according to the present embodiment will be described. The game device according to this embodiment can typically be a home-use game machine, but it may also be used in amusement facilities such as game arcades.
図1は、本実施形態に係るゲーム装置によるゲーム処理の概要を示す図である。この図は、ユーザUがゲーム装置10を用いてダンスゲーム(音楽ゲームの一例)をプレイするプレイ状況を俯瞰して示している。ゲーム装置10は、映像出力装置を含む構成である。映像出力装置は、映像をディスプレイに表示するものであってもよいし、映像を投影するものであってもよい。例えば、ゲーム装置10は、ユーザの頭部に装着することにより、ユーザに視認可能に映像を出力するとともに、実空間を視認可能なHMD(Head Mounted Display)として構成されている。
FIG. 1 is a diagram showing an overview of game processing by the game device according to this embodiment. This diagram shows a bird's-eye view of a play situation in which the user U plays a dance game (an example of a music game) using the
図示するダンスゲームの例では、楽曲に合わせてHMDに表示される指示オブジェクトのタイミング及び位置に応じて、ユーザUが身体の少なくとも一部を動作させる。指示オブジェクトは、ユーザUが実空間で動作すべきタイミング及び位置の指示を案内するために表示されるオブジェクトである。本実施形態では、仮想空間に配置した指示オブジェクトを実空間に対応付けてHMDに表示することで、ユーザは、直感的なプレイが可能となる。 In the illustrated example of the dance game, the user U moves at least part of the body according to the timing and position of the pointing object displayed on the HMD in time with the music. The instruction object is an object displayed to guide the user U to instruct the timing and position to operate in the real space. In this embodiment, the user can intuitively play by displaying the pointing object arranged in the virtual space on the HMD in association with the real space.
例えば、ゲーム装置10は、実空間を光学的に視認可能なHMD(所謂、光学透過(光学シースルー)型HMD)として構成されている。ゲーム装置10は、ユーザの頭部に装着された状態で該ユーザの眼前に位置する透過型のディスプレイに、仮想空間に配置された指示オブジェクトを表示させる。これにより、ディスプレイを透過して視認可能な実空間に、ディスプレイに表示された指示オブジェクトが重畳された映像をユーザが視認可能となる。
For example, the
なお、ゲーム装置10は、網膜投影式の光学透過型HMDとして構成されてもよい。網膜投影式の場合、ゲーム装置10は、ユーザの網膜に直接的に映像を投影する映像投影装置をディスプレイに代えて備えている。ユーザの仮想空間に配置された指示オブジェクトは、網膜に直接的に投影されることで視認可能に表示される。
Note that the
また、ゲーム装置10は、実空間を撮像した映像をリアルタイムに表示させるHMD(所謂、ビデオ透過(ビデオシースルー)型HMD)として構成されてもよい。この場合、ゲーム装置10は、ユーザの頭部に装着された状態で該ユーザの眼前に位置するディスプレイに、実空間のリアルタイム映像を表示させるとともに、仮想空間に配置された指示オブジェクトをリアルタイム映像に重畳させて表示させる。
Further, the
ゲーム装置10は、ユーザUの頭部に装着されており、実空間のユーザUの視線方向を撮像した撮像映像から仮想空間を生成する。例えば、仮想空間は、床面(平面)に平行な互いに直交するX軸及びY軸と、床面(平面)に直交する垂直方向のZ軸とによるXYZの3次元座標空間で定義される。生成される仮想空間には、実空間内の物体の少なくとも一部(例えば、ユーザU、床、壁など)に対応する位置が含まれる。なお、以下の説明において、Z軸の方向として、天井へ向かう方向を上方向、床面へ向かう方向を下方向とも称する。
The
ゲーム装置10は、この仮想空間内のユーザUの位置を基準位置として、当該基準位置に基づく位置(例えば、基準位置の周囲の所定の位置)に、ユーザの動作を指示する指示オブジェクトを配置する。例えば、指示オブジェクトには、判定オブジェクトと移動オブジェクトとが含まれる。判定オブジェクトは、ユーザの動作を評価する際の判定基準となる判定位置に配置される指示オブジェクトである。例えば、判定オブジェクトは、仮想空間においてZ座標では床面に対応する位置(高さ)、XY座標では基準位置(ユーザUの位置)の周囲(例えば、ユーザUが足を一歩踏み出すことで届く範囲)に配置される。図示する例では、基準位置(ユーザUの位置)に対して前方に判定オブジェクトHF、後方に判定オブジェクトHB、右方に判定オブジェクトHR、左方に判定オブジェクトHLがそれぞれ配置されている。ここで、基準位置(ユーザUの位置)と、基準位置に対する前方、後方、右方、及び左方とは、このダンスゲームのプレイ開始時点でイニシャライズした方向であり、プレイ中にユーザUの向きが変化しても固定である。
The
移動オブジェクトは、仮想空間においてZ座標では天井側から出現し、床面に対応する位置(高さ)に配置されている判定オブジェクト(判定位置)へ向かって徐々に下方向へ移動する。出現位置は、例えばユーザUの頭部の位置(ゲーム装置10の位置)を基準に予め設定されていてもよいし、所定のルールに従って変化してもよい。移動オブジェクトNFは、判定オブジェクトHF(移動オブジェクトNFの判定位置)へ向かって移動する移動オブジェクトである。移動オブジェクトNBは、判定オブジェクトHB(移動オブジェクトNBの判定位置)へ向かって移動する移動オブジェクトである。移動オブジェクトNRは、判定オブジェクトHR(移動オブジェクトNRの判定位置)へ向かって移動する移動オブジェクトである。移動オブジェクトNLは、判定オブジェクトHL(移動オブジェクトNLの判定位置)へ向かって移動する移動オブジェクトである。 The moving object appears from the ceiling side in the Z coordinate in the virtual space and gradually moves downward toward the determination object (determination position) arranged at the position (height) corresponding to the floor surface. The appearance position may be preset based on, for example, the position of the user U's head (the position of the game device 10), or may change according to a predetermined rule. The moving object NF is a moving object that moves toward the determination object HF (the determination position of the moving object NF). The moving object NB is a moving object that moves toward the determination object HB (the determination position of the moving object NB). The moving object NR is a moving object that moves toward the determination object HR (the determination position of the moving object NR). The moving object NL is a moving object that moves toward the determination object HL (the determination position of the moving object NL).
各移動オブジェクトが徐々に移動して、それぞれの判定オブジェクト(判定位置)へ到達したタイミング及び位置が、ユーザUが操作すべきタイミング及び位置である、例えば、移動オブジェクトNFが判定オブジェクトHFへ到達したタイミングで、判定オブジェクトHFを足で踏む動作がユーザに求められる。移動オブジェクトが判定オブジェクトへ到達したタイミング及び位置に基づいてユーザの動作が評価され、評価に応じて得点(スコア)が更新される。例えば、移動オブジェクトが判定オブジェクトへ到達したタイミング及び位置とユーザの動作のタイミングと位置が一致すると判定されると得点が加算され、一致しないと判定されると得点が加算されない。例えば、このタイミングと位置が一致したか否かは、移動オブジェクトが判定オブジェクトへ到達したタイミングに対応する所定時間内(例えば、到達したタイミンの前後0.5秒以内など)に当該到達した位置に対応する判定領域内(例えば、判定オブジェクトHRの領域など)の少なくとも一部を、ユーザが足で踏む動作をしたか否かによって判定される。なお、移動オブジェクトが判定オブジェクトへ到達したタイミング及び位置とユーザの動作のタイミングと位置との一致の度合いによって、加算される得点が変化してもよい。 The timing and position at which each moving object gradually moves and reaches the respective determination object (determination position) is the timing and position to be operated by the user U. For example, the moving object NF has reached the determination object HF. The user is requested to step on the determination object HF with his/her foot at the appropriate timing. The user's action is evaluated based on the timing and position at which the moving object reaches the determination object, and the score is updated according to the evaluation. For example, if it is determined that the timing and position of the moving object reaching the determination object match the timing and position of the user's motion, the score is added, and if it is determined that they do not match, the score is not added. For example, whether or not this timing and position match is determined by determining whether the moving object reaches the position within a predetermined time corresponding to the timing when the moving object reaches the determination object (for example, within 0.5 seconds before or after the arrival timing). It is determined whether or not the user has stepped on at least part of the corresponding determination area (for example, the area of the determination object HR). Note that the score to be added may vary depending on the degree of coincidence between the timing and position at which the moving object reaches the determination object and the timing and position of the user's motion.
なお、図1は、ユーザUが含まれる実空間と指示オブジェクトが含まれる仮想空間との対応関係を1つの図にまとめて示したものであり、ユーザUがプレイ中に視認可能なプレイ画面とは異なる。各指示オブジェクトは、実空間に存在するものではなく仮想空間のみに存在し、ゲーム装置10を介して視認可能になるものである。ユーザUが実際にプレイ中に視認可能な指示オブジェクトは、ゲーム装置10のディスプレイ部分を介して視認可能な視野(Fov:Field of view)の範囲内に存在するものである。この視野の中に含まれる指示オブジェクトがゲーム装置10(HMD)に表示されることにより、実空間に重畳されてユーザUに視認可能となる。なお、ゲーム装置10には、指示オブジェクト以外のゲームに関する表示情報(スコアや、プレイする楽曲の情報など)も表示される。
Note that FIG. 1 shows the correspondence relationship between the real space in which the user U is included and the virtual space in which the pointing object is included. is different. Each pointing object does not exist in the real space, but only in the virtual space, and can be visually recognized through the
図2は、本実施形態に係る仮想空間の空間座標の定義を示す図である。前述したように、本実施形態では、垂直方向の軸をZ軸とし、Z軸に直交する水平面で互いに直交する軸をX軸とY軸とする。また、このダンスゲームのプレイ開始時点でのイニシャライズで、ユーザUの位置に対応する基準位置K1(ゲーム装置10の位置に基づく第1基準位置の一例)が座標原点として定義され、且つX軸がユーザUの視線方向の軸として定義される。プレイ中は基準位置K1(座標原点)、X軸、Y軸及びZ軸は固定となる。Z軸を軸とした回転方向への変化をヨー方向(左右方向)への変化ともいい、Y軸を軸とした回転方向への変化をピッチ方向(上下方向)への変化ともいい、X軸を軸とした回転方向への変化をロール方向への変化ともいう。 FIG. 2 is a diagram showing the definition of spatial coordinates in the virtual space according to this embodiment. As described above, in this embodiment, the vertical axis is the Z-axis, and the X-axis and the Y-axis are the horizontal planes orthogonal to the Z-axis and perpendicular to each other. Further, in initialization at the start of play of this dance game, a reference position K1 (an example of a first reference position based on the position of the game device 10) corresponding to the position of the user U is defined as the coordinate origin, and the X axis is defined as It is defined as the axis of the user U's gaze direction. During play, the reference position K1 (coordinate origin), X-axis, Y-axis and Z-axis are fixed. A change in the rotational direction about the Z axis is also called a change in the yaw direction (horizontal direction), and a change in the rotational direction about the Y axis is also called a change in the pitch direction (vertical direction). is also referred to as a change in the roll direction.
ゲーム装置10は、装着されているユーザUの頭部の向きが変化すると、内蔵する加速度センサなどを用いて各軸の回転方向(ヨー方向、ピッチ方向、ロール方向)の変化として検出する。ゲーム装置10は、検出した各軸の回転方向の変化に基づいて図1に示す視野(Fov)を変化させ、仮想空間に含まれる指示オブジェクトの表示を変更する。これにより、ゲーム装置10は、ユーザUの頭部の向きが変化しても、視野の変化に応じて仮想空間に含まれる指示オブジェクトをディスプレイに表示させることができる。
なお、ヨー方向への変化を左右方向への変化、ピッチ方向への変化を上下方向への変化、ともいうことがある。
When the direction of the head of the user U wearing the
A change in the yaw direction is sometimes called a change in the horizontal direction, and a change in the pitch direction is sometimes called a change in the vertical direction.
なお、図示する基準位置K1は、一例であってこの位置に限定されるものではない。また、基準位置K1を空間座標の座標原点として定義したが、座標原点は他の位置に定義してもよい。 Note that the illustrated reference position K1 is an example and is not limited to this position. Further, although the reference position K1 is defined as the coordinate origin of the spatial coordinates, the coordinate origin may be defined at another position.
〔ゲーム装置10のハードウェア構成〕
次に、本実施形態に係るゲーム装置10のハードウェア構成の概要を説明する。
図3は、本実施形態に係るゲーム装置10のハードウェア構成の一例を示すブロック図である。ゲーム装置10は、光学透過型HMDとして、撮像部11と、表示部12と、センサ13と、記憶部14と、CPU(Central Processing Unit)15と、通信部16と、音出力部17とを含んで構成されている。
[Hardware Configuration of Game Device 10]
Next, an overview of the hardware configuration of the
FIG. 3 is a block diagram showing an example of the hardware configuration of the
撮像部11は、ゲーム装置10(HMD)を頭部に装着して使用するユーザUの視線方向を撮像するカメラである。すなわち、撮像部11は、頭部に装着された状態で光軸が視線方向に対応するようにゲーム装置10(HMD)に設けられている。撮像部11は、単眼カメラでもよいし、デュアルカメラでもよい。撮像部11は、撮像した撮像映像を出力する。
The
表示部12は、例えば、光学透過型HMDにおける透過型のディスプレイである。例えば、表示部12は、少なくとも指示オブジェクトを表示する。表示部12は、右眼用と左眼用の2つのディスプレイを備える構成としてもよいし、右眼用と左眼用の区別なく両眼で視認可能な1つのディスプレイを備える構成としてもよい。また、ゲーム装置10が網膜投影式の光学透過型HMDである場合、表示部12は、ユーザの網膜に直接的に映像を投影する映像投影装置である。
The
なお、ゲーム装置10がビデオ透過型HMDである場合、表示部12は、実空間を光学的に視認不可能な透過しないディスプレイである。
Note that if the
センサ13は、ゲーム装置10の方向に関する検知信号を出力するセンサである。例えば、センサ13は、物体の角度、角速度、角加速度等を検知するジャイロセンサである。なお、センサ13は、方向の変化を検知するセンサであってもよいし、方向そのものを検知するセンサであってもよい。例えば、センサ13は、ジャイロセンサに代えて又は加えて、加速度センサ、傾斜センサ、地磁気センサ等が含まれてもよい。
The
記憶部14は、例えば、EEPROM(Electrically Erasable Programmable Read-Only Memory)、ROM(Read-Only Memory)、Flash ROM、RAM(Random Access Memory)などを含み、このダンスゲームのプログラムやデータ、生成された仮想空間のデータ等を記憶する。
The
CPU15は、ゲーム装置10が備える各部を制御する制御中枢として機能する。例えば、CPU15は、記憶部14に記憶されたゲームのプログラムを実行することで、ゲーム処理を実行し、図1を参照して説明したように、実空間に対応する仮想空間を撮像映像から生成する処理、生成した仮想空間に指示オブジェクトを配置する処理、ユーザの動作を検出して指示オブジェクトのタイミング及び位置に基づいて評価する処理などを実行する。
The
通信部16は、例えば、Bluetooth(登録商標)やWi-Fi(登録商標)等の無線通信を行う通信デバイス等を含んで構成される。なお、通信部16は、USB(Universal Serial Bus)等のデジタル入出力ポートや、映像入出力ポートなどを含んで構成されてもよい。
The
音出力部17は、ダンスゲームのプレイ楽曲の演奏音やゲームの効果音などを出力する。例えば、音出力部17は、スピーカ、イヤフォン、ヘッドフォン、或いはそれらと接続可能な端子などを含んで構成されてもよい。なお、音出力部17は、Bluetooth(登録商標)などの無線通信を介して、外部のスピーカ、イヤフォン、ヘッドフォンなどに各種の音を出力してもよい。
The
なお、上述したゲーム装置10が備える各ハードウェア構成は、バス(Bus)を介して相互に通信可能に接続されている。
The hardware components included in the
〔ゲーム装置10の機能構成〕
次に、図4を参照して、ゲーム装置10の機能構成について説明する。
図4は、本実施形態に係るゲーム装置10の機能構成の一例を示すブロック図である。図示するゲーム装置10は、記憶部14に記憶されているプログラムをCPU15が実行することにより実現される機能構成として、制御部150を備えている。制御部150は、図1及び図2を参照して説明したダンスゲームの処理を実行する。例えば、制御部150は、映像取得部151と、仮想空間生成部152と、オブジェクト配置部154と、視線方向検出部155と、表示制御部156と、動作検出部157と、評価部158とを備えている。
[Functional Configuration of Game Device 10]
Next, with reference to FIG. 4, the functional configuration of the
FIG. 4 is a block diagram showing an example of the functional configuration of the
映像取得部151(取得部の一例)は、撮像部11により撮像された実空間の撮像映像を取得する。例えば、ゲーム装置10は、ダンスゲームのプレイ開始前に、ユーザUに対して所定の方向を見させる指示(例えば、上下左右を見回す指示)を行う。ゲーム装置10は、この指示を、例えば表示部12に表示させる。これにより、映像取得部151は、撮像部11により撮像された実空間におけるユーザUの周囲が撮像された撮像映像を取得する。
The video acquisition unit 151 (an example of the acquisition unit) acquires the captured video of the real space captured by the
仮想空間生成部152(生成部の一例)は、映像取得部151が取得した撮像映像から実空間に対応する仮想空間を生成する。例えば、仮想空間生成部152は、取得した撮像映像から実空間に存在する物体(床や、壁など)の位置を検出し、検出した物体(床や、壁など)の少なくとも一部の位置情報を含む3次元座標空間のデータを仮想空間のデータとして生成する。一例として、ユーザUの頭部に装着されているゲーム装置10自身の位置に基づいてユーザUに対応する基準位置K1(図2参照)が、仮想空間(3次元座標空間)の座標原点として定義される。仮想空間生成部152は、ユーザUに対応する基準位置K1を座標原点とした仮想空間(3次元座標空間)内に、実空間に存在する物体(床や、壁など)に対応する位置情報を含む仮想空間データを生成する。仮想空間生成部152は、生成した仮想空間データを記憶部14に記憶させる。
The virtual space generation unit 152 (an example of the generation unit) generates a virtual space corresponding to the real space from the captured image acquired by the
ここで、撮像映像から実空間に存在する物体(床や、壁など)の位置を検出する検出方法には、任意の公知の技術を適用することができる。例えば、撮像部11がデュアルカメラ(ステレオカメラ)である場合、左右それぞれのカメラの視差を利用して撮像映像を解析することにより物体(床や、壁など)の位置を検出してもよい。また、撮像部11が単眼カメラである場合、単眼カメラを規定の距離分ずらして2カ所から撮像した撮像映像を用いることで、デュアルカメラと同様に視差を利用した検出が可能である。また、このように映像解析に代えて又は加えて、レーザ光や音波などを用いて実空間に存在する物体(床や、壁など)の位置を検出してもよい。
Here, any known technique can be applied to the detection method for detecting the position of an object (floor, wall, etc.) existing in the real space from the captured image. For example, if the
オブジェクト配置部154(配置部の一例)は、仮想空間内の、ユーザUに対応する基準位置K1に基づく位置に、ユーザUの動作を指示する指示オブジェクトをユーザUに視認可能に配置する。具体的には、オブジェクト配置部154は、床の位置に対応する仮想空間内の判定位置に判定オブジェクト(図1の判定オブジェクトHF、HB、HR、HL参照)を配置する。また、オブジェクト配置部154は、楽曲に合わせて予め設定されたタイミングで移動オブジェクト(図1の移動オブジェクトNF、NB、NR、NL参照)を仮想空間内の出現位置に配置し、上記判定オブジェクトへ向かって移動(配置する位置を変更)させる。オブジェクト配置部154は、指示オブジェクト(判定オブジェクト及び移動オブジェクト)を配置する際に、仮想空間内の配置する位置の座標情報に基づいて、記憶部14に記憶されている仮想空間データを更新する。
The object arranging unit 154 (an example of the arranging unit) arranges an instruction object that instructs the action of the user U at a position based on the reference position K1 corresponding to the user U in the virtual space so that the user U can see the instruction object. Specifically, the object placement unit 154 places determination objects (see determination objects HF, HB, HR, and HL in FIG. 1) at determination positions in the virtual space corresponding to the position of the floor. Further, the object placement unit 154 places moving objects (see moving objects NF, NB, NR, and NL in FIG. 1) at the appearance positions in the virtual space at preset timings in accordance with music, Move (change the placement position) toward it. The object placement unit 154 updates the virtual space data stored in the
視線方向検出部155は、センサ13から出力される検知信号に基づいて、ゲーム装置10の向き、すなわちユーザUの視線方向を検出する。なお、視線方向検出部155は、撮像部11により撮像された実空間の撮像映像を解析することにより、ゲーム装置10の向き、すなわちユーザUの視線方向を検出してもよい。例えば、視線方向検出部155は、撮像映像を解析することにより物体または物体のエッジの位置や傾きなどを検出し、検出結果に基づいてゲーム装置10の向き、すなわちユーザUの視線方向を検出してもよい。また、撮像映像の各フレームの物体または物体のエッジの位置や傾きなどを検出することにより、各フレーム間での物体または物体のエッジの位置や傾きなどの差分を検出し、検出結果に基づいてゲーム装置10の向き、すなわちユーザUの視線方向の変化を検出してもよい。なお、視線方向検出部155は、センサ13から出力される検知信号と実空間の撮像映像の解析との両方に基づいて、ゲーム装置10の向き、すなわちユーザUの視線方向を検出してもよい。
The line-of-sight
表示制御部156は、記憶部14に記憶されている仮想空間データを参照して、少なくとも指示オブジェクトが配置された仮想空間を、実空間に対応付けて表示部12に表示させる。ここで、仮想空間を実空間に対応付けるとは、実空間に基づいて生成した仮想空間の座標と当該実空間の座標とを対応付けることを含む。表示制御部156は、仮想空間を表示させる際に、仮想空間における視点位置及び視線方向を、実空間におけるゲーム装置10(HMD)の位置及び向き、すなわちユーザUの位置及び方向に基づいて決定する。例えば、表示制御部156は、視線方向検出部155により検出されたユーザUの視線方向により定まる視野(Fov)の範囲(実空間の範囲)に対応する仮想空間の範囲に配置されている指示オブジェクトを表示部12に表示させる(図1参照)。
The
動作検出部157(検出部の一例)は、撮像映像からユーザUの身体の少なくとも一部の動作を検出する。例えば、動作検出部157は、ダンスゲームをプレイするユーザUの足の動作を検出する。なお、撮像映像からユーザUの身体の少なくとも一部(すなわち、認識対象)を認識する認識技術は、任意の公知の技術を適用することができる。例えば、動作検出部157は、認識対象の特徴情報(例えば、足の特徴情報)を用いて、撮像映像から認識対象の映像領域を認識する。動作検出部157は、撮像映像の各フレームから認識対象の映像領域を抽出してトラッキングすることにより認識対象の動作(例えば、足の動作)を検出する。
The motion detection unit 157 (an example of the detection unit) detects motion of at least part of the body of the user U from the captured image. For example, the
評価部158は、動作検出部157により検出されたユーザUの身体の少なくとも一部の動作を、仮想空間内に配置された指示オブジェクトに基づくタイミング及び位置に基づいて評価する。例えば、評価部158は、移動オブジェクトが判定オブジェクトへ到達したタイミング及び位置と、ユーザUの足の動作(判定オブジェクトを踏む動作)のタイミングと位置とを比較し、ユーザUの動作によるプレイを評価する。評価部158は、比較結果に基づいて両者のタイミングと位置が一致すると判定できる場合には得点(スコア)を加算し、一致しないと判定できる場合には得点を加算スコア)をしない。
The
なお、評価部158は、移動オブジェクトが判定オブジェクトへ到達したタイミングでのユーザUの足の位置を判定オブジェクトの位置と比較することで、ユーザUの動作によるプレイを評価してもよい。
Note that the
〔指示オブジェクト配置処理の動作〕
次に、ゲーム装置10のCPU15が実行するダンスゲームの処理において、仮想空間を生成して指示オブジェクトを配置する指示オブジェクト配置処理の動作について説明する。図5は、本実施形態に係る指示オブジェクト配置処理の一例を示すフローチャートである。
[Operation of pointing object placement processing]
Next, in the dance game processing executed by the
まず、CPU15は、撮像部11が撮像した実空間の撮像映像を取得する(ステップS101)。例えば、CPU15は、ダンスゲームのプレイ開始前に、ユーザUに対して所定の方向を見させる指示(例えば、上下左右を見回す指示)を表示部12に表示させ、実空間におけるユーザUの周囲が撮像された撮像映像を取得する。
First, the
次に、CPU15は、ステップS101で取得した撮像映像から実空間に対応する仮想空間を生成する(ステップS103)。例えば、CPU15は、撮像映像から実空間に存在する物体(床や、壁など)の位置を検出する。CPU15は、ユーザUに対応する基準位置K1を座標原点とした仮想空間(3次元座標空間)内に、検出した物体(床や、壁など)の少なくとも一部の位置情報を含む3次元座標空間の仮想空間データを生成する。そして、CPU15は、生成した仮想空間データを記憶部14に記憶させる。
Next, the
続いて、CPU15は、ダンスゲームのプレイ開始時点或いは開始の前に、床の位置に対応する仮想空間内の基準位置K1に基づく判定位置に判定オブジェクト(図1の判定オブジェクトHF、HB、HR、HL参照)を配置する(ステップS105)。CPU15は、判定オブジェクトを配置する際に、記憶部14に記憶されている仮想空間データに、配置した判定オブジェクトの位置情報を追加する。
Subsequently, the
また、CPU15は、ダンスゲームのプレイが開始されると、移動オブジェクトの出現トリガの有無を判定する(ステップS107)。出現トリガは、楽曲に合わせて予め設定されたタイミングで発生する。CPU15は、ステップS107において出現トリガがあったと判定した場合(YES)、ステップS109の処理へ進む。
Further, when the play of the dance game is started, the
ステップS109において、CPU15は、仮想空間内の基準位置K1に基づく出現位置に移動オブジェクトを配置(図1の移動オブジェクトNF、NB、NR、NLのいずれか一つまたは複数)し、判定位置(各移動オブジェクトに対応する判定オブジェクトの位置)へ向かって移動を開始させる。CPU15は、移動オブジェクトを配置する際に、記憶部14に記憶されている仮想空間データに、配置した移動オブジェクトの位置情報を追加する。また、CPU15は、配置した移動オブジェクトを移動させる際に、記憶部14に記憶されている仮想空間データに追加した移動オブジェクトの位置情報を更新する。そして、ステップS111の処理へ進む。一方、CPU15は、ステップS107において出現トリガが無いと判定した場合(NO)、ステップS109の処理を行わずに、ステップS111の処理へ進む。
In step S109, the
ステップS111において、CPU15は、移動オブジェクトが判定位置に到達したか否かを判定する。CPU15は、ステップS111において判定位置に到達したと判定(YES)した移動オブジェクトを仮想空間から消去する(ステップS113)。CPU15は、移動オブジェクトを仮想空間から消去する際に、消去する移動オブジェクトの位置情報を記憶部14に記憶されている仮想空間データから削除する。
In step S111, the
一方、CPU15は、ステップS111において判定位置に到達していないと判定(NO)した移動オブジェクトは引き続き判定位置へ向かって徐々に移動させる(ステップS115)。CPU15は、配置した移動オブジェクトを移動させる際に、記憶部14に記憶されている仮想空間データのうち、移動させる移動オブジェクトの位置情報を更新する。
On the other hand, the
次に、CPU15は、ダンスゲームが終了したか否かを判定する(ステップS117)。例えば、CPU15は、プレイ中の楽曲が終了した場合にダンスゲームが終了したと判定する。CPU15は、ダンスゲームが終了していないと判定した場合(NO)、ステップS107の処理に戻る。一方、CPU15は、ダンスゲームが終了したと判定した場合(YES)、指示オブジェクト配置処理を終了する。
Next, the
なお、判定オブジェクトの配置と最初に出現する移動オブジェクトの配置との順番は同時でもよいし、判定オブジェクトの方が先でもよいし、逆に判定オブジェクトの方が後(最初に出現した移動オブジェクトが判定位置に到達するまでの間)でもよい。 The order of placement of the determination object and the placement of the moving object that appears first may be the same, the determination object may be placed first, or conversely, the determination object may be placed after (the moving object that appears first may be placed first). until it reaches the judgment position).
〔指示オブジェクト表示処理の動作〕
次に、ゲーム装置10のCPU15が実行するダンスゲームの処理において、仮想空間に配置された指示オブジェクトを表示する指示オブジェクト表示処理の動作について説明する。図6は、本実施形態に係る指示オブジェクト表示処理の一例を示すフローチャートである。
[Operation of Pointer Object Display Processing]
Next, in the dance game processing executed by the
CPU15は、センサ13から出力される検知信号に基づいて、ユーザUの視線方向(ゲーム装置10の向き)を検出する(ステップS201)。
The
CPU15は、記憶部14に記憶されている仮想空間データを参照して、ステップS201で検出した視線方向に基づく視野(Fov)の範囲(実空間の範囲)に対応する仮想空間を表示部12に表示させる。例えば、CPU15は、視線方向に基づく視野(Fov)の範囲に対応する仮想空間の範囲に配置されている指示オブジェクト(判定オブジェクト及び移動オブジェクト)を表示部12に表示させる(ステップS203)。これにより、表示部12に、楽曲に合わせて予め設定されたタイミングで移動オブジェクトが表示される。
The
次に、CPU15は、ダンスゲームが終了したか否かを判定する(ステップS205)。例えば、CPU15は、プレイ中の楽曲が終了した場合にダンスゲームが終了したと判定する。CPU15は、ダンスゲームが終了していないと判定した場合(NO)、ステップS201の処理に戻る。一方、CPU15は、ダンスゲームが終了したと判定した場合(YES)、指示オブジェクト表示処理を終了する。
Next, the
〔プレイ評価処理の動作〕
次に、ゲーム装置10のCPU15が実行するダンスゲームの処理において、ユーザUの身体の少なくとも一部の動作によるプレイを評価するプレイ評価処理の動作について説明する。図7は、本実施形態に係るプレイ評価処理の一例を示すフローチャートである。
[Operation of play evaluation process]
Next, in the dance game processing executed by the
CPU15は、撮像部11が撮像した実空間の撮像映像を取得する(ステップS301)。次に、CPU15は、ステップS301で取得した撮像映像からユーザUの身体の少なくとも一部の動作を検出する(ステップS303)。例えば、CPU15は、ダンスゲームをプレイするユーザUの足の動作を検出する。
The
そして、CPU15は、ステップS303において検出されたユーザUの身体の少なくとも一部(例えば、足)の動作を、仮想空間内に配置された指示オブジェクトに基づくタイミング及び位置に基づいて評価する(ステップS305)。例えば、CPU15は、移動オブジェクトが判定オブジェクトへ到達したタイミング及び位置と、ユーザUの足の動作(判定オブジェクトを踏む動作)のタイミングと位置とを比較し、ユーザUの足の動作によるプレイを評価する。
Then, the
また、CPU15は、ステップS305における評価結果に基づいて、ゲームの得点(スコア)を更新する(ステップS307)。例えば、CPU15は、移動オブジェクトが判定オブジェクトへ到達したタイミング及び位置と、ユーザUの足の動作(判定オブジェクトを踏む動作)のタイミングと位置とが一致すると判定できる場合には得点(スコア)を加算し、一致しないと判定できる場合には得点(スコア)を加算しない。
Also, the
次に、CPU15は、ダンスゲームが終了したか否かを判定する(ステップS309)。例えば、CPU15は、プレイ中の楽曲が終了した場合にダンスゲームが終了したと判定する。CPU15は、ダンスゲームが終了していないと判定した場合(NO)、ステップS301の処理に戻る。一方、CPU15は、ダンスゲームが終了したと判定した場合(YES)、プレイ評価処理を終了する。
Next, the
〔第1の実施形態のまとめ〕
以上説明してきたように、本実施形態に係るゲーム装置10は、ユーザUの頭部に装着することにより、ユーザUに視認可能に映像を出力するとともに実空間を視認可能なゲーム装置10(映像出力装置の一例)を用いてプレイ可能なゲームの処理を実行する。例えば、ゲーム装置10は、実空間を撮像した撮像映像を取得し、取得した撮像映像から実空間に対応する仮想空間を生成する。そして、ゲーム装置10は、仮想空間内の、ユーザUに対応する基準位置K1に基づく位置に、ユーザUの動作を指示する指示オブジェクトをユーザに視認可能に配置し、少なくとも指示オブジェクトが配置された仮想空間を、実空間に対応付けて表示させる。また、ゲーム装置10は、取得した撮像映像からユーザUの身体の少なくとも一部の動作を検出し、検出された動作を、仮想空間内に配置された指示オブジェクトに基づくタイミング及び位置に基づいて評価する。
[Summary of the first embodiment]
As described above, the
これにより、ゲーム装置10は、ユーザUの動作を指示する指示オブジェクトに基づくタイミング及び位置に基づいてユーザUの動作を評価するゲーム処理において、頭部に装着することで、指示オブジェクトを実空間に対応付けてユーザUに視認可能とするため、簡易な構成で、より直感的なプレイが可能なようにユーザが動作すべき内容を案内することができる。
As a result, in the game process of evaluating the motion of the user U based on the timing and position of the pointing object that instructs the motion of the user U, the
例えば、基準位置K1は、ゲーム装置10(映像出力装置の一例)を装着しているユーザUの位置に対応する仮想空間内における第1基準位置であり、仮想空間内の透過型HMDの位置に基づく。例えば、基準位置K1は、実空間におけるユーザUの位置(透過型HMDの位置)に対応する仮想空間内における位置であり、仮想空間(3次元座標空間)の座標原点として定義される。 For example, the reference position K1 is the first reference position in the virtual space corresponding to the position of the user U wearing the game device 10 (an example of the video output device), and is the position of the transmissive HMD in the virtual space. based on For example, the reference position K1 is a position in the virtual space corresponding to the position of the user U (the position of the transmissive HMD) in the real space, and is defined as the coordinate origin of the virtual space (three-dimensional coordinate space).
これにより、ゲーム装置10は、ゲームをプレイするユーザUの位置を基準として、実空間に対応付けて指示オブジェクトを表示できるため、ユーザUに対する動作の指示にリアリティを感じさせることができ、より直感的なプレイが可能となる。
As a result, the
また、ゲーム装置10は、仮想空間内の所定の位置(出現位置)に配置した指示オブジェクト(例えば、移動オブジェクト)を所定の判定位置(例えば、判定オブジェクトの位置)へ向かって移動させる。そして、ゲーム装置10は、仮想空間内で移動する指示オブジェクト(例えば、移動オブジェクト)が判定位置に到達したタイミングと判定位置に基づいて、撮像映像から検出されたユーザUの身体の少なくとも一部(例えば、足)の動作を評価する。
In addition, the
これにより、ゲーム装置10は、ユーザUが指示通りの動作をできたか否かを、撮像映像を用いて評価することができる。
Thereby, the
なお、ゲーム装置10は、ユーザの視線方向に基づく視野の範囲内の指示オブジェクトしかユーザUは視認できないため、同時に前後左右(ユーザUの周囲360°)の指示オブジェクトを視認することはできない。そのため、ゲーム装置10は、ゲーム装置10(映像出力装置の一例)を装着しているユーザUの向きに応じて、指示オブジェクトを配置する位置を仮想空間内の一部に制限してもよい。例えば、ゲーム装置10は、イニシャライズ時点でのユーザU(基準位置K1)の向きに基づいて、前、右、及び左の指示オブジェクトのみを配置して、後方には指示オブジェクトを配置しないようにしてもよい。
In the
これにより、ゲーム装置10は、ユーザUの視野の範囲外(例えば、後方)に対しては動作すべき指示を行わないため、ユーザUはプレイ中に視野の範囲外(例えば、後方)を気にせずプレイすることができる。よって、ゲーム装置10は、プレイの難易度が高くなりすぎないようにすることができる。
Accordingly, since the
また、ゲーム装置10は、ユーザUの向きに応じて指示オブジェクトを配置する位置を仮想空間内の一部に制限する場合、ユーザUの向きに応じて当該制限する方向をプレイ中に変更してもよい。例えば、ゲーム装置10は、ユーザUが前方を向いているときには、ユーザU(基準位置K1)に対して前、右、及び左の指示オブジェクトのみを配置して、後方には指示オブジェクトを配置しないようにしてもよい。また、ゲーム装置10は、ユーザUが右方を向いた場合には、右方を向いた後のユーザU(基準位置K1)に対して前、右、及び左(右方を向く以前の右、前、及び後ろ)の指示オブジェクトのみを配置して、後方(右方を向く以前の左方)には指示オブジェクトを配置しないようにしてもよい。ユーザUが左方または後方を向いた場合も同様に、それぞれの反対方向(向きを変更する前の右方または前方)には、指示オブジェクトを配置しないようにしてもよい。
Further, when restricting the position where the pointing object is placed to a part of the virtual space according to the orientation of the user U, the
これにより、ゲーム装置10は、ユーザUの向きの変化に追従して、ユーザUの視野の範囲外に対しては動作すべき指示を常に行わないため、プレイの難易度を抑制することができる。
As a result, the
[第2の実施形態]
次に、本発明の第2の実施形態について説明する。
第1の実施形態で説明した例では、実際にユーザUが視認可能な指示オブジェクトは、仮想空間に配置される指示オブジェクトのうちユーザUの視線方向に基づく視野の範囲に配置される指示オブジェクトに限られる。そのため、例えばユーザUの後方に指示オブジェクトが存在する場合、認識するのが困難なことがある。ゲーム性としては、この困難な要素を利用することもできるが、反面、初心者などにとってはプレイが難しくなってしまう懸念が考えられる。第1の実施形態では、ユーザUの向きに応じて、指示オブジェクトを配置する位置を仮想空間内の一部に制限することで困難性を抑制する構成としてもよいことを説明したが、その構成の場合にはプレイ中にユーザUに指示する動作の種類が少なくなってしまう。また、実際にユーザUがプレイする場合、ユーザUから見て下方に存在するユーザUの足と指示オブジェクトを見ながらプレイする必要があるため、ユーザUの身体の動作に悪影響を及ぼし、踊りにくくなってしまう懸念がある。そこで、本実施形態では、鏡を利用することで上記の懸念を解決する。
[Second embodiment]
Next, a second embodiment of the invention will be described.
In the example described in the first embodiment, the pointing object that is actually visible to the user U is the pointing object arranged in the range of the visual field based on the line-of-sight direction of the user U among the pointing objects arranged in the virtual space. Limited. Therefore, for example, when the pointing object exists behind the user U, it may be difficult to recognize it. In terms of gameplay, this difficult element can be used, but on the other hand, there is a concern that it will be difficult for beginners and the like to play. In the first embodiment, it has been described that the difficulty may be suppressed by restricting the position where the pointing object is placed to a part of the virtual space according to the orientation of the user U. In the case of , the types of actions to be instructed to the user U during play are reduced. In addition, when the user U actually plays, it is necessary to play while looking at the user U's feet and the pointing object, which are located below the user U. There is concern that it will become Therefore, in this embodiment, the above concern is resolved by using a mirror.
図8は、本実施形態に係るゲーム装置によるゲーム処理の概要を示す図である。この図は、本実施形態に係るゲーム装置10Aを用いて、ユーザUがダンスゲームをプレイするプレイ状況を俯瞰して示している。本図は、図1と同様に、ユーザUが含まれる実空間と指示オブジェクトが含まれる仮想空間との対応関係を1つの図にまとめて示したものであり、ユーザUがプレイ中に視認可能なプレイ画面とは異なる。
FIG. 8 is a diagram showing an overview of game processing by the game device according to this embodiment. This figure shows a bird's-eye view of a play situation in which a user U plays a dance game using the
図示する例において、ユーザUは、鏡MRに対面する位置でダンスゲームをプレイしている。仮想空間内のユーザUの周囲には、図1と同様に、指示オブジェクト(判定オブジェクト及び移動オブジェクト)が配置されている。さらに、ユーザUの対面にある鏡MRにはユーザUが映っている。ここでは、鏡MRに映っているユーザUの虚像を「ユーザ像UK」と称する。ゲーム装置10Aは、鏡MRの方向を撮像した撮像映像からユーザUに対応するユーザ像UKを検出し、ユーザUの周囲に配置した指示オブジェクトが鏡MRに映っているかのように、検出したユーザ像UKの周囲にも指示オブジェクトを配置する。
In the illustrated example, the user U is playing a dance game facing the mirror MR. Around the user U in the virtual space, similarly to FIG. 1, pointing objects (determination objects and moving objects) are arranged. Furthermore, the user U is reflected in the mirror MR facing the user U. Here, the virtual image of the user U reflected in the mirror MR is referred to as "user image UK". The
図9は、本実施形態に係る仮想空間の空間座標の定義及びユーザ像UKの位置を示す図である。この図は、図2に示す仮想空間の空間座標の定義に、撮像映像から検出されたユーザ像UKの位置を加えた図である。仮想空間におけるユーザ像UKの位置に対応する基準位置K2(第2基準位置の一例)は、ユーザUの位置に対応する基準位置K1(例えば、座標原点)に対してX軸方向(視線方向)にある鏡MRの先(奥)の位置に検出される。例えば、鏡MRの鏡面がX軸と交わる位置を鏡面位置M1とすると、X軸方向において、基準位置K1から鏡面位置M1までの距離と鏡面位置M1から基準位置K2までの距離とが同一となるような位置に、基準位置K2が検出される。なお、基準位置K2は、ユーザ像UKの頭部の中心に相当する位置でもよいし、ユーザ像UKの重心に相当する位置でもよく、任意の位置に定義することができる。 FIG. 9 is a diagram showing the definition of the spatial coordinates of the virtual space and the position of the user image UK according to this embodiment. This diagram is a diagram obtained by adding the position of the user image UK detected from the captured image to the definition of the spatial coordinates of the virtual space shown in FIG. A reference position K2 (an example of a second reference position) corresponding to the position of the user image UK in the virtual space is positioned relative to a reference position K1 (for example, coordinate origin) corresponding to the position of the user U in the X-axis direction (line-of-sight direction). is detected at the front (rear) position of the mirror MR in the position. For example, if the position where the mirror surface of the mirror MR intersects the X-axis is the mirror surface position M1, the distance from the reference position K1 to the mirror surface position M1 and the distance from the mirror surface position M1 to the reference position K2 are the same in the X-axis direction. A reference position K2 is detected at such a position. The reference position K2 may be defined as any position, such as a position corresponding to the center of the head of the user image UK or a position corresponding to the center of gravity of the user image UK.
図8に戻り、ゲーム装置10Aは、撮像映像からユーザ像UKの映像領域(輪郭)と距離を検出し、ユーザUの位置に対応する基準位置K1とは別に、仮想空間内におけるユーザ像UKの位置に対応する基準位置K2を検出する。そして、ゲーム装置10Aは、基準位置K1及び基準位置K2のそれぞれに基づいて、基準位置K1及び基準位置K2のそれぞれの周囲に指示オブジェクトを配置する。このとき、ユーザ像UKは、鏡MRに映ったユーザUの虚像であるため、ユーザUに対して前後の向きが逆になる。そのため、ゲーム装置10Aは、基準位置K2(ユーザ像UKの位置)の周囲に配置する指示オブジェクトは、基準位置K1(ユーザUの位置)の周囲に配置する指示オブジェクトとは前後の向き(空間座標における前後の位置関係)を反転させて配置する。
Returning to FIG. 8, the
例えば、X軸において基準位置K1から基準位置K2へ向かう方向を正方向とすると、基準位置K1(ユーザUの位置)に対して前方に配置される判定オブジェクトHF及び移動オブジェクトNFは、基準位置K1に対してX軸の正方向に配置される。これに対し、基準位置K2(ユーザ像UKの位置)に対して前方に配置される判定オブジェクトHF´及び移動オブジェクトNF´は、基準位置K2に対してX軸の負方向に配置される。また、基準位置K1(ユーザUの位置)に対して後方に配置される判定オブジェクトHB及び移動オブジェクトNBは、基準位置K1に対してX軸の負方向に配置される。これに対し、基準位置K2(ユーザ像UKの位置)に対して後方に配置される判定オブジェクトHB´及び移動オブジェクトNB´は、基準位置K2に対してX軸の正方向に配置される。 For example, assuming that the direction from the reference position K1 to the reference position K2 on the X-axis is the positive direction, the determination object HF and the moving object NF placed in front of the reference position K1 (the position of the user U) are located at the reference position K1. is arranged in the positive direction of the X-axis with respect to On the other hand, the determination object HF' and the moving object NF' placed in front of the reference position K2 (the position of the user image UK) are placed in the negative direction of the X axis with respect to the reference position K2. Also, the determination object HB and the moving object NB, which are arranged behind the reference position K1 (the position of the user U), are arranged in the negative direction of the X axis with respect to the reference position K1. On the other hand, the determination object HB' and the moving object NB', which are arranged behind the reference position K2 (the position of the user image UK), are arranged in the positive direction of the X axis with respect to the reference position K2.
一方、基準位置K1(ユーザUの位置)に対して右方に配置される判定オブジェクトHR及び移動オブジェクトNRと、基準位置K2(ユーザ像UKの位置)に対して右方に配置される判定オブジェクトHR´及び移動オブジェクトNR´とは、それぞれの基準位置に対してY軸の同一方向(例えば正方向)に配置される。また、基準位置K1(ユーザUの位置)に対して左方に配置される判定オブジェクトHL及び移動オブジェクトNLと、基準位置K2(ユーザ像UKの位置)に対して左方に配置される判定オブジェクトHL´及び移動オブジェクトNL´とは、それぞれの基準位置に対してY軸の同一方向(例えば負方向)に配置される。また、基準位置K1に対して配置される指示オブジェクトと基準位置K2に対して配置される指示オブジェクトとの上方向及び下方向の位置関係も同一である。 On the other hand, the determination object HR and the moving object NR that are placed on the right side of the reference position K1 (the position of the user U), and the determination object that is placed on the right side of the reference position K2 (the position of the user image UK). HR' and moving object NR' are arranged in the same direction (for example, positive direction) of the Y-axis with respect to their respective reference positions. Also, the determination object HL and the moving object NL are arranged to the left of the reference position K1 (the position of the user U), and the judgment object is arranged to the left of the reference position K2 (the position of the user image UK). HL' and moving object NL' are arranged in the same direction (for example, negative direction) of the Y-axis with respect to their respective reference positions. Further, the upward and downward positional relationships between the pointing object arranged with respect to the reference position K1 and the pointing object arranged with respect to the reference position K2 are also the same.
〔ゲーム装置10Aの構成〕
本実施形態に係るゲーム装置10Aは、第1の実施形態で説明したゲーム装置10と同様に、光学透過型HMDを含む装置であってもよいし、ビデオ透過型HMDを含む装置であってもよい。ここでは、第1の実施形態と同様に、ゲーム装置10Aは、光学透過型HMDであるとして説明する。ゲーム装置10Aのハードウェア構成は、図3に示す構成例と同様であるためその説明を省略する。
[Configuration of
The
図10は、本実施形態に係るゲーム装置10Aの機能構成の一例を示すブロック図である。図示するゲーム装置10Aは、記憶部14に記憶されているプログラムをCPU15が実行することにより実現される機能構成として、制御部150Aを備えている。制御部150Aは、映像取得部151と、仮想空間生成部152と、ユーザ像検出部153Aと、オブジェクト配置部154Aと、視線方向検出部155と、表示制御部156と、動作検出部157と、評価部158とを備えている。この図において、図4の各部に対応する構成には同一の符号を付しており、その説明を適宜省略する。ゲーム装置10Aの機能構成は、鏡MRに映っているユーザ像UKに対応する基準位置を検出するためのユーザ像検出部153Aが追加されている点が、図4に示すゲーム装置10の機能構成と主に異なる。
FIG. 10 is a block diagram showing an example of the functional configuration of the
ユーザ像検出部153Aは、映像取得部151が取得した撮像映像からユーザUに対応するユーザ像UK(像の一例)を検出する。例えば、ユーザ像UKは、ユーザUの対面に存在する鏡MRに映ったユーザUの虚像であるユーザ像UKを検出する。この検出は、ユーザ像UKがダンスゲームをプレイするユーザUの虚像であることを認識する必要がある。認識方法としては、例えば、ユーザUの身体やユーザUの頭部に装着されているゲーム装置10A(HMD)などに識別可能なマーカー(印、標識など)を付け、ユーザ像検出部153Aは、このマーカーを撮像映像から検出することにより、ユーザUの虚像であることを認識してもよい。また、ユーザUに対して特定の動作(例えば、右手を上げ下げするなど)を指示することにより、ユーザ像検出部153Aは、その指示に応じた動作をする人物を撮像映像から検出することにより、ユーザUの虚像であることを認識してもよい。
The user image detection unit 153A detects a user image UK (an example of an image) corresponding to the user U from the captured image acquired by the
仮想空間生成部152は、撮像映像から検出した物体(床や、壁など)の少なくとも一部の位置情報に加え、ユーザ像UKの位置情報を含む3次元座標空間のデータを仮想空間のデータとして生成する。例えば、仮想空間生成部152は、撮像映像から実空間に存在する物体(床や、壁など)の位置を検出する。加えて、仮想空間生成部152は、ユーザ像検出部153Aにより検出されたユーザ像UKの位置(基準位置K2)を検出する。ユーザ像UKの位置の検出方法は、前述した実空間に存在する物体(床や、壁など)の位置の検出方法と同様に、カメラ(撮像部)の視差を利用する検出方法としてもよい。そして、仮想空間生成部152は、仮想空間生成部152は、検出した物体(床や、壁など)の少なくとも一部の位置情報と基準位置K2の位置情報とを含む3次元座標空間のデータを仮想空間のデータとして生成する。なお、一例として、仮想空間(3次元座標空間)の座標原点は、第1の実施形態と同様にユーザUに対応する基準位置K1とする。仮想空間生成部152は、生成した仮想空間データを記憶部14に記憶させる。
The virtual
オブジェクト配置部154Aは、仮想空間内の、ユーザUに対応する基準位置K1に基づく位置に指示オブジェクトを配置するとともに、ユーザ像UKに対応する基準位置K2に基づく位置にも指示オブジェクトを配置する(図8及び図9参照)。また、オブジェクト配置部154Aは、仮想空間内の基準位置K2に基づく位置に指示オブジェクトを配置する際に、基準位置K2に対する前後の向きを反転させる。 The object placement unit 154A places the pointing object at a position based on the reference position K1 corresponding to the user U in the virtual space, and also places the pointing object at a position based on the reference position K2 corresponding to the user image UK ( 8 and 9). In addition, the object placement unit 154A reverses the front-rear direction with respect to the reference position K2 when placing the pointing object at the position based on the reference position K2 in the virtual space.
ここで、オブジェクト配置部154Aは、検出されたユーザ像UKが鏡MRに映っている像であるか否かは、上述した特定の動作(例えば、右手を上げ下げするなど)を指示することによって、その動作をする人物を撮像映像から検出して判定しても良い。また、オブジェクト配置部154Aは、予め選択可能に設定された鏡モード(鏡MRに映っている姿を見ながらプレイするモード)が選択されることによって、検出されたユーザ像UKが鏡MRに映っている像であると判定しても良い。 Here, the object placement unit 154A determines whether the detected user image UK is the image reflected in the mirror MR by instructing the above-described specific action (for example, raising and lowering the right hand). A person performing the action may be detected from a captured image and determined. In addition, the object placement unit 154A selects a previously selectable mirror mode (a mode in which the user is played while looking at the image reflected in the mirror MR), so that the detected user image UK is reflected in the mirror MR. It may be determined that the image is an image that
表示制御部156は、例えばユーザUの視線方向が鏡MRの方向である場合、鏡MRの方向の視野の範囲に対応する仮想空間の範囲に配置されている指示オブジェクトを表示部12に表示させる。すなわち、表示制御部156は、鏡MRに映っているユーザ像UKに対応する基準位置K2に基づく位置に配置されている指示オブジェクトをユーザUが俯瞰して視認可能なように表示することができる。
For example, when the line-of-sight direction of the user U is the direction of the mirror MR, the
動作検出部157は、撮像映像から鏡MRに映っているユーザ像UKの身体の少なくとも一部の動作を検出することにより、ユーザUの身体の少なくとも一部の動作を検出する。
The
評価部158は、動作検出部157により検出されたユーザ像UK(鏡MRに映っているユーザ像UK)の身体の少なくとも一部の動作を、ユーザ像UKに対応する基準位置K2に基づく位置に配置されている指示オブジェクトを用いて評価する。具体的には、評価部158は、ユーザ像UK(鏡MRに映っているユーザ像UK)の身体の少なくとも一部の動作を、鏡MRに映っているユーザ像UKに基づく位置に配置されている指示オブジェクトに基づくタイミング及び位置に基づいて評価する。すなわち、ユーザUは、下方に存在するユーザUの足と指示オブジェクトを見なくとも、鏡MRの方向を見ながらプレイすることできる。
The
なお、図8に示す例では、ユーザUに対応する基準位置K1に基づく位置とユーザ像UKに対応する基準位置K2に基づく位置との両方に指示オブジェクトが配置されているがこれに限定されるものではない。例えば、オブジェクト配置部154Aは、ユーザ像UKに対応する基準位置K2に基づく位置に指示オブジェクトが配置される場合には、ユーザUに対応する基準位置K1に基づく位置に指示オブジェクトを配置しなくてもよい。すなわち、基準位置K2に基づく位置に指示オブジェクトが表示される場合には、基準位置K1に基づく位置の指示オブジェクトが非表示となってもよい。これにより、ユーザUの周囲に表示される指示オブジェクトによって、鏡MRに表示された指示オブジェクトが隠れてしまうことが無くなり、指示オブジェクトの視認性を向上させることができる。 In the example shown in FIG. 8, the pointing object is arranged at both the position based on the reference position K1 corresponding to the user U and the position based on the reference position K2 corresponding to the user image UK, but the present invention is limited to this. not a thing For example, when the pointing object is placed at the position based on the reference position K2 corresponding to the user image UK, the object placing unit 154A does not have to place the pointing object at the position based on the reference position K1 corresponding to the user U. good too. That is, when the pointing object is displayed at the position based on the reference position K2, the pointing object at the position based on the reference position K1 may not be displayed. As a result, the pointing object displayed on the mirror MR is not hidden by the pointing object displayed around the user U, and the visibility of the pointing object can be improved.
また、オブジェクト配置部154Aは、基準位置K2に基づく位置に指示オブジェクトが配置される場合、基準位置K1に基づく位置に配置する指示オブジェクトを半透明にしたり縮小したりするなど、視認度を低減した目立ちにくい表示態様としてもよい。なお、指示オブジェクトの表示態様を変更する処理は、表示制御部156が行ってもよい。
Further, when the pointing object is placed at the position based on the reference position K2, the object placement unit 154A reduces the visibility by making the pointing object placed at the position based on the reference position K1 translucent or reducing it. It may be displayed in an inconspicuous manner. Note that the
また、オブジェクト配置部154A(或いは、表示制御部156)は、鏡MRがユーザUの視野の範囲内にある場合にのみ、ユーザUの周囲の指示オブジェクトを非表示や半透明にし、鏡MRが視野の範囲外になった場合には、通常通りにユーザUの周囲の指示オブジェクトが表示されるようにしてもよい。これにより、鏡MRが視野の範囲外(例えば、ユーザUが鏡MRの方向とは反対方向を向いた場合)となった場合でも、指示オブジェクトを視認できるようになる。 Further, the object placement unit 154A (or the display control unit 156) hides or translucents the pointing object around the user U only when the mirror MR is within the field of view of the user U, and the mirror MR When it is out of the range of the field of view, the pointing objects around the user U may be displayed as usual. As a result, even when the mirror MR is out of the field of view (for example, when the user U faces the direction opposite to the direction of the mirror MR), the pointing object can be visually recognized.
〔指示オブジェクト配置処理の動作〕
次に、ゲーム装置10AのCPU15が実行するダンスゲームの処理において、仮想空間を生成して指示オブジェクトを配置する指示オブジェクト配置処理の動作について説明する。ここで、ユーザU(基準位置K1)に対応する指示オブジェクト配置処理は、図5に示す処理と同様であるため説明を省略し、鏡MRに映ったユーザ像UK(基準位置K2)に対応する指示オブジェクトを配置する場合の指示オブジェクト配置処理について説明する。図11は、本実施形態に係る指示オブジェクト配置処理の一例を示すフローチャートである。
[Operation of pointing object placement processing]
Next, in the dance game processing executed by the
まず、CPU15は、撮像部11により撮像された実空間の撮像映像を取得する(ステップS401)。例えば、CPU15は、ダンスゲームをプレイするユーザUの視線方向の鏡MRに映っているユーザ像UK(図8参照)が含まれる撮像映像を取得する。
First, the
次に、CPU15は、ステップS401で取得した撮像映像から、ダンスゲームをプレイするユーザUの虚像(ユーザ像UK)を検出する(ステップS403)。
Next, the
また、CPU15は、ステップS401で取得した撮像映像から実空間に対応する仮想空間を生成する(ステップS405)。例えば、CPU15は、撮像映像から実空間に存在する物体(床や、壁など)の位置と、ステップS403で検出されたユーザ像UKの位置(基準位置K2)とを検出し、検出した物体(床や、壁など)の少なくとも一部の位置情報と基準位置K2の位置情報とを含む3次元座標空間のデータを仮想空間のデータとして生成する。一例として、CPU15は、ユーザUに対応する基準位置K1を座標原点とした仮想空間(3次元座標空間)内に、検出した物体(床や、壁など)の少なくとも一部の位置情報と基準位置K2の位置情報とを含む仮想空間データを生成する。そして、CPU15は、生成した仮想空間データを記憶部14に記憶させる。
Also, the
続いて、CPU15は、ダンスゲームのプレイ開始時点或いは開始の前に、床の位置に対応する仮想空間内の基準位置K2に基づく判定位置に判定オブジェクト(図8の判定オブジェクトHF´、HB´、HR´、HL´参照)を配置する(ステップS407)。CPU15は、判定オブジェクトを配置する際に、記憶部14に記憶されている仮想空間データに、配置した判定オブジェクトの位置情報を追加する。
Subsequently, the
また、CPU15は、ダンスゲームのプレイが開始されると、移動オブジェクトの出現トリガの有無を判定する(ステップS409)。出現トリガは、楽曲に合わせて予め設定されたタイミングで発生する。CPU15は、ステップS409において出現トリガがあったと判定した場合(YES)、ステップS411の処理へ進む。
Further, when the play of the dance game is started, the
ステップS411において、CPU15は、仮想空間内の基準位置K2に基づく出現位置に移動オブジェクト(図8の移動オブジェクトNF´、NB´、NR´、NL´のいずれか一つまたは複数)を配置し、判定位置(各移動オブジェクトに対応する判定オブジェクトの位置)へ向かって移動を開始させる。CPU15は、移動オブジェクトを配置する際に、記憶部14に記憶されている仮想空間データに、配置した移動オブジェクトの位置情報を追加する。また、CPU15は、配置した移動オブジェクトを移動させる際に、記憶部14に記憶されている仮想空間データに追加した移動オブジェクトの位置情報を更新する。そして、ステップS413の処理へ進む。一方、CPU15は、ステップS409において出現トリガが無いと判定した場合(NO)、ステップS411の処理を行わずに、ステップS413の処理へ進む。
In step S411, the
ステップS413において、CPU15は、移動オブジェクトが判定位置に到達したか否かを判定する。CPU15は、判定位置に到達したと判定(YES)した移動オブジェクトを仮想空間から消去する(ステップS415)。CPU15は、移動オブジェクトを仮想空間から消去する際に、消去する移動オブジェクトの位置情報を記憶部14に記憶されている仮想空間データから削除する。
In step S413, the
一方、CPU15は、判定位置に到達していないと判定(NO)した移動オブジェクトは引き続き判定位置へ向かって徐々に移動させる(ステップS417)。CPU15は、移動オブジェクトを移動させる際に、記憶部14に記憶されている仮想空間データのうち、移動させる移動オブジェクトの位置情報を更新する。
On the other hand, the
次に、CPU15は、ダンスゲームが終了したか否かを判定する(ステップS419)。例えば、CPU15は、プレイ中の楽曲が終了した場合にダンスゲームが終了したと判定する。CPU15は、ダンスゲームが終了していないと判定した場合(NO)、ステップS409の処理に戻る。一方、CPU15は、ダンスゲームが終了したと判定した場合(YES)、指示オブジェクト配置処理を終了する。
Next, the
なお、判定オブジェクトの配置と最初に出現する移動オブジェクトの配置との順番は同時でもよいし、判定オブジェクトの方が先でもよいし、逆に判定オブジェクトの方が後(最初に出現した移動オブジェクトが判定位置に到達するまでの間)でもよい。 The order of placement of the determination object and the placement of the moving object that appears first may be the same, the determination object may be placed first, or conversely, the determination object may be placed after (the moving object that appears first may be placed first). until it reaches the judgment position).
〔第2の実施形態のまとめ〕
以上説明したように、本実施形態に係るゲーム装置10Aは、実空間を撮像した撮像映像からユーザUに対応する虚像(像の一例)であるユーザ像UKをさらに検出する。そして、ゲーム装置10Aは、仮想空間内の、ユーザUに対応するユーザ像UKの基準位置K2に基づく位置に、ユーザUの動作を指示する指示オブジェクトをユーザに視認可能に配置する。
[Summary of the second embodiment]
As described above, the
これにより、ゲーム装置10Aは、頭部に装着することで、ユーザUの動作を指示する指示オブジェクトを、例えば鏡MRに映っているユーザUの虚像(ユーザ像UK)の周囲に表示させることができるため、簡易な構成で、より直感的なプレイが可能なようにユーザが動作すべき内容を案内することができる。例えば、ゲーム装置10Aは、指示オブジェクトを配置する位置を仮想空間内の一部に制限なくともユーザ像UKの周囲(例えば、前後左右)に表示される指示オブジェクトを同時に俯瞰して視認可能となるため、プレイ中にユーザUに指示する動作の種類を多様化することができる。また、ゲーム装置10Aは、ユーザUが下方に存在する自身の足と指示オブジェクトを見なくとも、ユーザUに対面する鏡MRの方向を見ながらプレイすることできるため、踊りにくくならないようにすることができる。また、ゲーム装置10Aは、ゲームをプレイするユーザUの周囲と、例えば鏡MRに映っているユーザの虚像(ユーザ像UK)の周囲とのそれぞれに指示オブジェクトを表示させることで、ユーザがそれぞれの指示オブジェクトのうちプレイしやすい方を任意に選択しながらプレイできるようにすることができる。
As a result, the
なお、鏡MRは、鏡の効果(鏡面反射)を有するものであれば、鏡以外であってもよい。例えば、夜間(屋外が暗い状態)に部屋を明るくして窓ガラスに対面する場所でユーザUがプレイすることにより、窓ガラスを鏡MRとして、窓ガラスに映るユーザUの虚像を利用してもよい。 Note that the mirror MR may be anything other than a mirror as long as it has a mirror effect (specular reflection). For example, when the user U plays in a place where the room is brightened at night (outside is dark) and faces the windowpane, the windowpane can be used as the mirror MR and the virtual image of the user U reflected on the windowpane can be used. good.
また、ゲーム装置10Aは、仮想空間内の基準位置K2に基づく位置(ユーザ像UKの周囲)に指示オブジェクトを配置する際に、基準位置K2に対する前後の向きを反転させる。これにより、ゲーム装置10Aは、鏡MRに映っているユーザ像UKの向きに対応して指示オブジェクトを表示できるため、より直感的なプレイが可能なようにユーザが動作すべき内容を案内することができる。
In addition, the
なお、ゲーム装置10Aは、仮想空間内の基準位置K2に基づく位置(ユーザ像UKの周囲)に指示オブジェクトを配置する際に、基準位置K1に基づく位置(ユーザUの周囲)に配置する指示オブジェクトの視認度を低減してもよい。例えば、ゲーム装置10Aは、基準位置K1に基づく位置に配置する指示オブジェクトを半透明にしたり縮小したりするなど、視認度を低減した目立ちにくい表示態様としても良い。また、ゲーム装置10Aは、仮想空間内の基準位置K2に基づく位置(ユーザ像UKの周囲)に指示オブジェクトを配置する際に、基準位置K1に基づく位置(ユーザUの周囲)に指示オブジェクトを配置しなくてもよい。
When arranging the pointing object at the position (around the user image UK) based on the reference position K2 in the virtual space, the
これにより、ゲーム装置10Aは、ユーザUの周囲に表示される指示オブジェクトによって鏡MRに表示された指示オブジェクトが隠れてしまわないようにすることができるため、指示オブジェクトの視認性を向上させることができる。
As a result, the
なお、本実施形態では、ユーザUが鏡MRに映るユーザ像UK(自身の虚像)に対応付けて仮想空間に指示オブジェクトを配置する態様を説明したが、鏡MRに代えて、モニタ(表示装置)に表示されているユーザUの映像に対応付けて仮想空間に指示オブジェクトを配置する態様としてもよい。例えば、ゲーム装置10Aは、実空間におけるユーザUを撮像するカメラ(撮像装置)と、撮像された映像をリアルタイムに表示するモニタ(表示装置)とをユーザUの対面側にさらに備え、当該カメラで撮像したユーザUの映像をモニタに表示する。そして、ゲーム装置10Aは、鏡MRに映るユーザ像UK(自身の虚像)に代えて、モニタに表示されている映像からユーザUの映像を検出し、検出したユーザUの映像に対応付けて、仮想空間に指示オブジェクトを配置してもよい。この場合、モニタに表示されているユーザUの映像の位置が基準位置となる。なお、モニタに表示されるユーザUの映像は、ユーザUが鏡MRに映るユーザ像UKに対して左右の向きが逆になる。そのため、ゲーム装置10Aは、モニタに表示されるユーザUの映像対応付けて配置する指示オブジェクトは、ユーザUに対応付けて配置する指示オブジェクトに対して前後の向きに加えて左右の向き反転させる。
In the present embodiment, the user U arranges the pointing object in the virtual space in association with the user image UK (virtual image of himself/herself) reflected in the mirror MR. ), the pointing object may be arranged in the virtual space in association with the image of the user U being displayed. For example, the
また、本実施形態における鏡MRを利用して指示オブジェクトを配置するゲームモード、及び上記のモニタを利用して指示オブジェクトを配置するゲームモード、及び第1の実施形態で説明した、鏡及びモニタのどちらも利用しないで指示オブジェクトを配置するゲームモード(ゲーム装置10によるゲーム処理のモード)は、それぞれで指示オブジェクトの表示態様(指示オブジェクトを配置する際の基準位置や、前後または左右を反転させるか否か、など)が異なる。そのため、これらのゲームモードのうち2以上のゲームモードを有する場合(例えば、ゲーム装置10の構成とゲーム装置10Aの構成とを組み合わせた場合)、ダンスゲームの開始前に事前にユーザがどのモードを利用するのかを選択可能な構成としてもよい。そのようにすれば、鏡MRに映っているユーザ像UKやモニタに表示されているユーザUの映像の検出をスムーズに行うことができ、また誤認識も軽減できる。
In addition, a game mode in which the pointing object is placed using the mirror MR in this embodiment, a game mode in which the pointing object is placed using the above-described monitor, and a mirror and monitor mode described in the first embodiment. The game mode (the mode of game processing by the game device 10) in which the pointing object is placed without using either one of them has its own display mode of the pointing object (the reference position when the pointing object is placed, whether the pointing object is reversed front to back or left to right). no, etc.) are different. Therefore, when there are two or more game modes among these game modes (for example, when the configuration of the
[第3の実施形態]
次に、本発明の第3の実施形態について説明する。
上記第1及び第2の実施形態では、ゲーム装置10(10A)が透過型HMDとして完結した一つの装置として構成されている例を説明したが、透過型HMDと有線または無線で接続される別の装置として構成されてもよい。
[Third embodiment]
Next, a third embodiment of the invention will be described.
In the above-described first and second embodiments, the example in which the game device 10 (10A) is configured as one complete device as a transmissive HMD has been described. may be configured as a device of
図12は、本実施形態に係るゲーム装置10Cを含むゲームシステムのハードウェア構成の一例を示すブロック図である。ゲーム装置10Cは、映像出力装置を含まない構成である。図示するゲームシステム1Cは、ゲーム装置10Cと、映像出力装置としてのHMD20Cとを備えている。例えば、HMD20Cは、透過型HMDである。
FIG. 12 is a block diagram showing an example of the hardware configuration of a game system including the
HMD20Cは、撮像部21Cと、表示部22Cと、センサ23Cと、記憶部24Cと、CPU25Cと、通信部26Cと、音出力部27Cとを備えている。撮像部21C、表示部22C、センサ23C、及び音出力部27Cのそれぞれは、図3に示す撮像部11、表示部12、センサ13、及び音出力部17のそれぞれに対応する。記憶部24Cは、撮像部21Cが撮像した撮像映像のデータやゲーム装置10Cから取得した表示データ等を一時的に記憶する。また、記憶部24Cは、HMD20Cの制御に必要なプログラムなどを記憶する。CPU25Cは、HMD20Cが備える各部を制御する制御中枢として機能する。通信部26Cは、有線または無線通信を用いてゲーム装置10Cと通信する。HMD20Cは、撮像部21Cが撮像した撮像映像及びセンサ23Cの検知信号などを、通信部26Cを介してゲーム装置10Cへ送信する。また、HMD20Cは、ダンスゲームの表示データや音データなどを、通信部26Cを介してゲーム装置10Cから取得する。
The
ゲーム装置10Cは、記憶部14Cと、CPU15Cと、通信部16Cとを備えている。記憶部14Cは、ダンスゲームのプログラムやデータ、生成された仮想空間のデータ等を記憶する。CPU15Cは、ゲーム装置10Cが備える各部を制御する制御中枢として機能する。例えば、CPU15Cは、記憶部14Cに記憶されたゲームのプログラムを実行することで、ゲーム処理を実行し、実空間に対応する仮想空間を撮像映像から生成する処理、生成した仮想空間に指示オブジェクトを配置する処理、ユーザの動作を検出して指示オブジェクトのタイミング及び位置に基づいて評価する処理などを実行する。通信部16Cは、有線または無線通信を用いてHMD20Cと通信する。ゲーム装置10Cは、HMD20Cの撮像部21Cが撮像した撮像映像及びセンサ23Cの検知信号などを、通信部16Cを介して取得する。また、ゲーム装置10Cは、ダンスゲームの表示データや音データなどを、通信部16Cを介してHMD20Cへ送信する。
The
図13は、本実施形態に係るゲーム装置10Cの機能構成の一例を示すブロック図である。図示するゲーム装置10Cは、記憶部14Cに記憶されているプログラムをCPU15Cが実行することにより実現される機能構成として、制御部150Cを備えている。制御部150Cは、通信部16Cを介して、HMD20Cが備える各部(撮像部21C、表示部22C、センサ23C、及び音出力部27など)とデータをやり取りする点を除いて、図4に示す制御部150または図10に示す制御部150Aの構成と同様である。
FIG. 13 is a block diagram showing an example of the functional configuration of the
このように、ゲーム装置10Cは、外部装置としてのHMD20と通信する別の装置として構成されてもよい。なお、ゲーム装置10Cは、例えば、スマートフォン、PC(Personal Computer)、家庭用のゲーム機などを適用することができる。
Thus, the
[第4の実施形態]
次に、本発明の第4の実施形態について説明する。
上記第1~第3の実施形態では、頭部に装着するHMDを用いる態様を説明したが、本実施形態ではHMDを用いない態様について説明する。
[Fourth embodiment]
Next, a fourth embodiment of the invention will be described.
In the above-described first to third embodiments, a mode using an HMD worn on the head has been described, but in this embodiment, a mode without using an HMD will be described.
図14は、本実施形態に係るゲーム装置によるゲーム処理の概要を示す図である。この図は、ユーザUがゲーム装置10Dを用いてダンスゲームをプレイするプレイ状況を俯瞰して示している。図示するゲーム装置10Dは、一例としてスマートフォンを適用した例である。本実施形態では、ゲーム装置10Dが備えているフロントカメラ11DAにより撮像されたユーザUの映像に対応付けて、仮想空間に配置した指示オブジェクトをゲーム装置10Dの表示部12Dまたはモニタ30Dに表示することで、ユーザは、直感的なプレイが可能となる。モニタ30Dは、ゲーム装置10Dと有線または無線で接続可能な外部の表示部(表示装置)である。例えば、モニタ30Dは、ゲーム装置10Dに設けられている表示部12Dよりも大画面のディスプレイを有するものが利用される。
FIG. 14 is a diagram showing an overview of game processing by the game device according to this embodiment. This figure shows a bird's-eye view of the play situation in which the user U plays the dance game using the
ゲーム装置10Dは、ユーザUを撮像した撮像映像からユーザUの映像領域を認識する。そして、ゲーム装置10Dは、仮想空間におけるユーザUの位置に対応する基準位置K3を定義し、基準位置K3に基づく位置に指示オブジェクトを配置した仮想空間(XYZの3次元空間)データを生成して、撮像映像に重畳して表示させる。なお、基準位置K3は、ユーザUの頭部の中心に相当する位置でもよいし、ユーザUの重心に相当する位置でもよく、任意の位置に定義することができる。
The
図示する例では、ゲーム装置10Dの表示部12Dにも表示しているが、ゲーム装置10Dよりも大画面のモニタ30Dにも表示することで、ユーザUに対する指示オブジェクトの視認性がより高くなる。モニタ30Dの表示画面を参照して説明する。ユーザ映像UVは、撮像映像に含まれるユーザUの映像を示している。ユーザ映像UVの周囲には、仮想空間においてユーザUの基準位置K3に基づく位置に配置された指示オブジェクトが撮像映像に重畳された映像が表示される。
In the illustrated example, the pointing object is also displayed on the
例えば、フロントカメラ11DAで撮像された撮像映像は、鏡と同様に左右反転した映像とすることができる。モニタ30Dの画面に向かってユーザ映像UVの右側にはユーザUの右方への動作を指示する判定オブジェクトHR及び移動オブジェクトNRが表示され、ユーザ映像UVの左側にはユーザUの左方への動作を指示する判定オブジェクトHL及び移動オブジェクトNLが表示される。また、モニタ30Dの画面に向かってユーザ映像UVの手前側にはユーザUの前方への動作を指示する判定オブジェクトHF及び移動オブジェクトNFが表示され、ユーザ映像UVの後ろ側にはユーザUの後方への動作を指示する判定オブジェクトHB及び移動オブジェクトNBが表示される。
For example, the captured image captured by the front camera 11DA can be a left-right reversed image like a mirror. A determination object HR and a moving object NR that instruct the user U to move rightward are displayed on the right side of the user image UV facing the screen of the
このように、本実施形態では、図8に示す鏡MRに映ったユーザ像UKの周囲に指示オブジェクトを表示させる場合と同様に、仮想空間に配置した指示オブジェクトをユーザUの映像に対応付けて表示させることができるため、直感的なプレイが可能なようにユーザが動作すべき内容を案内することが可能となる。 As described above, in the present embodiment, the pointing object arranged in the virtual space is associated with the image of the user U, similarly to the case where the pointing object is displayed around the user image UK reflected in the mirror MR shown in FIG. Since it can be displayed, it is possible to guide the user to what actions should be taken so that intuitive play is possible.
なお、この指示オブジェクトの表示は、ゲーム装置10Dとモニタ30Dとのいずれか一方への表示としてもよい。
Note that the display of this pointing object may be performed on either one of the
〔ゲーム装置10Dのハードウェア構成〕
図15を参照して、ゲーム装置10Dのハードウェア構成について説明する。
図15は、本実施形態に係るゲーム装置10Dのハードウェア構成の一例を示すブロック図である。ゲーム装置10Dは、フロントカメラ11DA及びバックカメラ11DBの2つの撮像部と、表示部12Dと、センサ13Dと、記憶部14Dと、CPU15Dと、通信部16Dと、音出力部17Dと、映像出力部18Dとを備えている。
[Hardware Configuration of
A hardware configuration of the
FIG. 15 is a block diagram showing an example of the hardware configuration of the
フロントカメラ11DAは、ゲーム装置10Dの表示部12Dが設けられている面(表面)側に設けられており、表示部12Dに対面する方向を撮像する。バックカメラ11DBは、ゲーム装置10Dの表示部12Dが設けられている面の反対面(背面)側に設けられており、当該背面に対面する方向を撮像する。
The front camera 11DA is provided on the surface (front side) of the
表示部12Dは、液晶ディスプレイ、有機ELディスプレイなどを含んで構成される。例えば、表示部12Dは、表示画面に対するタッチ操作を検知するタッチパネルとして構成されてもよい。
The
センサ13Dは、ゲーム装置10Dの方向に関する検知信号を出力するセンサである。例えば、センサ13Dには、ジャイロセンサ、加速度センサ、傾斜センサ、地磁気センサ等のいずれか一つ又は複数のセンサが含まれてもよい。
The
記憶部14Dは、例えば、EEPROM、ROM、Flash ROM、RAMなどを含み、このダンスゲームのプログラムやデータ、生成された仮想空間のデータ等を記憶する。
The
CPU15Dは、ゲーム装置10Dが備える各部を制御する制御中枢として機能する。例えば、CPU15Dは、記憶部14Dに記憶されたゲームのプログラムを実行することで、ゲーム処理を実行し、図14を参照して説明したように、ユーザUが撮像された撮像映像に、仮想空間に配置した指示オブジェクトを重畳して表示させる処理などを実行する。
The
通信部16Dは、例えば、Bluetooth(登録商標)やWi-Fi(登録商標)等の無線通信を行う通信デバイス等を含んで構成されている。
The
音出力部17Dは、ダンスゲームのプレイ楽曲の演奏音やゲームの効果音などを出力する。例えば、音出力部17は、スピーカや、イヤフォン及びヘッドフォンなどが接続されるフォン端子などを含んで構成されている。
The
映像出力部18Dは、表示部12Dに表示させる映像を外部の表示装置(例えば、図14に示すモニタ30D)に出力する映像出力端子を含んで構成されている。映像出力端子としては、映像出力以外の出力も含む兼用端子でもよいし、映像出力専用の端子でもよい。
The
〔ゲーム装置10Dの機能構成〕
次に、図16を参照して、ゲーム装置10Dの機能構成について説明する。
図16は、本実施形態に係るゲーム装置10Dの機能構成の一例を示すブロック図である。図示するゲーム装置10Dは、記憶部14Dに記憶されているプログラムをCPU15Dが実行することにより実現される機能構成として、制御部150Dを備えている。制御部150Dは、映像取得部151Dと、仮想空間生成部152Dと、ユーザ検出部153Dと、オブジェクト配置部154Dと、表示制御部156Dと、動作検出部157Dと、評価部158Dとを備えている。
[Functional Configuration of
Next, with reference to FIG. 16, the functional configuration of the
FIG. 16 is a block diagram showing an example of the functional configuration of the
映像取得部151D(取得部の一例)は、フロントカメラ11DAにより撮像された実空間の撮像映像を取得する。例えば、映像取得部151Dは、図14に示すように、ダンスゲームをプレイするユーザUが含まれる撮像映像を取得する。
The
仮想空間生成部152D(生成部の一例)は、映像取得部151Dが取得した撮像映像から実空間に対応する仮想空間を生成する。例えば、仮想空間生成部152Dは、取得した撮像映像から実空間に存在する物体(床や、壁など)の位置を検出し、検出した物体(床や、壁など)の少なくとも一部の位置情報を含む3次元座標空間のデータを仮想空間のデータとして生成する。一例として、仮想空間生成部152Dは、このダンスゲームのプレイ開始時点でのイニシャライズで、ユーザ検出部153Dにより撮像映像から検出されたユーザUに対応する基準位置K3が、仮想空間(XYZの3次元座標空間)の座標原点として定義して、仮想空間データを生成する。プレイ中は、基準位置K3(座標原点)及びX軸、Y軸及びZ軸は固定となる。仮想空間生成部152Dは、生成した仮想空間データを記憶部14Dに記憶させる。
The virtual space generation unit 152D (an example of the generation unit) generates a virtual space corresponding to the real space from the captured image acquired by the
ユーザ検出部153Dは、映像取得部151Dが取得した撮像映像からユーザUの映像を検出する。この検出は、撮像映像から検出された人物の映像がダンスゲームをプレイするユーザUの映像であることを認識する必要がある。ユーザUの映像であることを認識する方法としては、例えば、ユーザUの身体などに識別可能なマーカー(印、標識など)を付け、ユーザ検出部153Dは、このマーカーを撮像映像から検出することにより、ユーザUの映像であることを認識してもよい。また、ユーザUに対して特定の動作(例えば、右手を上げ下げするなど)を指示することにより、ユーザ検出部153Dは、その指示に応じた動作をする人物を撮像映像から検出することにより、ユーザUの映像であることを認識してもよい。
The user detection unit 153D detects the image of the user U from the captured image acquired by the
オブジェクト配置部154D(配置部の一例)は、仮想空間内の、ユーザUに対応する基準位置K3に基づく位置に、指示オブジェクトをユーザUに視認可能に配置する。具体的には、オブジェクト配置部154Dは、床の位置に対応する仮想空間内の判定位置に判定オブジェクト(図14の判定オブジェクトHF、HB、HR、HL参照)を配置する。また、オブジェクト配置部154Dは、楽曲に合わせて予め設定されたタイミングで移動オブジェクト(図14の移動オブジェクトNF、NB、NR、NL参照)を仮想空間内の出現位置に配置し、上記判定オブジェクトへ向かって移動(配置する位置を変更)させる。オブジェクト配置部154Dは、指示オブジェクト(判定オブジェクト及び移動オブジェクト)を配置する際に、仮想空間内の配置する位置の座標情報に基づいて、記憶部14Dに記憶されている仮想空間データを更新する。
The object placement unit 154D (an example of the placement unit) places the pointing object at a position based on the reference position K3 corresponding to the user U in the virtual space so that the user U can see it. Specifically, the object placement unit 154D places determination objects (see determination objects HF, HB, HR, and HL in FIG. 14) at determination positions in the virtual space corresponding to the position of the floor. Further, the object arrangement unit 154D arranges moving objects (see moving objects NF, NB, NR, and NL in FIG. 14) at the appearance positions in the virtual space at preset timings according to the music, Move (change the placement position) toward it. The object placement unit 154D updates the virtual space data stored in the
表示制御部156Dは、映像取得部151Dが取得した撮像映像とオブジェクト配置部154Dにより仮想空間内に配置された指示オブジェクトの映像とを合成した合成映像を生成する。そして、表示制御部156Dは、生成した合成映像を表示部12Dに表示させる。また、表示制御部156Dは、生成した合成映像を映像出力部18Dから出力する。例えば、表示制御部156Dは、生成した合成映像を左右反転させて表示部12Dに表示させる。同様に、表示制御部156Dは、生成した合成映像を左右反転させて映像出力部18Dから出力する。
The
動作検出部157D(検出部の一例)は、映像取得部151Dが取得した撮像映像からユーザUの身体の少なくとも一部の動作を検出する。例えば、動作検出部157Dは、ダンスゲームをプレイするユーザUの足の動作を検出する。動作検出部157Dは、撮像映像の各フレームから足の映像領域を抽出してトラッキングすることにより足の動作を検出する。
The
評価部158Dは、動作検出部157Dにより検出されたユーザUの身体の少なくとも一部の動作を、仮想空間内に配置された指示オブジェクトに基づくタイミング及び位置に基づいて評価する。例えば、評価部158Dは、移動オブジェクトが判定オブジェクトへ到達したタイミング及び位置と、ユーザUの足の動作(判定オブジェクトを踏む動作)のタイミングと位置とを比較し、ユーザUの動作によるプレイを評価する。評価部158Dは、比較結果に基づいて両者のタイミングと位置が一致すると判定できる場合には得点(スコア)を加算し、一致しないと判定できる場合には得点を加算スコア)をしない。
The
なお、評価部158Dは、移動オブジェクトが判定オブジェクトへ到達したタイミングでのユーザUの足の位置を判定オブジェクトの位置と比較することで、ユーザUの動作によるプレイを評価してもよい。
Note that the
〔指示オブジェクト配置処理の動作〕
次に、ゲーム装置10DのCPU15Dが実行するダンスゲームの処理において、仮想空間を生成して指示オブジェクトを配置する指示オブジェクト配置処理の動作について説明する。図17は、本実施形態に係る指示オブジェクト配置処理の一例を示すフローチャートである。
[Operation of pointing object placement processing]
Next, in the dance game processing executed by the
まず、CPU15Dは、フロントカメラ11DAにより撮像された実空間の撮像映像を取得する(ステップS501)。例えば、CPU15は、図14に示すように、ダンスゲームをプレイするユーザUが含まれる撮像映像を取得する。
First, the
次に、CPU15Dは、ステップS501で取得した撮像映像から、ダンスゲームをプレイするユーザUの映像を検出する(ステップS503)。
Next, the
次に、CPU15Dは、ステップS501で取得した撮像映像から実空間に対応する仮想空間を生成する(ステップS505)。例えば、CPU15Dは、撮像映像から実空間に存在する物体(床や、壁など)の位置を検出し、検出した物体(床や、壁など)の少なくとも一部の位置情報を含む3次元座標空間のデータを仮想空間のデータとして生成する。一例として、CPU15Dは、ユーザ検出部153Dにより撮像映像から検出されたユーザUに対応する基準位置K3を座標原点とした仮想空間(3次元座標空間)内に、検出した物体(床や、壁など)の少なくとも一部の位置情報を含む仮想空間データを生成する。そして、CPU15Dは、生成した仮想空間データを記憶部14Dに記憶させる。
Next, the
続いて、CPU15Dは、ダンスゲームのプレイ開始時点或いは開始の前に、床の位置に対応する仮想空間内の基準位置K3に基づく判定位置に判定オブジェクト(図14の判定オブジェクトHF、HB、HR、HL参照)を配置する(ステップS507)。CPU15Dは、判定オブジェクトを配置する際に、記憶部14Dに記憶されている仮想空間データに、配置した判定オブジェクトの位置情報を追加する。
Subsequently, the
また、CPU15Dは、ダンスゲームのプレイが開始されると、移動オブジェクトの出現トリガの有無を判定する(ステップS509)。出現トリガは、楽曲に合わせて予め設定されたタイミングで発生する。CPU15Dは、ステップS509において出現トリガがあったと判定した場合(YES)、ステップS511の処理へ進む。
Further, when the play of the dance game is started, the
ステップS511において、CPU15Dは、仮想空間内の基準位置K3に基づく出現位置に移動オブジェクト(図14の移動オブジェクトNF、NB、NR、NLのいずれか一つまたは複数)を配置し、判定位置(各移動オブジェクトに対応する判定オブジェクトの位置)へ向かって移動を開始させる。CPU15Dは、移動オブジェクトを配置する際に、記憶部14Dに記憶されている仮想空間データに、配置した移動オブジェクトの位置情報を追加する。また、CPU15Dは、配置した移動オブジェクトを移動させる際に、記憶部14Dに記憶されている仮想空間データに追加した移動オブジェクトの位置情報を更新する。そして、ステップS513の処理へ進む。一方、CPU15Dは、ステップS509において出現トリガが無いと判定した場合(NO)、ステップS511の処理を行わずに、ステップS513の処理へ進む。
In step S511, the
ステップS513において、CPU15Dは、移動オブジェクトが判定位置に到達したか否かを判定する。CPU15Dは、判定位置に到達したと判定(YES)した移動オブジェクトを仮想空間から消去する(ステップS515)。CPU15Dは、移動オブジェクトを仮想空間から消去する際に、消去する移動オブジェクトの位置情報を記憶部14Dに記憶されている仮想空間データから削除する。
In step S513, the
一方、CPU15Dは、判定位置に到達していないと判定(NO)した移動オブジェクトは引き続き判定位置へ向かって徐々に移動させる(ステップS517)。CPU15Dは、移動オブジェクトを移動させる際に、記憶部14Dに記憶されている仮想空間データのうち、移動させる移動オブジェクトの位置情報を更新する。
On the other hand, the
次に、CPU15Dは、ダンスゲームが終了したか否かを判定する(ステップS519)。例えば、CPU15Dは、プレイ中の楽曲が終了した場合にダンスゲームが終了したと判定する。CPU15Dは、ダンスゲームが終了していないと判定した場合(NO)、ステップS509の処理に戻る。一方、CPU15Dは、ダンスゲームが終了したと判定した場合(YES)、指示オブジェクト配置処理を終了する。
Next, the
なお、判定オブジェクトの配置と最初に出現する移動オブジェクトの配置との順番は同時でもよいし、判定オブジェクトの方が先でもよいし、逆に判定オブジェクトの方が後(最初に出現した移動オブジェクトが判定位置に到達するまでの間)でもよい。 The order of placement of the determination object and the placement of the moving object that appears first may be the same, the determination object may be placed first, or conversely, the determination object may be placed after (the moving object that appears first may be placed first). until it reaches the judgment position).
〔指示オブジェクト表示処理の動作〕
次に、ゲーム装置10DのCPU15Dが実行するダンスゲームの処理において、仮想空間に配置された指示オブジェクトを表示する指示オブジェクト表示処理の動作について説明する。本実施形態では、指示オブジェクトは、ユーザUが撮像された撮像映像に指示オブジェクトが重畳された合成映像として表示される。
図18は、本実施形態に係る指示オブジェクト表示処理の一例を示すフローチャートである。
[Operation of Pointer Object Display Processing]
Next, in the processing of the dance game executed by the
FIG. 18 is a flowchart showing an example of pointing object display processing according to the present embodiment.
CPU15Dは、フロントカメラ11DAにより撮像された実空間の撮像映像を取得するとともに、仮想空間データを記憶部14Dから取得する(ステップS601)。
The
そして、CPU15Dは、取得した撮像映像と仮想空間データに含まれる指示オブジェクトとを合成した合成映像を生成し、生成した合成映像を表示部12Dに表示させる(ステップS603)。また、CPU15Dは、生成した合成映像を映像出力部18Dへ出力し、映像出力部18Dに接続されているモニタ30Dに表示させる(ステップS603)。これにより、ユーザUが撮像された撮像映像に指示オブジェクトが重畳された合成映像がリアルタイムに表示部12D及びモニタ30Dに表示される。なお、CPU15Dは、表示部12D及びモニタ30Dのいずれか一方に合成映像を表示させてもよい。
Then, the
次に、CPU15Dは、ダンスゲームが終了したか否かを判定する(ステップS605)。例えば、CPU15Dは、プレイ中の楽曲が終了した場合にダンスゲームが終了したと判定する。CPU15Dは、ダンスゲームが終了していないと判定した場合(NO)、ステップS601の処理に戻る。一方、CPU15Dは、ダンスゲームが終了したと判定した場合(YES)、指示オブジェクト表示処理を終了する。
Next, the
〔プレイ評価処理の動作〕
次に、ゲーム装置10DのCPU15Dが実行するダンスゲームの処理において、ユーザUの身体の少なくとも一部の動作によるプレイを評価するプレイ評価処理の動作について説明する。図19は、本実施形態に係るプレイ評価処理の一例を示すフローチャートである。
[Operation of play evaluation process]
Next, in the dance game processing executed by the
CPU15Dは、フロントカメラ11DAにより撮像された実空間の撮像映像を取得する(ステップS701)。次に、CPU15Dは、ステップS701で取得した撮像映像からユーザUの身体の少なくとも一部の動作を検出する(ステップS703)。例えば、CPU15Dは、ダンスゲームをプレイするユーザUの足の動作を検出する。
The
そして、CPU15Dは、ステップS703において検出されたユーザUの身体の少なくとも一部(例えば、足)の動作を、仮想空間内に配置された指示オブジェクトに基づくタイミング及び位置に基づいて評価する(ステップS705)。例えば、CPU15Dは、移動オブジェクトが判定オブジェクトへ到達したタイミング及び位置と、ユーザUの足の動作(判定オブジェクトを踏む動作)のタイミングと位置とを比較し、ユーザUの足の動作によるプレイを評価する。
Then, the
また、CPU15Dは、ステップS705における評価結果に基づいて、ゲームの得点(スコア)を更新する(ステップS707)。例えば、CPU15Dは、移動オブジェクトが判定オブジェクトへ到達したタイミング及び位置と、ユーザUの足の動作(判定オブジェクトを踏む動作)のタイミングと位置とが一致すると判定できる場合には得点(スコア)を加算し、一致しないと判定できる場合には得点(スコア)を加算しない。
Also, the
次に、CPU15Dは、ダンスゲームが終了したか否かを判定する(ステップS709)。例えば、CPU15Dは、プレイ中の楽曲が終了した場合にダンスゲームが終了したと判定する。CPU15Dは、ダンスゲームが終了していないと判定した場合(NO)、ステップS701の処理に戻る。一方、CPU15Dは、ダンスゲームが終了したと判定した場合(YES)、プレイ評価処理を終了する。
Next, the
〔第4の実施形態のまとめ〕
以上説明したように、本実施形態に係るゲーム装置10Dは、実空間を撮像した撮像映像を取得し、取得した撮像映像から実空間に対応する仮想空間を生成する。そして、ゲーム装置10Dは、生成した仮想空間内の、ユーザに対応する基準位置K3に基づく位置に、ユーザUの動作を指示する指示オブジェクトをユーザUに視認可能に配置し、撮像映像と仮想空間内に配置された指示オブジェクトの映像とを合成した合成映像を表示部12D(表示部の一例)に表示させる。なお、ゲーム装置10Dは、上記合成映像をモニタ30D(表示部の一例)に表示させてもよい。また、ゲーム装置10Dは、取得した撮像映像からユーザUの身体の少なくとも一部の動作を検出し、検出された動作を、仮想空間内に配置された指示オブジェクトに基づくタイミング及び位置に基づいて評価する。
[Summary of the fourth embodiment]
As described above, the
これにより、ゲーム装置10Dは、ユーザUの動作を指示する指示オブジェクトに基づくタイミング及び位置に基づいてユーザUの動作を評価するゲーム処理において、ユーザUが撮像された映像に指示オブジェクトを合成した合成映像を視認可能にゲーム装置10D(例えば、スマートフォン)または外部接続されたモニタ30D(例えば、家庭用テレビ)に表示させるため、簡易な構成で、より直感的なプレイが可能なようにユーザが動作すべき内容を案内することができる。
As a result, the
例えば、ゲーム装置10Dは、上記合成映像を左右反転させて表示部12Dまたはモニタ30Dに表示させる。
For example, the
これにより、ゲーム装置10Dは、ユーザUが鏡を見ているのと同様の感覚で表示部12Dまたはモニタ30Dを見ながらプレイ可能なようにすることができる。
Accordingly, the
また、ゲーム装置10は、仮想空間内の所定の位置(出現位置)に配置した指示オブジェクト(例えば、移動オブジェクト)を所定の判定位置(例えば、判定オブジェクトの位置)へ向かって移動させる。そして、ゲーム装置10は、仮想空間内で移動する指示オブジェクト(例えば、移動オブジェクト)が判定位置に到達したタイミングと判定位置に基づいて、撮像映像から検出されたユーザUの身体の少なくとも一部(例えば、足)の動作を評価する。
In addition, the
これにより、ゲーム装置10Dは、ユーザUが指示通りの動作をできたか否かを、撮像映像を用いて評価することができる。
Thereby, the
[変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成は上述の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。例えば、上述の実施形態において説明した各構成は、任意に組み合わせることができる。
[Modification]
Although the embodiments of the present invention have been described above in detail with reference to the drawings, the specific configuration is not limited to the above-described embodiments, and includes design and the like within the scope of the gist of the present invention. For example, the configurations described in the above embodiments can be combined arbitrarily.
なお、上述の各実施形態において説明した指示オブジェクトは一例であって、ユーザUに動作を指示するものであれば、様々な態様とすることができる。例えば、指示オブジェクトの種類(態様)によってユーザUに指示する動作の内容が異なる。例えば、移動オブジェクトの厚み(Z軸方向の幅)を変えることで、移動オブジェクトの最下部が判定オブジェクトに到達してから移動オブジェクトの最上部が判定オブジェクトに到達するまでの時間が変化することから、判定オブジェクトを足で踏み続ける時間を移動オブジェクトの厚みで指示するようにしてもよい。移動オブジェクトは、移動先の判定オブジェクトの鉛直方向に出現するとは限らず、鉛直方向から外れた位置から出現してもよい。また、移動オブジェクトの移動方向及び判定オブジェクトの位置も任意に設定することができる。 It should be noted that the instruction object described in each of the above-described embodiments is an example, and various modes are possible as long as the instruction object instructs the user U to perform an action. For example, the content of the action to be instructed to the user U differs depending on the type (mode) of the instruction object. For example, by changing the thickness (width in the Z-axis direction) of the moving object, the time from when the bottom of the moving object reaches the determination object to when the top of the moving object reaches the determination object changes. Alternatively, the thickness of the moving object may be used to indicate how long the determination object should continue to be stepped on. The moving object does not necessarily appear in the vertical direction of the determination object that is the destination of the movement, and may appear in a position away from the vertical direction. Also, the moving direction of the moving object and the position of the determination object can be arbitrarily set.
また、判定位置に判定オブジェクトが表示されなくてもよい。例えば、床面の位置が判定位置である場合、移動オブジェクトが床面に到達したタイミングと位置が、ユーザUの動作を指示する指示内容となる。例えば、移動オブジェクトが鉛直方向ではなく斜め方向(例えば、鉛直方向に対して45°傾いた方向)に一定の厚み(例えば、ユーザUの身長と同程度の長さ)を有する移動オブジェクトを、鉛直方向に床面(判定位置)へ向けて移動させた場合、移動オブジェクトの最下部が床面に到達したときのXY平面における位置から、移動オブジェクトの最上部が床面に到達したときのXY平面における位置まで、時間の経過とともに移動オブジェクトが床面に到達する位置が変化する。よって、斜め方向に一定の厚みを有する移動オブジェクトを用いて、足で踏む位置を移動させる指示を行ってもよい。 Also, the determination object may not be displayed at the determination position. For example, when the position of the floor surface is the determination position, the timing and position at which the moving object reaches the floor surface are the instruction contents for instructing the user U's action. For example, a moving object having a certain thickness (e.g., a length similar to the height of the user U) not in the vertical direction but in an oblique direction (e.g., a direction tilted 45° with respect to the vertical direction) direction toward the floor (judgment position), from the position on the XY plane when the bottom of the moving object reaches the floor to the XY plane when the top of the moving object reaches the floor , the position at which the moving object reaches the floor changes over time. Therefore, a moving object having a certain thickness in an oblique direction may be used to instruct to move the stepping position.
また、判定位置は、床面に限定されるものではなく、例えば床面から天井の間の任意の位置に設定することができる。なお、判定位置とする高さは、ユーザUの身長を検出して、身長に応じて設定されてもよい。また、判定位置を設けずに、表示される移動オブジェクト自体がユーザUの動作を指示するものであってもよい。例えば、移動オブジェクトが出現したときの位置または移動しているときの位置とそのタイミングとが、ユーザUの動作を指示するものであってもよい。例えば、移動オブジェクトの移動の軌跡でユーザUの動作の軌跡(例えば、手の動作の軌跡)を指示してもよい。 Also, the determination position is not limited to the floor surface, and can be set to any position between the floor surface and the ceiling, for example. Note that the height of the determination position may be set according to the height of the user U by detecting the height. Alternatively, the displayed moving object itself may indicate the action of the user U without providing the determination position. For example, the position at which the moving object appears or the position at which the moving object is moving and its timing may indicate the action of the user U. For example, the movement trajectory of the moving object may indicate the movement trajectory of the user U (for example, the hand movement trajectory).
なお、第1から第2の実施形態で説明した透過型HMDとして構成されるゲーム装置10及びゲーム装置10Aに撮像部11が備えられている構成を説明したが、撮像部11は、ゲーム装置10及びゲーム装置10Aとは別の装置として、ダンスゲームをプレイするユーザUを撮像可能な別の場所に設置されてもよい。この場合、別の場所に設置された撮像部11を含む装置は、ゲーム装置10及びゲーム装置10Aと有線又は無線で通信接続される。また、第3の実施形態で説明したゲーム装置10CとHMD20Cとを備えるゲームシステム1Cでは、上記撮像部11に対応する構成である撮像部21CがHMD20Cに備えられている構成を説明したが、撮像部21Cも同様に、HMD20Cとは別の装置として、ダンスゲームをプレイするユーザUを撮像可能な別の場所に設置されてもよい。この場合、別の場所に設置された撮像部21Cを含む装置は、HMD20Cまたはゲーム装置10Cと有線又は無線で通信接続される。また、撮像部21Cは、ゲーム装置10Cに備えられてもよい。
Note that although the
また、第4の実施形態で説明したゲーム装置10Dでは、撮像部として備えられているフロントカメラ11DAを用いて、ダンスゲームをプレイするユーザUを撮像する構成を説明したが、ゲーム装置10Dとは別の場所に設置された撮像部を含む装置を用いて、ユーザUを撮像する構成としてもよい。この場合、別の場所に設置された撮像部を含む装置は、ゲーム装置10Dと有線又は無線で通信接続される。
Further, in the
また、上述の制御部150(150A、150C、150D)の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより制御部150(150A、150C、150D)としての処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD-ROM等の非一過性の記録媒体であってもよい。また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。配信サーバの記録媒体に記憶されるプログラムのコードは、端末装置で実行可能な形式のプログラムのコードと異なるものでもよい。すなわち、配信サーバからダウンロードされて端末装置で実行可能な形でインストールができるものであれば、配信サーバで記憶される形式は問わない。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に端末装置で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 In addition, a program for realizing the functions of the control units 150 (150A, 150C, 150D) described above is recorded in a computer-readable recording medium, and the program recorded in this recording medium is read and executed by the computer system. By doing so, processing as the control unit 150 (150A, 150C, 150D) may be performed. Here, "loading and executing the program recorded on the recording medium into the computer system" includes installing the program in the computer system. The "computer system" here includes hardware such as an OS and peripheral devices. A "computer system" may also include a plurality of computer devices connected via a network including communication lines such as the Internet, WAN, LAN, and dedicated lines. The term "computer-readable recording medium" refers to portable media such as flexible discs, magneto-optical discs, ROMs and CD-ROMs, and storage devices such as hard discs incorporated in computer systems. Thus, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM. Recording media also include internal or external recording media accessible from the distribution server for distributing the program. The program code stored in the recording medium of the distribution server may be different from the program code in a format executable by the terminal device. That is, as long as it can be downloaded from the distribution server and installed in a form that can be executed on the terminal device, the form stored in the distribution server does not matter. It should be noted that the program may be divided into a plurality of parts, and the divided programs may be downloaded at different timings and then merged in the terminal device, or the distribution servers that distribute the divided programs may be different. In addition, "computer-readable recording medium" is a volatile memory (RAM) inside a computer system that acts as a server or client when the program is transmitted via a network, and retains the program for a certain period of time. It shall also include things. Further, the program may be for realizing part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above functions by combining with a program already recorded in the computer system.
また、上述の制御部150(150A、150C、150D)の一部または全部の機能を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。 Also, some or all of the functions of the control units 150 (150A, 150C, 150D) described above may be implemented as an integrated circuit such as an LSI (Large Scale Integration). Each of the functions described above may be individually processorized, or part or all of them may be integrated and processorized. Also, the method of circuit integration is not limited to LSI, but may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integration circuit technology that replaces LSI appears due to advances in semiconductor technology, an integrated circuit based on this technology may be used.
また、上記実施形態では、ゲーム装置10(10A,10C、10D)が備える記憶部14(14C、14D)に記憶されるデータの少なくとも一部は、外部接続される記憶装置に記憶されてもよい。外部接続される記憶装置は、ゲーム装置10(10A,10C、10D)と有線又は無線で接続される記憶装置である。例えば、外部接続される記憶装置は、USB(Universal Serial Bus)や、無線LAN(Local Area Network)、有線LANなどで接続される記憶装置でもよいし、インターネットなどを介して接続される記憶装置(データサーバ)であってもよい。このインターネットなどを介して接続される記憶装置(データサーバ)は、クラウドコンピューティングを用いて利用されるものであってもよい。 Further, in the above embodiment, at least part of the data stored in the storage units 14 (14C, 14D) included in the game devices 10 (10A, 10C, 10D) may be stored in an externally connected storage device. . The externally connected storage device is a storage device that is wired or wirelessly connected to the game device 10 (10A, 10C, 10D). For example, the externally connected storage device may be a storage device connected via a USB (Universal Serial Bus), a wireless LAN (Local Area Network), a wired LAN, or the like, or may be a storage device connected via the Internet ( data server). A storage device (data server) connected via the Internet or the like may be used using cloud computing.
また、制御部150(150A、150C、150D)が備える各部の少なくとも一部に相当する構成は、インターネットなどを介して接続されるサーバが備えてもよい。例えば、ダンスゲームなどのゲームの処理がサーバで実行される、所謂クラウドゲームに上記実施形態を適用することもできる。 A server connected via the Internet or the like may have a configuration corresponding to at least a part of each unit included in the control unit 150 (150A, 150C, 150D). For example, the above embodiment can be applied to a so-called cloud game in which game processing such as a dance game is executed by a server.
なお、上記実施形態では、音楽ゲームの一例であるダンスゲームを例に説明したが、ダンスゲームに限られるものではない。例えば、楽曲に合わせて出現するオブジェクトに対する操作を行う音楽ゲーム全般に適用することができる。また、音楽ゲーム以外にも、所定のタイミングで出現するオブジェクトに対して、パンチやキック、払い落とす、或いは武器を使用して叩くなどの操作を行うようなゲームにも適用することができる。 In the above embodiment, a dance game, which is an example of a music game, has been described as an example, but the present invention is not limited to dance games. For example, it can be applied to general music games in which objects appearing in time with music are operated. In addition to music games, the present invention can also be applied to games in which operations such as punching, kicking, brushing off, or hitting with a weapon are performed on objects that appear at predetermined timings.
[付記]
以上の記載から本発明は例えば以下のように把握される。なお、本発明の理解を容易にするために添付図面の参照符号を便宜的に括弧書きにて付記するが、それにより本発明が図示の態様に限定されるものではない。
[Appendix]
From the above description, the present invention can be grasped, for example, as follows. In order to facilitate understanding of the present invention, reference numerals in the accompanying drawings are added in parentheses for convenience, but the present invention is not limited to the illustrated embodiments.
(付記A1)本発明の一態様に係るゲームプログラムは、ユーザ(U)の頭部に装着することにより、前記ユーザに視認可能に映像を出力するとともに実空間を視認可能な映像出力装置(10、10A、20C)を用いてプレイ可能なゲームの処理を実行するコンピュータに、前記実空間を撮像した撮像映像を取得するステップ(S101、S301、S401)と、前記撮像映像から前記実空間に対応する仮想空間を生成するステップ(S103、S405)と、前記仮想空間内の、前記ユーザに対応する基準位置(K1、K2)に基づく位置に、前記ユーザの動作を指示する指示オブジェクトを前記ユーザに視認可能に配置するステップ(S105、S109、S407、S411)と、少なくとも前記指示オブジェクトが配置された前記仮想空間を、前記実空間に対応付けて表示させるステップ(S203)と、前記撮像映像から前記ユーザの身体の少なくとも一部の動作を検出するステップ(S303)と、前記検出された動作を、前記仮想空間内に配置された前記指示オブジェクトに基づくタイミング及び位置に基づいて評価するステップ(S305)と、を実行させる。 (Appendix A1) A game program according to one aspect of the present invention is a video output device (10 , 10A, 20C) to obtain a captured image of the real space (S101, S301, S401), and corresponding to the real space from the captured image. a step of generating a virtual space (S103, S405) to generate a virtual space for performing a motion of the user; arranging so as to be visible (S105, S109, S407, S411); displaying the virtual space in which at least the pointing object is arranged in association with the real space (S203); detecting motion of at least part of the user's body (S303); and evaluating the detected motion based on timing and position based on the pointing object placed in the virtual space (S305). and let it run.
付記A1の構成によれば、ゲームプログラムは、ユーザの動作を指示する指示オブジェクトに基づくタイミング及び位置に基づいてユーザの動作を評価するゲーム処理において、HMDなどの映像出力装置を頭部に装着することで、指示オブジェクトを実空間に対応付けてユーザに視認可能とするため、簡易な構成で、より直感的なプレイが可能なようにユーザが動作すべき内容を案内することができる。 According to the configuration of appendix A1, the game program wears a video output device such as an HMD on the head in the game processing for evaluating the user's motion based on the timing and position based on the instruction object that instructs the user's motion. Accordingly, since the pointing object is associated with the real space and can be visually recognized by the user, it is possible to guide the user to the action to be performed with a simple configuration so that the user can play more intuitively.
(付記A2)また、本発明の一態様は、付記A1に記載のゲームプログラムであって、前記基準位置は、前記映像出力装置(10、10A、20C)を装着している前記ユーザ(U)の位置に対応する前記仮想空間内における第1基準位置(K1)を含み、前記第1基準位置は、前記仮想空間内の前記映像出力装置の位置に基づく。 (Appendix A2) Further, one aspect of the present invention is the game program according to Appendix A1, wherein the reference position is the user (U) wearing the video output device (10, 10A, 20C). a first reference position (K1) in the virtual space corresponding to the position of , wherein the first reference position is based on the position of the video output device in the virtual space.
付記A2の構成によれば、ゲームプログラムは、ゲームをプレイするユーザの位置を基準として、実空間に対応付けて指示オブジェクトを表示できるため、ユーザに対する動作の指示にリアリティを感じさせることができ、より直感的なプレイが可能となる。 According to the configuration of appendix A2, the game program can display the instruction object in association with the real space based on the position of the user playing the game. A more intuitive play is possible.
(付記A3)また、本発明の一態様は、付記A2に記載のゲームプログラムであって、前記配置するステップ(S105、S109、S407、S411)において、前記映像出力装置(10、10A、20C)を装着している前記ユーザ(U)の向きに応じて、前記指示オブジェクトを配置する位置を前記仮想空間内の一部に制限する。 (Appendix A3) Further, one aspect of the present invention is the game program according to Appendix A2, wherein in the disposing step (S105, S109, S407, S411), the video output device (10, 10A, 20C) according to the orientation of the user (U) who is wearing the .
付記A3の構成によれば、ゲームプログラムは、ユーザの視野の範囲外(例えば、後方)に対しては動作すべき指示を行わないため、ユーザはプレイ中に視野の範囲外(例えば、後方)を気にせずプレイすることができ、プレイの難易度が高くなりすぎないようにすることができる。 According to the configuration of appendix A3, the game program does not issue an instruction to move outside the range of the user's field of vision (for example, behind). You can play without worrying about , and you can prevent the difficulty of play from becoming too high.
(付記A4)また、本発明の一態様は、付記A1に記載のゲームプログラムであって、前記コンピュータに、前記撮像映像から前記ユーザ(U)に対応する像(UK)を検出するステップ(S403)、をさらに実行させ、前記基準位置は、前記検出された前記ユーザに対応する像の前記仮想空間内における第2基準位置(K2)を含む。 (Appendix A4) Further, one aspect of the present invention is the game program according to Appendix A1, wherein the computer detects an image (UK) corresponding to the user (U) from the captured image (S403). ), wherein the reference position includes a second reference position (K2) in the virtual space of the detected image corresponding to the user.
付記A4の構成によれば、ゲームプログラムは、HMDなどの映像出力装置を頭部に装着することで、ユーザの動作を指示する指示オブジェクトを、例えば鏡などに映っているユーザの虚像(ユーザ像UK)の周囲に表示させることができる、簡易な構成で、より直感的なプレイが可能なようにユーザが動作すべき内容を案内することができる。例えば、ゲームプログラムは、指示オブジェクトを配置する位置を仮想空間内の一部に制限しなくともユーザ像UKの周囲(例えば、前後左右)に表示される指示オブジェクトを同時に俯瞰して視認可能となるため、プレイ中にユーザに指示する動作の種類を多様化することができる。また、ゲームプログラムは、ユーザが下方に存在する自身の足と指示オブジェクトを見なくともユーザの動作に対する評価が可能となるため、踊りにくくならないようにすることができる。 According to the configuration of appendix A4, by wearing a video output device such as an HMD on the head, the game program generates a virtual image of the user (user image UK) can be displayed around the player, and with a simple configuration, it is possible to guide the user on what actions should be taken so that more intuitive play is possible. For example, the game program can simultaneously overlook and visually recognize the pointing objects displayed around the user image UK (for example, front, back, left, and right) without restricting the positions where the pointing objects are arranged to a part of the virtual space. Therefore, it is possible to diversify the types of actions to be instructed to the user during play. In addition, the game program makes it possible for the user to evaluate the motion of the user without looking at the user's own feet and the pointing object located below, so that it is possible to prevent difficulty in dancing.
(付記A5)また、本発明の一態様は、付記A2または付記A3に記載のゲームプログラムであって、前記コンピュータに、前記撮像映像から前記ユーザ(U)に対応する(UK)を検出するステップ(S403)、をさらに実行させ、前記基準位置は、前記検出された前記ユーザに対応する像の前記仮想空間内における第2基準位置(K2)を含む。 (Appendix A5) Further, one aspect of the present invention is the game program according to Appendix A2 or Appendix A3, wherein the computer detects (UK) corresponding to the user (U) from the captured image. (S403), wherein the reference position includes a second reference position (K2) in the virtual space of the detected image corresponding to the user.
付記A5の構成によれば、ゲームプログラムは、HMDなどの映像出力装置を頭部に装着することで、ユーザの動作を指示する指示オブジェクトを、例えば鏡などに映っているユーザの虚像(ユーザ像UK)の周囲に表示させることができる、簡易な構成で、より直感的なプレイが可能なようにユーザが動作すべき内容を案内することができる。例えば、ゲームプログラムは、指示オブジェクトを配置する位置を仮想空間内の一部に制限しなくともユーザ像UKの周囲(例えば、前後左右)に表示される指示オブジェクトを同時に俯瞰して視認可能となるため、プレイ中にユーザに指示する動作の種類を多様化することができる。また、ゲームプログラムは、ユーザが下方に存在する自身の足と指示オブジェクトを見なくともユーザの動作に対する評価が可能となるため、踊りにくくならないようにすることができる。また、ゲームプログラムは、ゲームをプレイするユーザの周囲と、例えば鏡などに映っているユーザの虚像の周囲とのそれぞれに指示オブジェクトを表示させることで、ユーザがそれぞれの指示オブジェクトのうちプレイしやすい方を任意に選択しながらプレイできるようにすることができる。 According to the configuration of appendix A5, by wearing a video output device such as an HMD on the head, the game program generates a virtual image of the user (user image UK) can be displayed around the player, and with a simple configuration, it is possible to guide the user on what actions should be taken so that more intuitive play is possible. For example, the game program can simultaneously overlook and visually recognize the pointing objects displayed around the user image UK (for example, front, back, left, and right) without restricting the positions where the pointing objects are arranged to a part of the virtual space. Therefore, it is possible to diversify the types of actions to be instructed to the user during play. In addition, the game program makes it possible for the user to evaluate the motion of the user without looking at the user's own feet and the pointing object located below, so that it is possible to prevent difficulty in dancing. In addition, the game program displays instruction objects around the user playing the game and around a virtual image of the user reflected in a mirror, for example, so that the user can easily play the instruction objects. It is possible to make it possible to play while arbitrarily selecting one of them.
(付記A6)また、本発明の一態様は、付記A5に記載のゲームプログラムであって、前記配置するステップ(S105、S109、S407、S411)において、前記仮想空間内の前記第2基準位置(K2)に基づく位置に前記指示オブジェクトを配置する際に、前記第1基準位置(K1)に基づく位置に配置する前記指示オブジェクトの視認度を低減する、または前記第1基準位置(K1)に基づく位置に前記指示オブジェクトを配置しない。 (Appendix A6) Further, one aspect of the present invention is the game program according to Appendix A5, wherein in the placing step (S105, S109, S407, S411), the second reference position ( K2), reducing visibility of the pointing object placed at the position based on the first reference position (K1), or based on the first reference position (K1) Do not place the pointing object at the position.
付記A6の構成によれば、ゲームプログラムは、第1基準位置(例えば、基準位置K1)に基づく位置(ユーザUの周囲)に表示される指示オブジェクトによって、第2基準位置(例えば、基準位置K2)に基づく位置(鏡MRに映ったユーザの虚像の周囲)に表示された指示オブジェクトが隠れてしまわないようにすることができるため、指示オブジェクトの視認性を向上させることができる。 According to the configuration of Appendix A6, the game program causes the pointing object displayed at the position (around the user U) based on the first reference position (for example, the reference position K1) to move to the second reference position (for example, the reference position K2 ) (surrounding the virtual image of the user reflected in the mirror MR), the visibility of the pointing object can be improved.
(付記A7)また、本発明の一態様は、付記A4から付記A6のいずれか一に記載のゲームプログラムであって、前記検出された前記ユーザ(U)に対応する像(UK)は、対面に存在する鏡(MR)に映った前記ユーザの像であり、前記配置するステップ(S105、S109、S407、S411)において、前記仮想空間内の前記第2基準位置(K2)に基づく位置に前記指示オブジェクトを配置する際に、前記第2基準位置に対する前後の向きを反転させる。 (Appendix A7) Further, one aspect of the present invention is the game program according to any one of appendices A4 to A6, wherein the detected image (UK) corresponding to the user (U) is a is an image of the user reflected in a mirror (MR) present in the virtual space, and in the step of arranging (S105, S109, S407, S411), at a position based on the second reference position (K2) in the virtual space. When arranging the pointing object, the forward and backward direction with respect to the second reference position is reversed.
付記A7の構成によれば、ゲームプログラムは、鏡に映っているユーザの虚像(ユーザ像UK)の向きに対応して指示オブジェクトを表示できるため、ユーザが鏡を見ながら直感的なプレイが可能なように、ユーザが動作すべき内容を案内することができる。 According to the configuration of appendix A7, the game program can display the pointing object corresponding to the orientation of the user's virtual image (user image UK) reflected in the mirror, so the user can intuitively play while looking at the mirror. In this way, the user can be guided as to what should be done.
(付記A8)また、本発明の一態様は、付記A1から付記A7のいずれか一に記載のゲームプログラムであって、前記配置するステップ(S105、S109、S407、S411)において、前記仮想空間内の所定の位置に配置した前記指示オブジェクトを所定の判定位置へ向かって移動させ、前記評価するステップ(S305)において、前記仮想空間内で移動する前記指示オブジェクトが前記判定位置に到達したタイミングと前記判定位置に基づいて、前記検出された動作を評価する。 (Supplementary Note A8) Further, one aspect of the present invention is the game program according to any one of Supplementary Notes A1 to A7, wherein in the placing step (S105, S109, S407, S411), The pointing object placed at the predetermined position is moved toward the predetermined determination position, and in the evaluating step (S305), the timing at which the pointing object moving in the virtual space reaches the determination position and the Evaluate the detected motion based on the determined position.
付記A8の構成によれば、ゲームプログラムは、ユーザが指示通りの動作をできたか否かを、撮像映像を用いて評価することができる。 According to the configuration of appendix A8, the game program can use the captured image to evaluate whether or not the user has performed the action as instructed.
(付記A9)また、本発明の一態様は、付記A1から付記A8のいずれか一に記載のゲームプログラムであって、前記指示オブジェクトの種類によって前記ユーザ(U)に指示する動作の内容が異なる。 (Appendix A9) Further, one aspect of the present invention is the game program according to any one of appendices A1 to A8, wherein the action to be instructed to the user (U) differs depending on the type of the pointing object. .
付記A9の構成によれば、ゲームプログラムは、プレイでユーザが動作する内容を多様化することができ、興趣性の高いゲームを提供できる。 According to the configuration of appendix A9, the game program can diversify the contents of the user's actions during play, and can provide a highly entertaining game.
(付記A10)また、本発明の一態様に係るゲーム処理方法は、ユーザ(U)の頭部に装着することにより、前記ユーザに視認可能に映像を出力するとともに実空間を視認可能な映像出力装置(10、10A、20C)を用いてプレイ可能なゲームの処理を実行するコンピュータにより実行されるゲーム処理方法であって、前記実空間を撮像した撮像映像を取得するステップ(S101、S301、S401)と、前記撮像映像から前記実空間に対応する仮想空間を生成するステップ(S103、S405)と、前記仮想空間内の、前記ユーザに対応する基準位置(K1、K2)に基づく位置に、前記ユーザの動作を指示する指示オブジェクトを前記ユーザに視認可能に配置するステップ(S105、S109、S407、S411)と、少なくとも前記指示オブジェクトが配置された前記仮想空間を、前記実空間に対応付けて表示させるステップ(S203)と、前記撮像映像から前記ユーザの身体の少なくとも一部の動作を検出するステップ(S303)と、前記検出された動作を、前記仮想空間内に配置された前記指示オブジェクトに基づくタイミング及び位置に基づいて評価するステップ(S305)と、を含む。 (Appendix A10) In addition, the game processing method according to one aspect of the present invention outputs an image that can be visually recognized by the user (U) and outputs an image that allows the real space to be visually recognized by the user (U) wearing the game processing method. A game processing method executed by a computer that executes processing of a game that can be played using a device (10, 10A, 20C), the method comprising steps of obtaining a captured image of the real space (S101, S301, S401 ), a step of generating a virtual space corresponding to the real space from the captured image (S103, S405); arranging an instruction object that instructs a user's action so that the user can see it (S105, S109, S407, S411); and displaying at least the virtual space in which the instruction object is arranged in association with the real space. detecting motion of at least a part of the user's body from the captured image (S303); and determining the detected motion based on the pointing object placed in the virtual space. Evaluating (S305) based on timing and location.
付記A10の構成によれば、ゲーム処理方法は、ユーザの動作を指示する指示オブジェクトに基づくタイミング及び位置に基づいてユーザの動作を評価するゲーム処理において、HMDなどの映像出力装置を頭部に装着することで、指示オブジェクトを実空間に対応付けてユーザに視認可能とするため、簡易な構成で、より直感的なプレイが可能なようにユーザが動作すべき内容を案内することができる。 According to the configuration of appendix A10, the game processing method evaluates the user's motion based on the timing and position of an instruction object that instructs the user's motion, in which a video output device such as an HMD is mounted on the head. By doing so, since the pointing object is associated with the real space and can be visually recognized by the user, it is possible with a simple configuration to guide the user as to what action should be performed so that the user can play more intuitively.
(付記A11)また、本発明の一態様に係るゲーム装置(10、10A、10C)は、ユーザ(U)の頭部に装着することにより、前記ユーザに視認可能に映像を出力するとともに実空間を視認可能な映像出力装置(10、10A、20C)を用いてプレイ可能なゲームの処理を実行するゲーム装置であって、前記実空間を撮像した撮像映像を取得する取得部(151、S101、S301、S401)と、前記取得部により取得された前記撮像映像から前記実空間に対応する仮想空間を生成する生成部(152、S103、S405)と、前記生成部により生成された前記仮想空間内の、前記ユーザに対応する基準位置(K1、K2)に基づく位置に、前記ユーザの動作を指示する指示オブジェクトを前記ユーザに視認可能に配置する配置部(154、S105、S109、S407、S411)と、少なくとも前記指示オブジェクトが配置された前記仮想空間を、前記実空間に対応付けて表示させる表示制御部(156、S203)と、前記取得部により取得された前記撮像映像から前記ユーザの身体の少なくとも一部の動作を検出する検出部(157、S303)と、前記検出部により検出された動作を、前記仮想空間内に配置された前記指示オブジェクトに基づくタイミング及び位置に基づいて評価する評価部(158、S305)と、を備える。 (Appendix A11) Further, the game device (10, 10A, 10C) according to one aspect of the present invention outputs an image that can be visually recognized by the user (U) by being worn on the head of the user (U) and A game device that executes processing of a playable game using a video output device (10, 10A, 20C) that can visually recognize the real space, and an acquisition unit (151, S101, S301, S401); a generation unit (152, S103, S405) for generating a virtual space corresponding to the real space from the captured image acquired by the acquisition unit; an arrangement unit (154, S105, S109, S407, S411) for arranging an instruction object for instructing an action of the user at a position based on the reference position (K1, K2) corresponding to the user so that the user can see the instruction object. a display control unit (156, S203) for displaying the virtual space in which at least the pointing object is arranged in association with the real space; A detection unit (157, S303) that detects at least part of the motion, and an evaluation unit that evaluates the motion detected by the detection unit based on the timing and position based on the pointing object placed in the virtual space. (158, S305).
付記A11の構成によれば、ゲーム装置は、ユーザの動作を指示する指示オブジェクトに基づくタイミング及び位置に基づいてユーザの動作を評価するゲーム処理において、HMDなどの映像出力装置を頭部に装着することで、指示オブジェクトを実空間に対応付けてユーザに視認可能とするため、簡易な構成で、より直感的なプレイが可能なようにユーザが動作すべき内容を案内することができる。 According to the configuration of appendix A11, the game device wears a video output device such as an HMD on the head in game processing for evaluating the user's motion based on the timing and position based on the instruction object that instructs the user's motion. Accordingly, since the pointing object is associated with the real space and can be visually recognized by the user, it is possible to guide the user to the action to be performed with a simple configuration so that the user can play more intuitively.
(付記B1)また、本発明の一態様に係るゲームプログラムは、コンピュータに、実空間を撮像した撮像映像を取得するステップ(S501、S701)と、前記撮像映像から前記実空間に対応する仮想空間を生成するステップ(S505)と、前記仮想空間内の、ユーザ(U)に対応する基準位置(K3)に基づく位置に、前記ユーザの動作を指示する指示オブジェクトを前記ユーザに視認可能に配置するステップ(S507、S511)と、前記撮像映像と前記仮想空間内に配置された前記指示オブジェクトの映像とを合成した合成映像を表示部(12D、30D)に表示させるステップ(S603)と、前記撮像映像から前記ユーザの身体の少なくとも一部の動作を検出するステップ(S703)と、前記検出された動作を、前記仮想空間内に配置された前記指示オブジェクトに基づくタイミング及び位置に基づいて評価するステップ(S705)と、を実行させる。 (Appendix B1) Further, the game program according to one aspect of the present invention provides a computer with a step of obtaining a captured image of a real space (S501, S701), and a virtual space corresponding to the real space from the captured image. and placing an instruction object for instructing the user's action at a position based on the reference position (K3) corresponding to the user (U) in the virtual space so that the user can see the instruction object (S505). step (S507, S511); displaying a synthesized image obtained by synthesizing the imaged image and the image of the pointing object placed in the virtual space on the display unit (12D, 30D) (S603); detecting motion of at least part of the user's body from the video (S703); and evaluating the detected motion based on timing and position based on the pointing object placed in the virtual space. (S705) and are executed.
付記B1の構成によれば、ゲームプログラムは、ユーザの動作を指示する指示オブジェクトに基づくタイミング及び位置に基づいてユーザの動作を評価するゲーム処理において、ユーザが撮像された映像に指示オブジェクトを合成した合成映像を視認可能にスマートフォンや家庭用テレビなどの表示部に表示させるため、簡易な構成で、より直感的なプレイが可能なようにユーザが動作すべき内容を案内することができる。 According to the configuration of Appendix B1, the game program synthesizes the instruction object with the image captured by the user in the game processing for evaluating the user's action based on the timing and position based on the instruction object that instructs the user's action. Since the synthesized video is visually displayed on the display unit of a smartphone or a home-use TV, it is possible to guide the user to what actions should be performed with a simple configuration so that more intuitive play is possible.
(付記B2)また、本発明の一態様は、付記B1に記載のゲームプログラムであって、前記表示させるステップ(S603)において、前記合成映像を左右反転させて前記表示部(12D、30D)に表示させる。 (Appendix B2) Further, one aspect of the present invention is the game program according to Appendix B1, wherein in the displaying step (S603), the synthesized image is horizontally reversed and displayed on the display unit (12D, 30D). display.
付記B2の構成によれば、ゲームプログラムは、ユーザが鏡を見ているのと同様の感覚で表示部(モニタ)を見ながらプレイ可能なようにすることができる。 According to the configuration of appendix B2, the game program can be played while looking at the display section (monitor) as if the user were looking at a mirror.
(付記B3)また、本発明の一態様は、付記B1または付記B2に記載のゲームプログラムであって、前記配置するステップ(S507、S511)において、前記仮想空間内の所定の位置に配置した前記指示オブジェクトを所定の判定位置へ向かって移動させ、前記評価するステップ(S705)において、前記仮想空間内で移動する前記指示オブジェクトが前記判定位置に到達したタイミングと前記判定位置に基づいて、前記検出された動作を評価する。 (Appendix B3) Further, one aspect of the present invention is the game program according to Appendix B1 or Appendix B2, wherein in the step of arranging (S507, S511), the game program is arranged at a predetermined position in the virtual space. The pointing object is moved toward a predetermined determination position, and in the evaluating step (S705), the detection is performed based on the timing when the pointing object moving in the virtual space reaches the determination position and the determination position. Evaluate the action taken.
付記B3の構成によれば、ゲームプログラムは、ユーザが指示通りの動作をできたか否かを、撮像映像を用いて評価することができる。 According to the configuration of Appendix B3, the game program can use the captured image to evaluate whether or not the user has performed the action as instructed.
(付記B4)また、本発明の一態様は、付記B1から付記B3のいずれか一に記載のゲームプログラムであって、前記指示オブジェクトの種類によって前記ユーザ(U)に指示する動作の内容が異なる。 (Appendix B4) Further, one aspect of the present invention is the game program according to any one of appendices B1 to B3, wherein the content of the action to be instructed to the user (U) differs depending on the type of the instruction object. .
付記B4の構成によれば、ゲームプログラムは、プレイでユーザが動作する内容を多様化することができ、興趣性の高いゲームを提供できる。 According to the configuration of Appendix B4, the game program can diversify the contents of the user's actions during play, and can provide a highly entertaining game.
(付記B5)また、本発明の一態様に係るゲーム処理方法は、コンピュータにより実行されるゲーム処理方法であって、実空間を撮像した撮像映像を取得するステップ(S501、S701)と、前記撮像映像から前記実空間に対応する仮想空間を生成するステップ(S505)と、前記仮想空間内の、ユーザ(U)に対応する基準位置(K3)に基づく位置に、前記ユーザの動作を指示する指示オブジェクトを前記ユーザに視認可能に配置するステップ(S507、S511)と、前記撮像映像と前記仮想空間内に配置された前記指示オブジェクトの映像とを合成した合成映像を表示部(12D、30D)に表示させるステップ(S603)と、前記撮像映像から前記ユーザの身体の少なくとも一部の動作を検出するステップ(S703)と、前記検出された動作を、前記仮想空間内に配置された前記指示オブジェクトに基づくタイミング及び位置に基づいて評価するステップ(S705)と、を含む。 (Appendix B5) Further, a game processing method according to an aspect of the present invention is a game processing method executed by a computer, comprising steps of obtaining a captured image of a real space (S501, S701); a step of generating a virtual space corresponding to the real space from the image (S505); and an instruction to direct the user's movement to a position based on the reference position (K3) corresponding to the user (U) in the virtual space. a step of arranging an object so that it can be visually recognized by the user (S507, S511); a step of displaying (S603); a step of detecting motion of at least part of the user's body from the captured image (S703); and evaluating (S705) based on the timing and position based.
付記B5の構成によれば、ゲーム処理方法は、ユーザの動作を指示する指示オブジェクトに基づくタイミング及び位置に基づいてユーザの動作を評価するゲーム処理において、ユーザが撮像された映像に指示オブジェクトを合成した合成映像を視認可能にスマートフォンや家庭用テレビなどの表示部に表示させるため、簡易な構成で、より直感的なプレイが可能なようにユーザが動作すべき内容を案内することができる。 According to the configuration of appendix B5, in the game processing for evaluating the user's action based on the timing and position of the instruction object that instructs the user's action, the instruction object is combined with the image captured by the user. Since the synthesized video is visually displayed on a display unit such as a smartphone or a home-use TV, it is possible to guide the user to what actions should be performed with a simple configuration so that more intuitive play is possible.
(付記B6)また、本発明の一態様に係るゲーム装置(10D)は、実空間を撮像した撮像映像を取得する取得部(151D、S501、S701)と、前記取得部により取得された前記撮像映像から前記実空間に対応する仮想空間を生成する生成部(152D)と、前記生成部により生成された前記仮想空間内の、ユーザ(U)に対応する基準位置(K3)に基づく位置に、前記ユーザの動作を指示する指示オブジェクトを前記ユーザに視認可能に配置する配置部(154D、S507、S511)と、前記撮像映像と前記仮想空間内に配置された前記指示オブジェクトの映像とを合成した合成映像を表示部(12D、30D)に表示させる表示制御部(156D、S603)と、前記取得部により取得された前記撮像映像から前記ユーザの身体の少なくとも一部の動作を検出する検出部(157D、S703)と、前記検出部により検出された動作を、前記仮想空間内に配置された前記指示オブジェクトに基づくタイミング及び位置に基づいて評価する評価部(158D、S705)と、を備える。 (Appendix B6) Further, the game device (10D) according to an aspect of the present invention includes an acquisition unit (151D, S501, S701) that acquires a captured video image of a real space; a generating unit (152D) that generates a virtual space corresponding to the real space from an image; an arrangement unit (154D, S507, S511) for arranging an instruction object that instructs the user's action so that the user can visually recognize the captured image and an image of the instruction object arranged in the virtual space; A display control unit (156D, S603) for displaying a composite image on a display unit (12D, 30D), and a detection unit ( 157D, S703) and an evaluation unit (158D, S705) that evaluates the motion detected by the detection unit based on the timing and position based on the pointing object placed in the virtual space.
付記B6の構成によれば、ゲーム装置は、ユーザの動作を指示する指示オブジェクトに基づくタイミング及び位置に基づいてユーザの動作を評価するゲーム処理において、ユーザが撮像された映像に指示オブジェクトを合成した合成映像を視認可能にスマートフォンや家庭用テレビなどの表示部に表示させるため、簡易な構成で、より直感的なプレイが可能なようにユーザが動作すべき内容を案内することができる。 According to the configuration of appendix B6, in the game processing for evaluating the user's action based on the timing and position of the instruction object that instructs the user's action, the instruction object is synthesized with the image captured by the user. Since the synthesized video is visually displayed on the display unit of a smartphone or a home-use TV, it is possible to guide the user to what actions should be performed with a simple configuration so that more intuitive play is possible.
1C ゲームシステム、10,10A,10C,10D ゲーム装置、11 撮像部、11DA フロントカメラ、11DB バックカメラ、12,12D 表示部、13,13D センサ、14,14C,14D 記憶部、15,15C,15D CPU、16,16C,16D 通信部、17,17D 音出力部、18D 映像出力部、20C HMD、21C 撮像部、22C 表示部、23C センサ、24C 記憶部、25C CPU、26C 通信部、27C 音出力部、150,150A,150C,150D 制御部、151,151D 映像取得部、152,152D 仮想空間生成部、153A ユーザ像検出部、153D ユーザ検出部、154,154A,154D オブジェクト配置部、155 視線方向検出部、156,156D 表示制御部、157、157D 動作検出部、158,158D 評価部
1C game system, 10, 10A, 10C, 10D game device, 11 imaging unit, 11DA front camera, 11DB back camera, 12, 12D display unit, 13, 13D sensor, 14, 14C, 14D storage unit, 15, 15C, 15D CPU, 16, 16C, 16D communication section, 17, 17D sound output section, 18D video output section, 20C HMD, 21C imaging section, 22C display section, 23C sensor, 24C storage section, 25C CPU, 26C communication section,
Claims (9)
前記実空間を撮像した撮像映像を取得するステップと、
前記撮像映像から前記実空間に対応する仮想空間を生成するステップと、
前記撮像映像から前記ユーザに対応する像を検出するステップと、
前記仮想空間内の、前記ユーザに対応する基準位置に基づく位置に、前記ユーザの動作を指示する指示オブジェクトを前記ユーザに視認可能に配置するステップと、
少なくとも前記指示オブジェクトが配置された前記仮想空間を、前記実空間に対応付けて表示させるステップと、
前記撮像映像から前記ユーザの身体の少なくとも一部の動作を検出するステップと、
前記検出された動作を、前記仮想空間内に配置された前記指示オブジェクトに基づくタイミング及び位置に基づいて評価するステップと、
を実行させ、
前記基準位置は、前記検出された前記ユーザに対応する像の前記仮想空間内における第2基準位置を含む、
ゲームプログラム。 A computer that executes processing of a game that can be played using a video output device that can be worn on the user's head to output a video that can be visually recognized by the user and that can visually recognize the real space,
a step of obtaining a captured image of the real space;
generating a virtual space corresponding to the real space from the captured image;
detecting an image corresponding to the user from the captured image;
arranging an instruction object for instructing an action of the user at a position in the virtual space based on a reference position corresponding to the user so that the user can see the instruction object;
displaying the virtual space in which at least the pointing object is placed in association with the real space;
detecting motion of at least part of the user's body from the captured image;
evaluating the detected motion based on timing and position based on the pointing object placed in the virtual space;
and
The reference position includes a second reference position in the virtual space of the detected image corresponding to the user,
game program.
前記第1基準位置は、前記仮想空間内の前記映像出力装置の位置に基づく、
請求項1に記載のゲームプログラム。 The reference position includes a first reference position in the virtual space corresponding to the position of the user wearing the video output device,
The first reference position is based on the position of the video output device in the virtual space,
The game program according to claim 1.
前記映像出力装置を装着している前記ユーザの向きに応じて、前記指示オブジェクトを配置する位置を前記仮想空間内の一部に制限する、
請求項2に記載のゲームプログラム。 In the placing step,
restricting a position where the pointing object is placed to a part of the virtual space according to the orientation of the user wearing the video output device;
3. A game program according to claim 2.
前記仮想空間内の前記第2基準位置に基づく位置に前記指示オブジェクトを配置する際に、前記第1基準位置に基づく位置に配置する前記指示オブジェクトの視認度を低減する、または前記第1基準位置に基づく位置に前記指示オブジェクトを配置しない、
請求項2または請求項3に記載のゲームプログラム。 In the placing step,
reducing the visibility of the pointing object placed at the position based on the first reference position when placing the pointing object at the position based on the second reference position in the virtual space; or not placing said pointing object at a position based on
4. The game program according to claim 2 or 3 .
前記配置するステップにおいて、
前記仮想空間内の前記第2基準位置に基づく位置に前記指示オブジェクトを配置する際に、前記第2基準位置に対する前後の向きを反転させる、
請求項1から請求項4のいずれか一項に記載のゲームプログラム。 the detected image corresponding to the user is an image of the user reflected in a mirror present facing the user;
In the placing step,
when arranging the pointing object at a position based on the second reference position in the virtual space, reversing a front-rear orientation with respect to the second reference position;
A game program according to any one of claims 1 to 4 .
前記仮想空間内の所定の位置に配置した前記指示オブジェクトを所定の判定位置へ向かって移動させ、
前記評価するステップにおいて、
前記仮想空間内で移動する前記指示オブジェクトが前記判定位置に到達したタイミングと前記判定位置に基づいて、前記検出された動作を評価する、
請求項1から請求項5のいずれか一項に記載のゲームプログラム。 In the placing step,
moving the pointing object arranged at a predetermined position in the virtual space toward a predetermined judgment position;
In the evaluating step,
evaluating the detected motion based on the timing at which the pointing object moving in the virtual space reaches the determination position and the determination position;
A game program according to any one of claims 1 to 5 .
請求項1から請求項6のいずれか一項に記載のゲームプログラム。 The content of the action to be instructed to the user differs depending on the type of the instruction object.
A game program according to any one of claims 1 to 6 .
前記実空間を撮像した撮像映像を取得するステップと、
前記撮像映像から前記実空間に対応する仮想空間を生成するステップと、
前記撮像映像から前記ユーザに対応する像を検出するステップと、
前記仮想空間内の、前記ユーザに対応する基準位置に基づく位置に、前記ユーザの動作を指示する指示オブジェクトを前記ユーザに視認可能に配置するステップと、
少なくとも前記指示オブジェクトが配置された前記仮想空間を、前記実空間に対応付けて表示させるステップと、
前記撮像映像から前記ユーザの身体の少なくとも一部の動作を検出するステップと、
前記検出された動作を、前記仮想空間内に配置された前記指示オブジェクトに基づくタイミング及び位置に基づいて評価するステップと、
を含み、
前記基準位置は、前記検出された前記ユーザに対応する像の前記仮想空間内における第2基準位置を含む、
ゲーム処理方法。 A game processing method executed by a computer that executes processing of a game that can be played using a video output device that can be worn on the user's head to output a video that can be visually recognized by the user and that can visually recognize the real space. and
a step of obtaining a captured image of the real space;
generating a virtual space corresponding to the real space from the captured image;
detecting an image corresponding to the user from the captured image;
arranging an instruction object for instructing an action of the user at a position in the virtual space based on a reference position corresponding to the user so that the user can see the instruction object;
displaying the virtual space in which at least the pointing object is placed in association with the real space;
detecting motion of at least part of the user's body from the captured image;
evaluating the detected motion based on timing and position based on the pointing object placed in the virtual space;
including
The reference position includes a second reference position in the virtual space of the detected image corresponding to the user,
Game processing method.
前記実空間を撮像した撮像映像を取得する取得部と、
前記取得部により取得された前記撮像映像から前記実空間に対応する仮想空間を生成する生成部と、
前記撮像映像から前記ユーザに対応する像を検出する像検出部と、
前記生成部により生成された前記仮想空間内の、前記ユーザに対応する基準位置に基づく位置に、前記ユーザの動作を指示する指示オブジェクトを前記ユーザに視認可能に配置する配置部と、
少なくとも前記指示オブジェクトが配置された前記仮想空間を、前記実空間に対応付けて表示させる表示制御部と、
前記取得部により取得された前記撮像映像から前記ユーザの身体の少なくとも一部の動作を検出する検出部と、
前記検出部により検出された動作を、前記仮想空間内に配置された前記指示オブジェクトに基づくタイミング及び位置に基づいて評価する評価部と、
を備え、
前記基準位置は、前記検出された前記ユーザに対応する像の前記仮想空間内における第2基準位置を含む、
ゲーム装置。 A game device that, by being worn on the user's head, outputs a video that can be visually recognized by the user and executes processing of a game that can be played using a video output device that allows the user to visually recognize the real space,
an acquisition unit that acquires a captured video image of the real space;
a generation unit that generates a virtual space corresponding to the real space from the captured image acquired by the acquisition unit;
an image detection unit that detects an image corresponding to the user from the captured image;
an arrangement unit that arranges an instruction object that instructs the user's action at a position based on a reference position corresponding to the user in the virtual space generated by the generation unit so that the user can see the instruction object;
a display control unit that displays the virtual space in which at least the pointing object is arranged in association with the real space;
a detection unit that detects motion of at least part of the user's body from the captured image acquired by the acquisition unit;
an evaluation unit that evaluates the motion detected by the detection unit based on timing and position based on the pointing object placed in the virtual space;
with
The reference position includes a second reference position in the virtual space of the detected image corresponding to the user,
game device.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020203591A JP7325833B2 (en) | 2020-12-08 | 2020-12-08 | Game program, game processing method, and game device |
US18/575,023 US20240316450A1 (en) | 2020-12-08 | 2021-11-30 | Game program, game processing method, and game device |
CN202180066033.4A CN116249575A (en) | 2020-12-08 | 2021-11-30 | Game program, game processing method, and game device |
PCT/JP2021/043823 WO2022124135A1 (en) | 2020-12-08 | 2021-11-30 | Game program, game processing method, and game device |
KR1020237009486A KR20230052297A (en) | 2020-12-08 | 2021-11-30 | Game program, game processing method and game device |
JP2023120495A JP2023162168A (en) | 2020-12-08 | 2023-07-25 | Game program, game processing method, and game device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020203591A JP7325833B2 (en) | 2020-12-08 | 2020-12-08 | Game program, game processing method, and game device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023120495A Division JP2023162168A (en) | 2020-12-08 | 2023-07-25 | Game program, game processing method, and game device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022090964A JP2022090964A (en) | 2022-06-20 |
JP7325833B2 true JP7325833B2 (en) | 2023-08-15 |
Family
ID=82060881
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020203591A Active JP7325833B2 (en) | 2020-12-08 | 2020-12-08 | Game program, game processing method, and game device |
JP2023120495A Pending JP2023162168A (en) | 2020-12-08 | 2023-07-25 | Game program, game processing method, and game device |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023120495A Pending JP2023162168A (en) | 2020-12-08 | 2023-07-25 | Game program, game processing method, and game device |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7325833B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024190134A1 (en) * | 2023-03-16 | 2024-09-19 | ソニーグループ株式会社 | Information processing device, information processing method, and non-transitory recording medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012095884A (en) | 2010-11-04 | 2012-05-24 | Konami Digital Entertainment Co Ltd | Gaming device, method of controlling the same, and program |
JP2012115539A (en) | 2010-12-02 | 2012-06-21 | Konami Digital Entertainment Co Ltd | Game device, control method therefor, and program |
JP2013066613A (en) | 2011-09-22 | 2013-04-18 | Konami Digital Entertainment Co Ltd | Game device, display method and program |
JP2013154123A (en) | 2012-01-31 | 2013-08-15 | Konami Digital Entertainment Co Ltd | Game apparatus, method of controlling the game apparatus, and program |
JP2018130212A (en) | 2017-02-14 | 2018-08-23 | 株式会社コナミアミューズメント | game machine |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9358456B1 (en) * | 2010-06-11 | 2016-06-07 | Harmonix Music Systems, Inc. | Dance competition game |
-
2020
- 2020-12-08 JP JP2020203591A patent/JP7325833B2/en active Active
-
2023
- 2023-07-25 JP JP2023120495A patent/JP2023162168A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012095884A (en) | 2010-11-04 | 2012-05-24 | Konami Digital Entertainment Co Ltd | Gaming device, method of controlling the same, and program |
JP2012115539A (en) | 2010-12-02 | 2012-06-21 | Konami Digital Entertainment Co Ltd | Game device, control method therefor, and program |
JP2013066613A (en) | 2011-09-22 | 2013-04-18 | Konami Digital Entertainment Co Ltd | Game device, display method and program |
JP2013154123A (en) | 2012-01-31 | 2013-08-15 | Konami Digital Entertainment Co Ltd | Game apparatus, method of controlling the game apparatus, and program |
JP2018130212A (en) | 2017-02-14 | 2018-08-23 | 株式会社コナミアミューズメント | game machine |
Also Published As
Publication number | Publication date |
---|---|
JP2023162168A (en) | 2023-11-08 |
JP2022090964A (en) | 2022-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11839811B2 (en) | Game processing program, game processing method, and game processing device | |
JP6342038B1 (en) | Program for providing virtual space, information processing apparatus for executing the program, and method for providing virtual space | |
JP6629499B2 (en) | Program and image generation device | |
JP2012139318A (en) | Display control program, display control apparatu, display control system, and display control method | |
JP6684746B2 (en) | Information processing method, computer and program | |
US20190114841A1 (en) | Method, program and apparatus for providing virtual experience | |
JP2023162168A (en) | Game program, game processing method, and game device | |
JP2018147465A (en) | Information processing method, device, and program for causing computer to execute the method | |
JP6513241B1 (en) | PROGRAM, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING METHOD | |
JP6057738B2 (en) | GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD | |
JP2019032844A (en) | Information processing method, device, and program for causing computer to execute the method | |
JP2019168962A (en) | Program, information processing device, and information processing method | |
JP7319686B2 (en) | Game program, game processing method, and game device | |
JP7192151B2 (en) | Program, information processing device, and information processing method | |
WO2022124135A1 (en) | Game program, game processing method, and game device | |
JP5777332B2 (en) | GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME METHOD | |
JP6710731B2 (en) | Program, information processing apparatus, and information processing method | |
JP2019155115A (en) | Program, information processor and information processing method | |
JP7282731B2 (en) | Program, method and terminal | |
WO2024166715A1 (en) | Information processing system, and program | |
JP7398222B2 (en) | Program, information processing device, and information processing method | |
WO2023162668A1 (en) | Information processing device and floor height adjustment method | |
JP2024110136A (en) | Information processing system and program | |
JP2024110135A (en) | Information processing system and program | |
JP2023126796A (en) | Distribution program and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230726 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7325833 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |