JP2017119032A - Game device and program - Google Patents

Game device and program Download PDF

Info

Publication number
JP2017119032A
JP2017119032A JP2015257581A JP2015257581A JP2017119032A JP 2017119032 A JP2017119032 A JP 2017119032A JP 2015257581 A JP2015257581 A JP 2015257581A JP 2015257581 A JP2015257581 A JP 2015257581A JP 2017119032 A JP2017119032 A JP 2017119032A
Authority
JP
Japan
Prior art keywords
game
player
image
information
danger notification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015257581A
Other languages
Japanese (ja)
Inventor
正 山下
Tadashi Yamashita
正 山下
博 五十嵐
Hiroshi Igarashi
博 五十嵐
賢一 原
Kenichi Hara
賢一 原
陽介 黒田
Yosuke Kuroda
陽介 黒田
弘高 川上
Hirotaka Kawakami
弘高 川上
亮 内藤
Ryo Naito
亮 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2015257581A priority Critical patent/JP2017119032A/en
Publication of JP2017119032A publication Critical patent/JP2017119032A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a game device, a program, etc. capable of achieving more appropriate danger notification in a game using a head-mounted display device.SOLUTION: A game device includes an input processing part for acquiring position information on a player wearing a head-mounted display device and moving in a play area of an actual world or in a game device housing, a game processing part for executing processing of a game that the player plays in a virtual game space where a plurality of objects are arranged, and a display processing part for executing processing for displaying a game image seen from a given viewpoint in the game space in the head-mounted display device. The game processing part executes processing for switching whether to display the game image in the game space or to display a danger notification image in a model space set based on model information on the play area or model information on the game device housing according to the position of the player in the play area or in the game device housing.SELECTED DRAWING: Figure 25

Description

本発明は、ゲーム装置及びプログラム等に関する。   The present invention relates to a game device, a program, and the like.

従来より、HMD(頭部装着型表示装置)をユーザが頭部に装着し、HMDの画面に表示される画像をプレーヤが見ることで、いわゆるバーチャルリアリティー(VR)の世界を体感できる装置が知られている。このような装置の従来技術としては、例えば特許文献1、2に開示される技術がある。   2. Description of the Related Art Conventionally, there has been known an apparatus that allows a user to experience a so-called virtual reality (VR) world by mounting an HMD (head-mounted display device) on a head and allowing a player to view an image displayed on the screen of the HMD. It has been. As a conventional technique of such an apparatus, there are techniques disclosed in Patent Documents 1 and 2, for example.

特開平5−304646公報JP-A-5-304646 特開2013−164737号公報JP 2013-164737 A

HMDを装着している場合、ユーザの視線はHMDの画面に集中する。このため、ユーザがHMDを装着したまま歩行すると、周囲の障害物にぶつかってしまうおそれがある。   When the HMD is worn, the user's line of sight concentrates on the HMD screen. For this reason, when the user walks with the HMD attached, there is a risk of hitting a surrounding obstacle.

このような危険を回避するために、特許文献1の従来技術では、HMDに対して、外界からの光を透過から遮蔽まで段階的に通すことができる白黒液晶パネルと、センサを装備する。そして、センサが急激な動きや衝撃などを検知した場合に、白黒液晶パネルを透過状態にして、外界が見えるようにする。これにより、ユーザは外界の障害物を避けることが可能になる。   In order to avoid such a risk, the conventional technology of Patent Document 1 is equipped with a monochrome liquid crystal panel and a sensor that can pass light from the outside to the HMD stepwise from transmission to shielding. When the sensor detects a sudden movement or an impact, the monochrome liquid crystal panel is made transparent so that the outside can be seen. As a result, the user can avoid obstacles in the outside world.

また特許文献2の従来技術では、HMDを装着したユーザの正面方向を撮影する撮影装置と、正面方向にある物体との距離を測定する距離計を設ける。そして距離計の測定結果に基づいて、ユーザの正面方向に障害物があると判定された場合に、撮影装置で撮影した映像データをHMDの画面に表示する。この際に映像データに対して注意喚起情報も付加する。これにより、ユーザは、撮影装置で撮影した映像データを見ることで、正面の障害物を認識することが可能になり、障害物を避けることが可能になる。   In the prior art of Patent Document 2, a photographing device that photographs the front direction of the user wearing the HMD and a distance meter that measures the distance between the object in the front direction are provided. Then, based on the measurement result of the distance meter, when it is determined that there is an obstacle in the front direction of the user, the video data captured by the imaging device is displayed on the screen of the HMD. At this time, warning information is also added to the video data. Thereby, the user can recognize the obstacle in the front by seeing the video data photographed by the photographing apparatus, and can avoid the obstacle.

しかしながら、これらの従来技術では、障害物にぶつかる危険を避けるために、光を透過から遮蔽まで段階的に通すことができる白黒液晶パネルや、正面方向の外界の映像をユーザに見せるための撮影装置が必要になってしまう。このため危険回避のための特別なデバイス(白黒液晶パネル、撮影装置)を備えた専用のHMDが必要になり、このようなデバイスを備えていないHMDにおいては、これらの従来技術の手法を採用できないという問題がある。   However, in these prior arts, in order to avoid the danger of hitting an obstacle, a monochrome liquid crystal panel that can pass light from transmission to shielding step by step, and an imaging device for showing the external image in the front direction to the user Will be needed. For this reason, a dedicated HMD equipped with a special device (monochrome liquid crystal panel, photographing apparatus) for avoiding danger is required, and these conventional techniques cannot be adopted in an HMD not equipped with such a device. There is a problem.

本発明の幾つかの態様によれば、頭部装着型表示装置を利用したゲームにおいてより適切な危険報知を実現できるゲーム装置及びプログラム等を提供できる。   According to some aspects of the present invention, it is possible to provide a game device, a program, and the like that can realize more appropriate danger notification in a game using a head-mounted display device.

本発明の一態様は、頭部装着型表示装置を装着して現実世界のプレイエリア又はゲーム装置筐体内で移動するプレーヤの位置情報を取得する入力処理部と、複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理を行うゲーム処理部と、前記ゲーム空間において所与の視点から見えるゲーム画像を、前記頭部装着型表示装置に表示する処理を行う表示処理部と、を含み、前記ゲーム処理部は、前記ゲーム空間での前記ゲーム画像と、前記プレイエリアのモデル情報又は前記ゲーム装置筐体のモデル情報に基づき設定されるモデル空間での危険報知画像のいずれを表示するかを、前記プレイエリア又は前記ゲーム装置筐体内でのプレーヤの位置に応じて切り替える処理を行うゲーム装置に関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   One embodiment of the present invention includes an input processing unit that acquires information on a position of a player who moves in a real-world play area or game device housing by wearing a head-mounted display device, and a virtual object in which a plurality of objects are arranged. A game processing unit for processing a game played by a player in a typical game space, and a display processing unit for performing processing for displaying a game image seen from a given viewpoint in the game space on the head-mounted display device The game processing unit includes any one of the game image in the game space and the danger notification image in the model space set based on the model information of the play area or the model information of the game apparatus housing. This is related to a game device that performs a process of switching according to the position of the player in the play area or the game device housing. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、プレイエリア又はゲーム装置筐体内で移動するプレーヤの位置情報が取得される。また、複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理が行われ、当該ゲーム空間において所与の視点から見えるゲーム画像が、プレーヤが装着する頭部装着型表示装置に表示される。そして、ゲーム空間でのゲーム画像と、プレイエリア又はゲーム装置筺体のモデル情報に基づき設定されるモデル空間での危険報知画像のいずれを表示するかが、プレイエリア又はゲーム装置筐体内でのプレーヤの位置に応じて切り替えられる。このようにすれば、通常時には、ゲーム空間でのゲーム画像を頭部装着型表示装置に表示しながら、プレイエリア又はゲーム装置筐体内でのプレーヤの位置が、例えば危険の蓋然性が高い位置などである場合に、ゲーム画像を危険報知画像に切り替えることなどが可能になる。そして、危険報知画像は、プレイエリア又はゲーム装置筺体のモデル情報に基づき設定された空間での画像であるため、危険報知に適した画像を、危険報知画像として頭部装着型表示装置に表示できるようになる。従って、頭部装着型表示装置を利用したゲームにおいて、より適切な危険報知を実現できるゲーム装置等の提供が可能になる。   According to one aspect of the present invention, position information of a player who moves within a play area or a game device housing is acquired. In addition, in a virtual game space in which a plurality of objects are arranged, processing of a game played by the player is performed, and a game image viewed from a given viewpoint in the game space is displayed as a head-mounted display worn by the player. Displayed on the device. Then, which of the game image in the game space and the danger notification image in the model space set based on the model information of the play area or the game device housing is displayed is determined by the player in the play area or the game device housing. It is switched according to the position. In this way, normally, while displaying the game image in the game space on the head-mounted display device, the position of the player in the play area or the game device housing is, for example, a position with a high probability of danger. In some cases, the game image can be switched to the danger notification image. Since the danger notification image is an image in a space set based on the model information of the play area or the game apparatus housing, an image suitable for the danger notification can be displayed on the head-mounted display device as the danger notification image. It becomes like this. Accordingly, it is possible to provide a game device or the like that can realize more appropriate danger notification in a game using a head-mounted display device.

また本発明の一態様では、前記プレイエリアの前記モデル情報は、前記プレイエリアの形状情報を少なくとも含むモデル情報であり、前記ゲーム装置筐体の前記モデル情報は、前記ゲーム装置筐体の形状情報を少なくとも含むモデル情報であってもよい。   In one aspect of the present invention, the model information of the play area is model information including at least shape information of the play area, and the model information of the game apparatus housing is shape information of the game apparatus housing. May be model information including at least.

このようにすれば、プレイエリア又はゲーム装置筺体の形状を反映させた危険報知画像を表示できるようになり、より適切な危険報知を実現できる。   In this way, it is possible to display a danger notification image that reflects the shape of the play area or the game apparatus housing, thereby realizing more appropriate danger notification.

また本発明の一態様では、前記ゲーム処理部は、前記危険報知画像を生成する前記モデル空間での視点の視点位置又は視線方向を、前記ゲーム画像を生成する前記ゲーム空間での視点とは異なる視点位置又は視線方向に設定してもよい。   In one aspect of the present invention, the game processing unit differs in the viewpoint position or line-of-sight direction of the viewpoint in the model space that generates the danger notification image from the viewpoint in the game space that generates the game image. You may set to a viewpoint position or a gaze direction.

このようにすれば、モデル空間での視点を、危険報知画像に適した視点に設定して、危険報知画像を生成することが可能になり、より効果的な危険報知を実現できる。   In this way, it is possible to set the viewpoint in the model space to a viewpoint that is suitable for the danger notification image and generate a danger notification image, thereby realizing more effective danger notification.

また本発明の一態様では、前記ゲーム処理部は、前記プレイエリア又は前記ゲーム装置筐体内においてプレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合、或いは前記境界を越えたプレーヤの移動が検出された場合に、前記ゲーム画像から前記危険報知画像への切り替え処理を行ってもよい。   In one aspect of the present invention, the game processing unit detects the approach or arrival of a player to the boundary of an area set as a player movement range in the play area or the game apparatus housing, or When the movement of the player beyond the boundary is detected, a switching process from the game image to the danger notification image may be performed.

このようにすれば、エリアの境界へのプレーヤの接近又は到達の検出時、或いは境界を越えたプレーヤの移動の検出時に、ゲーム画像から危険報知画像に切り替えて、エリアの境界に関連する危険を、プレーヤに効果的に報知できるようになる。   In this way, when the player approaches or reaches the boundary of the area, or when the movement of the player beyond the boundary is detected, the game image is switched to the danger notification image, and the danger related to the area boundary is reduced. The player can be notified effectively.

また本発明の一態様では、前記表示処理部は、前記エリアの外側に対応する場所に観客の画像が表示される前記ゲーム画像を、前記頭部装着型表示装置に表示する処理を行ってもよい。   In the aspect of the invention, the display processing unit may perform a process of displaying the game image in which a spectator image is displayed in a place corresponding to the outside of the area on the head-mounted display device. Good.

このようにすれば、例えばプレーヤがゲームプレイに熱中してしまい、現実世界のエリアの外側に対応する場所であって、仮想的なゲーム空間において観客が居る場所の方に、移動して来た場合にも、プレーヤに対する適切な危険報知を実現できるようになる。   In this way, for example, the player has become enthusiastic about the game play and moved to a place corresponding to the outside of the real world area where the audience is in the virtual game space. Even in this case, it is possible to realize appropriate danger notification to the player.

また本発明の一態様では、前記表示処理部は、前記ゲーム画像から前記危険報知画像に切り替わった場合に、プレーヤの移動を誘導する案内情報の表示処理を行ってもよい。   In the aspect of the invention, the display processing unit may perform display processing of guidance information that guides the player's movement when the game image is switched to the danger notification image.

このようにすれば、ゲーム画像から危険報知画像に切り替わった際に、案内情報を用いて、危険を回避できる方向にプレーヤを効果的に誘導することが可能になる。   In this way, when the game image is switched to the danger notification image, it is possible to effectively guide the player in a direction in which the danger can be avoided using the guidance information.

また本発明の一態様では、前記表示処理部は、前記ゲーム画像から前記危険報知画像に切り替わった場合に、プレーヤの移動を誘導するアバターの表示処理を行ってもよい。   In one aspect of the present invention, the display processing unit may perform display processing of an avatar that induces a player to move when the game image is switched to the danger notification image.

このようにすれば、ゲーム画像から危険報知画像に切り替わった際に、アバターを用いて、危険を回避できる方向にプレーヤを効果的に誘導することが可能になる。   In this way, when the game image is switched to the danger notification image, the avatar can be used to effectively guide the player in a direction in which the danger can be avoided.

また本発明の一態様では、前記表示処理部は、前記ゲーム画像と前記危険報知画像の間の画像の切り替えをシームレスに切り替える処理を行ってもよい。   In the aspect of the invention, the display processing unit may perform a process of seamlessly switching the image between the game image and the danger notification image.

このようにすれば、プレーヤに表示される画像が、ゲーム画像から危険報知画像に突然に切り替わったり、或いは危険報知画像からゲーム画像に突然に切り替わったりするなどの事態を、効果的に抑制できる。   In this way, it is possible to effectively suppress a situation in which an image displayed on the player suddenly switches from a game image to a danger notification image, or suddenly switches from a danger notification image to a game image.

また本発明の一態様では、前記表示処理部は、前記ゲーム画像上に前記危険報知画像を重畳表示すると共に、前記ゲーム画像上での前記危険報知画像の表示サイズを変化させる処理を行ってもよい。   In the aspect of the invention, the display processing unit may superimpose and display the danger notification image on the game image, and may perform a process of changing a display size of the danger notification image on the game image. Good.

このようすれば、危険報知に適した表示態様になるように、危険報知画像の表示サイズを変化させることが可能になる。   If it does in this way, it will become possible to change the display size of a danger information image so that it may become a display mode suitable for danger information.

また本発明の一態様では、前記ゲーム処理部は、前記ゲーム画像から前記危険報知画像への切り替え制御を、プレーヤの移動速度に基づいて行ってもよい。   In one aspect of the present invention, the game processing unit may perform switching control from the game image to the danger notification image based on a moving speed of the player.

このようにすれば、例えばプレーヤの移動速度に応じたゲーム画像と危険報知画像の適切な切り替え制御を実現できるようになる。   In this way, for example, appropriate switching control between the game image and the danger notification image according to the moving speed of the player can be realized.

また本発明の一態様では、前記ゲーム処理部は、前記ゲーム画像から前記危険報知画像に切り替わった場合に、振動デバイスを振動させる処理又は警告音を出力する処理を行ってもよい。   In one aspect of the present invention, the game processing unit may perform a process of vibrating a vibrating device or a process of outputting a warning sound when the game image is switched to the danger notification image.

このようにすれば、ゲーム画像から危険報知画像への切り替えに加えて、警告のための振動の発生や警告音の出力により、プレーヤに対する適切な危険報知を実現できるようになる。   In this way, in addition to switching from the game image to the danger notification image, appropriate danger notification to the player can be realized by generating a vibration for warning and outputting a warning sound.

本実施形態のゲーム装置の構成例。The structural example of the game device of this embodiment. 図2(A)、図2(B)は本実施形態に用いられるHMDの一例。FIG. 2A and FIG. 2B are examples of the HMD used in this embodiment. 図3(A)、図3(B)は本実施形態に用いられるHMDの他の例。3A and 3B are other examples of the HMD used in the present embodiment. 図4(A)、図4(B)はプレイエリアの説明図。4A and 4B are explanatory diagrams of a play area. ゲーム装置筺体の説明図。Explanatory drawing of a game device housing. 本実施形態により生成されるゲーム画像の例。The example of the game image produced | generated by this embodiment. 本実施形態により生成されるゲーム画像の例。The example of the game image produced | generated by this embodiment. 本実施形態により生成されるゲーム画像の例。The example of the game image produced | generated by this embodiment. VR空間でのコンサートホールを俯瞰した図。The figure which overlooked the concert hall in VR space. ステージでのプレーヤの移動についての説明図。Explanatory drawing about the movement of the player on a stage. ステージでのプレーヤの移動についての説明図。Explanatory drawing about the movement of the player on a stage. 図12(A)〜図12(C)は本実施形態の手法の説明図。FIG. 12A to FIG. 12C are explanatory diagrams of the method of this embodiment. モデル空間での危険報知画像の説明図。Explanatory drawing of the danger alerting | reporting image in model space. 危険報知画像の一例。An example of a danger notification image. 危険報知画像の他の例。The other example of a danger alerting | reporting image. 危険報知オブジェクトを表示する手法の説明図。Explanatory drawing of the method of displaying a danger alerting | reporting object. 図17(A)、図17(B)はモデル空間での視点設定をゲーム空間での視点設定とは異なる設定にする手法の説明図。FIG. 17A and FIG. 17B are explanatory diagrams of a method for setting the viewpoint setting in the model space to be different from the viewpoint setting in the game space. 図18(A)〜図18(C)はゲーム画像と危険報知画像の切り替えをシームレスに行う手法及びプレーヤの移動速度に基づき行う手法の説明図。18A to 18C are explanatory diagrams of a method for seamlessly switching between a game image and a danger notification image and a method based on a moving speed of a player. 図19(A)〜図19(C)は危険報知画像の表示サイズを変化させる手法やワイヤーフレームのモデルを用いる手法の説明図。19A to 19C are explanatory diagrams of a method for changing the display size of the danger notification image and a method using a wire frame model. 警告振動を発生させたり警告音を出力する手法の説明図。Explanatory drawing of the method of generating a warning vibration or outputting a warning sound. 図21(A)、図21(B)は入力情報に基づく第1のゲームの第1のゲーム処理と視線情報に基づく第2のゲームの第2のゲーム処理を行う手法の説明図。FIGS. 21A and 21B are explanatory diagrams of a technique for performing the first game process of the first game based on the input information and the second game process of the second game based on the line-of-sight information. 図22(A)〜図22(C)は第1、第2のゲームでのプレーヤのゲームプレイの評価手法の説明図。22 (A) to 22 (C) are explanatory diagrams of a player's game play evaluation method in the first and second games. 図23(A)〜図23(C)は視線情報を用いた第2のゲームでのプレーヤのゲームプレイの評価手法の説明図。FIG. 23A to FIG. 23C are explanatory diagrams of a player's game play evaluation method in the second game using line-of-sight information. 図24(A)、図24(B)は音楽ゲームである第1のゲームでのプレーヤのゲームプレイの評価手法の説明図。FIGS. 24A and 24B are explanatory diagrams of a player's game play evaluation method in the first game which is a music game. 本実施形態の詳細な処理例を示すフローチャート。The flowchart which shows the detailed process example of this embodiment. 本実施形態の詳細な処理例を示すフローチャート。The flowchart which shows the detailed process example of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態のゲーム装置(画像生成装置、ゲームシステム)の構成例を示す。なお、本実施形態のゲーム装置は図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Configuration FIG. 1 shows a configuration example of a game apparatus (image generation apparatus, game system) according to the present embodiment. Note that the game device according to the present embodiment is not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of the components (parts) and adding other components are possible.

入力装置160は、プレーヤが種々の入力情報を入力するための装置である。この入力装置160は、演奏情報入力装置161、振動デバイス164を含むことができる。また入力装置160は、プレーヤがゲームの操作情報を入力するためのゲームコントローラの機能を有していてもよい。ゲームコントローラは、例えば操作ボタン、方向指示キー、ジョイスティック又はレバー等により実現される。この場合にゲームコントローラと演奏情報入力装置161は、一体の筐体で実現してもよいし、別体の筐体で実現してもよい。   The input device 160 is a device for the player to input various input information. The input device 160 can include a performance information input device 161 and a vibration device 164. The input device 160 may have a game controller function for the player to input game operation information. The game controller is realized by, for example, an operation button, a direction instruction key, a joystick or a lever. In this case, the game controller and the performance information input device 161 may be realized by an integral casing or may be realized by a separate casing.

演奏情報入力装置161は、プレーヤの演奏情報を入力するための装置である。例えば本実施形態により実現される音楽ゲームが、歌の演奏ゲームである場合には、入力装置160の入力情報は、歌(ボーカル)の演奏情報となる。そして演奏情報入力装置161は図2(A)で説明するマイク162等により実現される。本実施形態により実現される音楽ゲームが、楽器の演奏ゲームである場合には、入力装置160の入力情報は、楽器の演奏情報となる。そして演奏情報入力装置161は、弦楽器(ギター)、打楽器(ドラム、太鼓)、鍵盤楽器(ピアノ、キーボード)などの楽器、或いは当該楽器を模した装置により実現できる。   The performance information input device 161 is a device for inputting player performance information. For example, when the music game realized by this embodiment is a song performance game, the input information of the input device 160 is song (vocal) performance information. The performance information input device 161 is realized by a microphone 162 described with reference to FIG. When the music game realized by this embodiment is a musical instrument performance game, the input information of the input device 160 is musical instrument performance information. The performance information input device 161 can be realized by a musical instrument such as a stringed instrument (guitar), a percussion instrument (drum, drum), a keyboard instrument (piano, keyboard), or a device imitating the instrument.

振動デバイス164(振動発生部)は、警告等のための振動を発生するデバイスであり、例えば振動モータ(バイブレータ)などにより実現される。振動モータは、例えば、偏芯した錘を回転させることで振動を発生する。具体的には駆動軸の両端に偏心した錘を取り付けてモーター自体が揺れるようにする。なお振動デバイス164は、振動モータには限定されず、例えばピエゾ素子などにより実現されるものであってもよい。   The vibration device 164 (vibration generating unit) is a device that generates vibration for warning or the like, and is realized by, for example, a vibration motor (vibrator). For example, the vibration motor generates vibration by rotating an eccentric weight. Specifically, eccentric weights are attached to both ends of the drive shaft so that the motor itself swings. The vibration device 164 is not limited to a vibration motor, and may be realized by, for example, a piezoelectric element.

記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。ゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SDD、光ディスク装置などにより実現できる。記憶部170は、空間情報記憶部172、楽曲情報記憶部174、パラメータ記憶部176、描画バッファ178を含む。   The storage unit 170 stores various types of information. The storage unit 170 functions as a work area such as the processing unit 100 or the communication unit 196. The game program and game data necessary for executing the game program are held in the storage unit 170. The function of the storage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), HDD (hard disk drive), SDD, optical disk device, or the like. The storage unit 170 includes a spatial information storage unit 172, a music information storage unit 174, a parameter storage unit 176, and a drawing buffer 178.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by an optical disk (DVD, BD, CD), HDD, semiconductor memory (ROM), or the like. . The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an input device, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

頭部装着型表示装置200(以下、適宜、HMDと呼ぶ)は、プレーヤの頭部に装着されて、プレーヤの眼前に画像を表示する装置である。HMD200は非透過型であることが望ましいが、透過型であってもよい。またHMD200は、いわゆるメガネタイプのHMDであってもよい。   The head-mounted display device 200 (hereinafter referred to as HMD as appropriate) is a device that is mounted on the player's head and displays an image in front of the player's eyes. The HMD 200 is preferably a non-transmissive type, but may be a transmissive type. The HMD 200 may be a so-called glasses-type HMD.

HMD200は、センサ部210、表示部220、処理部240を含む。なおHMD200に発光素子を設ける変形実施も可能である。センサ部210は、例えばヘッドトラッキングなどのトラッキング処理を実現するためものである。例えばセンサ部210を用いたトラッキング処理により、HMD200の位置、方向を特定する。HMD200の位置、方向が特定されることで、プレーヤの視点位置、視線方向を特定できる。   The HMD 200 includes a sensor unit 210, a display unit 220, and a processing unit 240. A modification in which a light emitting element is provided in the HMD 200 is also possible. The sensor unit 210 is for realizing tracking processing such as head tracking, for example. For example, the position and direction of the HMD 200 are specified by tracking processing using the sensor unit 210. By specifying the position and direction of the HMD 200, the viewpoint position and line-of-sight direction of the player can be specified.

トラッキング方式としては種々の方式を採用できる。トラッキング方式の一例である第1のトラッキング方式では、後述の図2(A)、図2(B)で詳細に説明するように、センサ部210として複数の受光素子(フォトダイオード等)を設ける。そして外部に設けられた発光素子(LED等)からの光(レーザー等)をこれらの複数の受光素子により受光することで、現実世界の3次元空間でのHMD200(プレーヤの頭部)の位置、方向を特定する、第2のトラッキング方式では、後述の図3(A)、図3(B)で詳細に説明するように、複数の発光素子(LED)をHMD200に設ける。そして、これらの複数の発光素子からの光を、外部に設けられた撮像部で撮像することで、HMD200の位置、方向を特定する。第3のトラッキング方式では、センサ部210としてモーションセンサを設け、このモーションセンサを用いてHMD200の位置、方向を特定する。モーションセンサは例えば加速度センサやジャイロセンサなどにより実現できる。例えば3軸の加速度センサと3軸のジャイロセンサを用いた6軸のモーションセンサを用いることで、現実世界の3次元空間でのHMD200の位置、方向を特定できる。なお、第1のトラッキング方式と第2のトラッキング方式の組合わせ、或いは第1のトラッキング方式と第3のトラッキング方式の組合わせなどにより、HMD200の位置、方向を特定してもよい。   Various methods can be adopted as the tracking method. In the first tracking method, which is an example of the tracking method, a plurality of light receiving elements (photodiodes and the like) are provided as the sensor unit 210, as will be described in detail with reference to FIGS. 2A and 2B described later. Then, by receiving light (laser or the like) from a light emitting element (LED or the like) provided outside by the plurality of light receiving elements, the position of the HMD 200 (player's head) in the real world three-dimensional space, In the second tracking method for specifying the direction, a plurality of light emitting elements (LEDs) are provided in the HMD 200, as will be described in detail with reference to FIGS. 3A and 3B described later. And the position and direction of HMD200 are pinpointed by imaging the light from these light emitting elements with the imaging part provided outside. In the third tracking method, a motion sensor is provided as the sensor unit 210, and the position and direction of the HMD 200 are specified using this motion sensor. The motion sensor can be realized by, for example, an acceleration sensor or a gyro sensor. For example, by using a 6-axis motion sensor using a 3-axis acceleration sensor and a 3-axis gyro sensor, the position and direction of the HMD 200 in a three-dimensional space in the real world can be specified. Note that the position and direction of the HMD 200 may be specified by a combination of the first tracking method and the second tracking method, or a combination of the first tracking method and the third tracking method.

HMD200の表示部220は例えば液晶ディスプレイ(LCD)や有機ELディスプレイなどにより実現できる。例えばHMD200には、表示部220として、プレーヤの左目の前に配置される第1のディスプレイと、右目の前に配置される第2のディスプレイが設けられており、例えば立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左目用画像と右目用画像を生成し、第1のディスプレイに左目用画像を表示し、第2のディスプレイに右目用画像を表示すればよい。   The display unit 220 of the HMD 200 can be realized by, for example, a liquid crystal display (LCD) or an organic EL display. For example, the HMD 200 is provided with a first display arranged in front of the player's left eye and a second display arranged in front of the right eye as the display unit 220, so that, for example, stereoscopic display is possible. ing. When performing stereoscopic display, for example, a left-eye image and a right-eye image with different parallaxes are generated, the left-eye image is displayed on the first display, and the right-eye image is displayed on the second display.

HMD200の処理部240は、HMD200において必要な各種の処理を行う。例えば処理部240は、センサ部210の制御処理や表示部220の表示制御処理などを行う。また処理部240は、3次元音響(立体音響)処理を行って、3次元的な音の方向や距離や広がりの再現を実現する。即ち、3次元空間での音場を制御する処理を行う。このような3次元音響処理が施された音は、HMD200に設けられたヘッドホン端子を介して、ヘッドホン等により実現される音出力部192に出力される。   The processing unit 240 of the HMD 200 performs various processes necessary for the HMD 200. For example, the processing unit 240 performs control processing of the sensor unit 210, display control processing of the display unit 220, and the like. In addition, the processing unit 240 performs a three-dimensional sound (stereoscopic sound) process to realize reproduction of a three-dimensional sound direction, distance, and spread. That is, a process for controlling the sound field in the three-dimensional space is performed. The sound subjected to such three-dimensional acoustic processing is output to a sound output unit 192 realized by headphones or the like via a headphone terminal provided in the HMD 200.

音出力部192は、本実施形態により生成された音を出力するものであり、例えばヘッドホン、或いはテレビやオーディオ装置に設けられたスピーカ等により実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and can be realized by, for example, headphones or a speaker provided in a television or an audio device.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。   The I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and the function can be realized by an ASIC for I / F processing or the like. The portable information storage medium 195 is for a user to save various types of information, and is a storage device that retains storage of such information even when power is not supplied. The portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.

通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (another apparatus) via a wired or wireless network, and functions thereof are hardware such as a communication ASIC or communication processor, or communication firmware. Can be realized.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170、補助記憶装置194)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment is obtained from an information storage medium of a server (host device) via an information storage medium 180 (or storage unit 170, auxiliary storage) via a network and communication unit 196. May be distributed to the device 194). Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、入力装置160からの入力情報やHMD200でのトラッキング情報(HMDの位置、方向、或いは視点位置、視線方向)と、プログラムなどに基づいて、ゲーム処理、ゲーム成績演算処理、表示処理、或いは音処理などを行う。   The processing unit 100 (processor) performs game processing, game results calculation processing based on input information from the input device 160, tracking information (HMD position, direction, or viewpoint position, line-of-sight direction) in the HMD 200, a program, and the like. Display processing or sound processing.

処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Processing Unit)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。   Each processing (each function) of this embodiment performed by each unit of the processing unit 100 can be realized by a processor (a processor including hardware). For example, each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program. In the processor, for example, the function of each unit may be realized by individual hardware, or the function of each unit may be realized by integrated hardware. The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Processing Unit) can be used. The processor may be an ASIC hardware circuit. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD) or an optical storage device such as an optical disk device. For example, the memory stores instructions that can be read by a computer, and the processing (function) of each unit of the processing unit 100 is realized by executing the instructions by the processor. The instruction here may be an instruction set constituting a program, or an instruction for instructing an operation to the hardware circuit of the processor.

処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。演算処理部110は、ゲーム処理部111、ゲーム成績演算部118、表示処理部120、音処理部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 100 includes an input processing unit 102, an arithmetic processing unit 110, and an output processing unit 140. The arithmetic processing unit 110 includes a game processing unit 111, a game result calculation unit 118, a display processing unit 120, and a sound processing unit 130. As described above, each process of the present embodiment executed by these units can be realized by a processor (or a processor and a memory). Various modifications such as omitting some of these components (each unit) or adding other components are possible.

入力処理部102は、入力情報やトラッキング情報を受け付ける処理や、記憶部170から情報を読み出す処理や、通信部196を介して情報を受信する処理を、入力処理として行う。例えば入力処理部102は、入力装置160を用いてプレーヤが入力した入力情報やHMD200のセンサ部210等により検出されたトラッキング情報(プレーヤの位置情報、視線情報等)を取得する処理や、読み出し命令で指定された情報を、記憶部170から読み出す処理や、ゲーム装置の外部装置(サーバ、他のゲーム装置等)からネットワークを介して情報を受信する処理を、入力処理として行う。ここで受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。   The input processing unit 102 performs processing for receiving input information and tracking information, processing for reading information from the storage unit 170, and processing for receiving information via the communication unit 196 as input processing. For example, the input processing unit 102 obtains input information input by the player using the input device 160, tracking information (player position information, line-of-sight information, etc.) detected by the sensor unit 210 of the HMD 200, or a read command The process of reading out the information specified in (1) from the storage unit 170 and the process of receiving information from an external device (server, other game device, etc.) of the game device via the network are performed as input processing. Here, the reception process includes a process of instructing the communication unit 196 to receive information, a process of acquiring information received by the communication unit 196, and writing the information in the storage unit 170, and the like.

演算処理部110は、各種の演算処理を行う。例えばゲーム処理、ゲーム成績演算処理、表示処理、或いは音処理などの演算処理を行う。   The arithmetic processing unit 110 performs various arithmetic processes. For example, arithmetic processing such as game processing, game results calculation processing, display processing, or sound processing is performed.

ゲーム処理部111(ゲーム処理のプログラムモジュール)はプレーヤがゲームをプレイするための種々のゲーム処理を行う。ゲーム処理部111は、ゲーム進行処理部112、評価処理部113、キャラクタ処理部114、パラメータ処理部115、オブジェクト空間設定部116、仮想カメラ制御部117を含む。   The game processing unit 111 (game processing program module) performs various game processes for the player to play the game. The game processing unit 111 includes a game progress processing unit 112, an evaluation processing unit 113, a character processing unit 114, a parameter processing unit 115, an object space setting unit 116, and a virtual camera control unit 117.

ゲーム進行処理部112は、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などを行う。評価処理部113は、プレーヤのゲームプレイの評価処理を行う。例えば音楽ゲームでのプレーヤの演奏や、ゲーム操作についての評価処理を行う。音楽ゲームに使用される楽曲情報は楽曲情報記憶部174に記憶される。   The game progress processing unit 112 performs a process of starting a game when the game start condition is satisfied, a process of progressing the game, or a process of ending the game when the game end condition is satisfied. The evaluation processing unit 113 performs a game play evaluation process for the player. For example, a player's performance in a music game and an evaluation process for game operation are performed. Music information used in the music game is stored in the music information storage unit 174.

キャラクタ処理部114は、キャラクタに関する種々の処理を行う。例えばオブジェクト空間(ゲーム空間)においてキャラクタを移動させる処理や、キャラクタを動作させる処理を行う。例えばキャラクタを動作させる処理は、モーションデータを用いたモーション処理(モーション再生等)により実現できる。パラメータ処理部115は、ゲームに使用される種々のパラメータ(ゲームパラメータ)の演算処理を行う。例えばパラメータの値を増減させる処理を行う。パラメータの情報はパラメータ記憶部176に記憶される。   The character processing unit 114 performs various processes related to the character. For example, processing for moving the character in the object space (game space) or processing for moving the character is performed. For example, the process of moving the character can be realized by motion processing (motion reproduction or the like) using motion data. The parameter processing unit 115 performs calculation processing of various parameters (game parameters) used in the game. For example, a process of increasing or decreasing the parameter value is performed. The parameter information is stored in the parameter storage unit 176.

オブジェクト空間設定部116は、複数のオブジェクトが配置されるオブジェクト空間(仮想3次元空間)の設定処理を行う。例えば、キャラクタ(人、動物、ロボット等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170の空間情報記憶部172には、オブジェクト空間での複数のオブジェクト(パーツオブジェクト)の位置、回転角度(方向)等の情報が空間情報として記憶される。オブジェクト空間設定部116は、例えば各フレーム毎にこの空間情報を更新する処理などを行う。   The object space setting unit 116 performs an object space (virtual three-dimensional space) setting process in which a plurality of objects are arranged. For example, various objects (polygons, free-form surfaces, subdivision surfaces, etc.) representing display objects such as characters (people, animals, robots, etc.), maps (terrain), buildings, auditoriums, courses (roads), trees, walls, water surfaces, etc. The object is arranged and set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, the spatial information storage unit 172 of the storage unit 170 stores information such as the positions and rotation angles (directions) of a plurality of objects (part objects) in the object space as spatial information. The object space setting unit 116 performs a process of updating the space information for each frame, for example.

仮想カメラ制御部117は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。この仮想カメラはプレーヤの視点に相当する。立体視表示の場合は、左目用の第1の視点(左目用の第1の仮想カメラ)と、右目用の第2の視点(右目用の第2の仮想カメラ)が設定される。   The virtual camera control unit 117 performs control processing of a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do. This virtual camera corresponds to the viewpoint of the player. In the case of stereoscopic display, a first viewpoint for the left eye (first virtual camera for the left eye) and a second viewpoint for the right eye (second virtual camera for the right eye) are set.

ゲーム成績演算部118はプレーヤのゲーム成績を演算する処理を行う。例えばプレーヤのゲームプレイにより獲得された得点、ポイントなどのゲーム成績の演算処理を行う。   The game score calculation unit 118 performs processing for calculating the game score of the player. For example, calculation processing of game results such as scores and points acquired by the game play of the player is performed.

表示処理部120は、ゲーム画像の表示処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、HMD200の表示部220に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点。左目用、右目用の第1、第2の視点)から見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。   The display processing unit 120 performs a game image display process. For example, a drawing process is performed based on the results of various processes (game process, simulation process) performed by the processing unit 100, thereby generating an image and displaying it on the display unit 220 of the HMD 200. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 178 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. As a result, an image that can be seen from the virtual camera (given viewpoint, left eye and right eye first and second viewpoints) in the object space is generated. Note that the drawing processing performed by the display processing unit 120 can be realized by vertex shader processing, pixel shader processing, or the like.

音処理部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。なお音処理部130の音処理の一部(例えば3次元音響処理)を、HMD200の処理部240により実現してもよい。   The sound processing unit 130 performs sound processing based on the results of various processes performed by the processing unit 100. Specifically, game sounds such as music (music, BGM), sound effects, or sounds are generated, and the game sounds are output to the sound output unit 192. Note that part of the sound processing of the sound processing unit 130 (for example, three-dimensional sound processing) may be realized by the processing unit 240 of the HMD 200.

出力処理部140は各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理や、通信部196を介して情報を送信する処理を、出力処理として行う。例えば出力処理部140は、書き込み命令で指定された情報を、記憶部170に書き込む処理や、ゲーム装置の外部装置(サーバ、他のゲーム装置等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。   The output processing unit 140 performs various types of information output processing. For example, the output processing unit 140 performs processing for writing information in the storage unit 170 and processing for transmitting information via the communication unit 196 as output processing. For example, the output processing unit 140 writes information specified by the write command into the storage unit 170, or transmits information to an external device (server, other game device, etc.) of the game device via the network. I do. The transmission process is a process of instructing the communication unit 196 to transmit information, or instructing the communication unit 196 to transmit information.

そして本実施形態のゲーム装置は、図1に示すように、入力処理部102、ゲーム処理部111、表示処理部120を含む。入力処理部102は、HMD200(頭部装着型表示装置)を装着して現実世界のプレイエリア又はゲーム装置筐体内で移動するプレーヤの位置情報を取得する。例えばトラッキング処理によりHMD200の位置情報、方向情報が検出された場合に、入力処理部102は、例えばHMD200の位置情報をプレーヤの位置情報として取得する。また入力処理部102は、HMD200の位置情報、方向情報により特定されるプレーヤの視点位置情報、視線情報(視線方向情報)を取得する。   And the game device of this embodiment contains the input process part 102, the game process part 111, and the display process part 120, as shown in FIG. The input processing unit 102 wears the HMD 200 (head-mounted display device) and acquires position information of a player who moves in a real-world play area or game device housing. For example, when position information and direction information of the HMD 200 are detected by tracking processing, the input processing unit 102 acquires, for example, position information of the HMD 200 as position information of the player. Further, the input processing unit 102 acquires the viewpoint position information and line-of-sight information (line-of-sight direction information) of the player specified by the position information and direction information of the HMD 200.

ゲーム処理部111は、複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理を行う。例えばオブジェクト空間であるゲーム空間(仮想3次元空間)には、キャラクタ等の複数のオブジェクトが配置されており、ゲーム処理部111は、このゲーム空間でのゲームを実現するための種々のゲーム処理(ゲーム進行処理、キャラクタ処理、オブジェクト空間設定処理、或いは仮想カメラ制御処理等)を実行する。そして表示処理部120は、ゲーム空間において所与の視点(左目用、右目用の第1、第2の視点)から見えるゲーム画像を、HMD200の表示部220(第1、第2のディスプレイ)に表示する処理を行う。即ち、ゲーム空間であるオブジェクト空間において、プレーヤの視点(仮想カメラ)から見えるゲーム画像を表示する処理を行う。この場合のプレーヤの視点は、プレーヤの視点位置情報、視線情報(視線方向情報)により設定される。   The game processing unit 111 performs processing of a game played by the player in a virtual game space where a plurality of objects are arranged. For example, in a game space (virtual three-dimensional space) that is an object space, a plurality of objects such as characters are arranged, and the game processing unit 111 performs various game processes ( Game progress processing, character processing, object space setting processing, virtual camera control processing, or the like). Then, the display processing unit 120 displays a game image viewed from a given viewpoint (first and second viewpoints for left eye and right eye) in the game space on the display unit 220 (first and second displays) of the HMD 200. Process to display. That is, a process of displaying a game image that can be seen from the viewpoint (virtual camera) of the player in an object space that is a game space. In this case, the player's viewpoint is set by the player's viewpoint position information and line-of-sight information (line-of-sight direction information).

そして本実施形態では、ゲーム処理部111は、ゲーム空間でのゲーム画像と、モデル空間での危険報知画像(モデル画像)のいずれを表示するかを、プレイエリア又はゲーム装置筐体内でのプレーヤの位置に応じて切り替える処理を行う。例えばプレーヤの位置の検出結果に基づいて、ゲーム画像から危険報知画像に切り替えたり、危険報知画像からゲーム画像に切り替える処理を行う。   In this embodiment, the game processing unit 111 determines which of the game image in the game space and the danger notification image (model image) in the model space is to be displayed by the player in the play area or the game apparatus housing. A process of switching according to the position is performed. For example, based on the detection result of the position of the player, a process of switching from the game image to the danger notification image or switching from the danger notification image to the game image is performed.

プレイエリア(プレイフィールド、プレイスペース)は、ユーザがゲームプレイを行うエリア(フィールド、スペース)として予め規定(設定)されているエリアである。このプレイエリアは、例えばプレーヤの位置情報等のトラッキングが可能な範囲を内包するエリアである。プレイエリアは、例えば周囲が壁で囲まれたエリアであってもよいが、オープンスペースのエリアであってもよい。ゲーム装置筐体内とは、ゲーム装置が、その内側にプレーヤが入ることができる筐体を有している場合に、その筐体の内部の空間である。ゲーム装置筐体内には、プレーヤがゲームプレイに使用する各種の装置(例えば操作装置)、機具を設けることができる。   The play area (play field, play space) is an area defined (set) in advance as an area (field, space) in which the user plays a game. This play area is an area including a range in which, for example, the position information of the player can be tracked. The play area may be, for example, an area surrounded by walls, but may be an open space area. The inside of the game device case is a space inside the case when the game device has a case in which a player can enter. Various devices (for example, operation devices) and equipment used by the player for game play can be provided in the game device housing.

本実施形態では、このようなプレイエリア又はゲーム装置筺体内でのプレーヤの位置に応じて、ゲーム空間でのゲーム画像とモデル空間での危険報知画像の切り替え処理を行う。   In the present embodiment, switching processing between the game image in the game space and the danger notification image in the model space is performed according to the position of the player in such a play area or the game apparatus housing.

ここで危険報知画像(モデル画像)は、プレイエリアのモデル情報又はゲーム装置筐体のモデル情報に基づき設定されるモデル空間での画像である。例えば危険報知画像は、ゲーム空間を設定する空間情報とは異なる空間情報により設定されたモデル空間において所与の視点から見える画像である。例えばゲーム空間は、ゲームに登場するオブジェクト(表示物)のモデル情報に基づき設定される空間である。これに対してモデル空間は、プレイエリア又はゲーム装置筺体のモデル情報に基づき設定される空間である。例えばモデル空間は、プレイエリア又はゲーム装置筺体を構成する表示物をモデル化したオブジェクトのモデル情報(ポリゴンデータ、色やテクスチャ等の属性データ等)により設定される空間である。   Here, the danger notification image (model image) is an image in the model space set based on the model information of the play area or the model information of the game apparatus housing. For example, the danger notification image is an image that can be seen from a given viewpoint in a model space set by spatial information different from the spatial information for setting the game space. For example, the game space is a space set based on model information of an object (display object) appearing in the game. On the other hand, the model space is a space set based on the model information of the play area or the game apparatus housing. For example, the model space is a space set by model information (polygon data, attribute data such as colors and textures) of an object obtained by modeling a display object that constitutes a play area or a game apparatus housing.

例えば後述する図4(A)、図4(B)ではボックス状の個室がプレイエリアになっている。プレイエリアのモデル情報は、この個室をオブジェクト(3次元オブジェクト)のモデルで表現した場合のモデル情報である。例えば個室のモデルは、壁301〜304、ドア306等のオブジェクト(1又は複数のポリゴンされるオブジェクト)で構成されており、現実世界の個室の形状と、ほぼ同じ形状(或いは簡略化した形状)を有するモデルとなっている。モデル空間の空間情報は、このような個室のモデルのモデル情報に基づいて設定されている。従って、ゲーム画像から危険報知画像に切り替わった場合に、プレーヤが装着するHMD200には、あたかも現実世界の個室の中にいるように見える画像が表示されるようになる。図5に例示するゲーム装置筐体320のモデル情報についても場合も同様である。   For example, in FIG. 4A and FIG. 4B described later, a box-shaped private room is a play area. The model information of the play area is model information when this private room is expressed by an object (three-dimensional object) model. For example, a model of a private room is composed of objects (one or a plurality of polygonal objects) such as walls 301 to 304, doors 306, and the like (or a simplified shape) that is substantially the same as the shape of a real room private room. It has become a model with. The space information of the model space is set based on the model information of the model of such a private room. Therefore, when the game image is switched to the danger notification image, the HMD 200 worn by the player displays an image that looks as if it is in a real room. The same applies to the model information of the game apparatus housing 320 illustrated in FIG.

例えばプレイエリアのモデル情報は、プレイエリアの形状情報を少なくとも含むモデル情報である。ゲーム装置筐体のモデル情報は、ゲーム装置筐体の形状情報を少なくとも含むモデル情報である。これらの形状情報は例えばポリゴンデータである。ポリゴンデータは、例えばプレイエリアやゲーム装置筐体の表示物をモデル化したオブジェクトを構成するポリゴンのデータである。   For example, the play area model information is model information including at least play area shape information. The model information of the game apparatus housing is model information including at least shape information of the game apparatus housing. Such shape information is, for example, polygon data. The polygon data is, for example, polygon data constituting an object that models a display object in a play area or a game apparatus housing.

プレイエリアやゲーム装置筐体のモデル情報は、少なくとも形状情報を含んでいればよく、現実世界のプレイエリアやゲーム装置筐体の色やテクスチャ(素材)を忠実(詳細)に再現している必要はない。例えばプレイエリアやゲーム装置筐体のモデル情報は、現実世界のプレイエリアやゲーム装置筐体の色やテクスチャの情報を省いたり、単純化したものであってもよい。またモデル情報が含む形状情報についても、現実世界のプレイエリアやゲーム装置筐体を簡素化(ポリゴン数が少ない)した形状の情報であってもよい。例えばプレイエリアやゲーム装置筐体のモデルは、白などの単色で構成されるワイヤーフレームのモデル(例えば後述する図19(C))であってもよい。   The model information of the play area and game device housing only needs to include at least shape information, and the color and texture (material) of the real world play area and game device housing must be faithfully reproduced (detailed). There is no. For example, the model information of the play area and the game device housing may be information obtained by omitting or simplifying information on the color and texture of the real world play area and game device housing. Further, the shape information included in the model information may also be information on a shape obtained by simplifying the real-world play area or game device housing (the number of polygons is small). For example, the model of the play area or the game apparatus housing may be a wire frame model (for example, FIG. 19C described later) configured by a single color such as white.

例えばオブジェクト空間であるゲーム空間は、ゲームに登場する複数のオブジェクト(表示物)の位置、方向(回転角度)等の情報と、オブジェクトのモデル情報(形状、色、テクスチャ)を含む空間情報に基づいて設定される。例えばワールド座標系(絶対座標系)での複数のオブジェクトの位置、方向等の情報やモデル情報を含む空間情報が、図1の空間情報記憶部172に記憶され、オブジェクト空間設定部116は、この空間情報に基づいてゲーム空間を設定する。またオブジェクト空間設定部116は、例えば各フレーム毎にこの空間情報を更新する処理を行う。これによりゲーム空間でのゲーム処理が実行される。そして表示処理部120は、この空間情報により設定されるゲーム空間において所与の視点から見える画像を、ゲーム画像として生成する。   For example, a game space which is an object space is based on spatial information including information such as the position and direction (rotation angle) of a plurality of objects (display objects) appearing in the game and model information (shape, color, texture) of the objects. Is set. For example, spatial information including information such as positions and directions of a plurality of objects in the world coordinate system (absolute coordinate system) and model information is stored in the spatial information storage unit 172 in FIG. 1, and the object space setting unit 116 A game space is set based on the space information. The object space setting unit 116 performs a process of updating this space information for each frame, for example. Thereby, game processing in the game space is executed. Then, the display processing unit 120 generates an image that can be seen from a given viewpoint in the game space set by the spatial information as a game image.

これに対してモデル空間は、プレイエリアやゲーム装置筐体を構成するオブジェクトの位置、方向等の情報と、オブジェクトのモデル情報(形状、色、テクスチャ)を含む空間情報に基づいて設定される。この空間情報も図1の空間情報記憶部172に記憶される。この場合にモデル空間も、ゲーム空間と同様に、オブジェクト空間に相当するものになる。そして表示処理部120は、ゲーム空間とは異なる空間情報により設定されるモデル空間において、所与の視点から見える画像を、危険報知画像として生成する。この場合に、ゲーム画像の生成のためにゲーム空間に設定される視点と、危険画像の生成のためにモデル空間に設定される視点とは、同じであってもよいし、異なっていてもよい。即ち、ゲーム空間での視点の視点位置、視線方向と、モデル空間での視点の視点位置、視線方向は、同じであってもよいし、異なっていてもよい。   On the other hand, the model space is set on the basis of information such as the position and direction of objects constituting the play area and the game apparatus housing, and space information including model information (shape, color, texture) of the objects. This spatial information is also stored in the spatial information storage unit 172 of FIG. In this case, the model space also corresponds to the object space, like the game space. And the display process part 120 produces | generates the image seen from a given viewpoint as a danger alerting | reporting image in the model space set by the space information different from game space. In this case, the viewpoint set in the game space for generating the game image and the viewpoint set in the model space for generating the dangerous image may be the same or different. . That is, the viewpoint position and line-of-sight direction of the viewpoint in the game space and the viewpoint position and line-of-sight direction of the viewpoint in the model space may be the same or different.

またゲーム処理部111は、危険報知画像を生成するモデル空間での視点の視点位置又は視線方向を、ゲーム画像を生成するゲーム空間での視点とは異なる視点位置又は視線方向に設定する。例えばゲーム空間での視点は、仮想プレーヤの視点位置、視線方向に設定される。そしてHMD200を装着した現実世界のプレーヤが、例えば図4(A)、図4(B)の個室のプレイエリアにおいて移動したり、首を振ったり、しゃがんだりすると、これに連動して仮想プレーヤの視点位置、視線方向も変化する。例えば現実世界のプレーヤが移動すれば、ゲーム空間(VR空間)での仮想プレーヤの視点位置も、その移動に対応する方向に移動する。また現実世界のプレーヤが首を振ると、ゲーム空間での仮想プレーヤの視線方向も、首を振った方向に対応する方向を向くように変化する。   Further, the game processing unit 111 sets the viewpoint position or line-of-sight direction of the viewpoint in the model space for generating the danger notification image to a viewpoint position or line-of-sight direction different from the viewpoint in the game space for generating the game image. For example, the viewpoint in the game space is set to the viewpoint position and line-of-sight direction of the virtual player. When the real-world player wearing the HMD 200 moves, swings his head, or crouches in the play area of the private room shown in FIGS. 4A and 4B, for example, the virtual player The viewpoint position and the line-of-sight direction also change. For example, when a real-world player moves, the viewpoint position of the virtual player in the game space (VR space) also moves in a direction corresponding to the movement. Further, when the player in the real world shakes his / her head, the direction of the line of sight of the virtual player in the game space also changes so as to face the direction corresponding to the direction of the player's head.

この場合にモデル空間での視点の視点位置、視線方向を、このようなゲーム空間での視点の視点位置、視線方向とは異ならせる。例えばゲーム画像から危険報知画像に切り替わるイベントが発生した場合に、例えば仮想プレーヤを俯瞰するような視点位置、視線方向に切り替え、モデル空間において当該視点位置、視線方向の視点から見える画像を、危険報知画像として生成する。このようにすることで、危険報知画像に適した視点位置、視線方向に視点を設定して、危険報知画像を生成できるようになる。   In this case, the viewpoint position and gaze direction of the viewpoint in the model space are made different from the viewpoint position and gaze direction of the viewpoint in such a game space. For example, when an event that switches from a game image to a danger notification image occurs, for example, the viewpoint position and the line-of-sight direction that overlooks the virtual player are switched, and an image that can be viewed from the viewpoint in the model space and the viewpoint direction is displayed in the danger notification Generate as an image. In this way, it is possible to generate a danger notification image by setting a viewpoint in a viewpoint position and a line-of-sight direction suitable for the danger notification image.

またゲーム処理部111は、プレイエリア又はゲーム装置筐体内においてプレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合、或いは境界を越えたプレーヤの移動が検出された場合に、ゲーム画像から危険報知画像への切り替え処理を行う。   Further, the game processing unit 111 detects the player's approach or arrival to the boundary of the area set as the player's movement range in the play area or the game apparatus housing, or the movement of the player beyond the boundary is detected. In the case where the game image is detected, a process for switching from the game image to the danger notification image is performed.

例えば本実施形態では、プレイエリア又はゲーム装置筐体内に、プレーヤの移動範囲として想定されるエリアが設定(規定)される。このエリアは、ゲーム装置のイニシャライズ設定において、例えばオペレータがエリアの設定情報(座標等)を入力することで設定されてもよい。例えばエリアの設定情報を登録情報として記憶部170に記憶しておく。   For example, in the present embodiment, an area assumed as a movement range of the player is set (defined) in the play area or the game apparatus housing. This area may be set, for example, when an operator inputs setting information (such as coordinates) of the area in the initialization setting of the game device. For example, area setting information is stored in the storage unit 170 as registration information.

そしてゲーム処理部111は、このエリアの境界へのプレーヤの接近又は到達が検出された場合に、ゲーム画像から危険報知画像に切り替える。この場合にエリアの境界へのプレーヤの接近又は到達は、入力処理部102により取得されたプレーヤの位置情報等に基づいて検出できる。例えばプレーヤの位置と境界との距離を求めたり、プレーヤの位置と境界との交差判定を行うことで、エリアの境界へのプレーヤの接近又は到達を検出できる。   Then, the game processing unit 111 switches from the game image to the danger notification image when the approach or arrival of the player to the boundary of this area is detected. In this case, the approach or arrival of the player to the boundary of the area can be detected based on the position information of the player acquired by the input processing unit 102. For example, the approach or arrival of the player to the boundary of the area can be detected by obtaining the distance between the player's position and the boundary, or by determining the intersection between the player's position and the boundary.

或いはゲーム処理部111は、エリアの境界を越えたプレーヤの移動が検出された場合に、ゲーム画像から危険報知画像に切り替える。例えばプレーヤの位置(代表位置)がエリアの境界を越えた瞬間に、ゲーム画像から危険報知画像に切り替えてもよい。或いは、境界を越えてから所定距離移動した場合や所定時間経過後に、ゲーム画像から危険報知画像に切り替えてもよい。   Alternatively, the game processing unit 111 switches from the game image to the danger notification image when the movement of the player across the area boundary is detected. For example, the game image may be switched to the danger notification image at the moment when the player position (representative position) exceeds the boundary of the area. Alternatively, the game image may be switched to the danger notification image when moving a predetermined distance after exceeding the boundary or after a predetermined time has elapsed.

また表示処理部120は、エリアの外側に対応する場所に観客の画像が表示されるゲーム画像を、HMD200に表示する処理を行う。例えばゲーム空間において、エリアの外側に対応する場所に、観客席を設定配置する。そして現実世界においてプレーヤがエリアの境界に接近した場合には、ゲーム空間においては、プレーヤに対応する仮想プレーヤ(ゲーム空間でのプレーヤの視点)が観客席に接近するようにする。また現実世界においてプレーヤがエリアの境界を越えて移動した場合には、ゲーム空間においては、仮想プレーヤが観客席に侵入するようにする。   In addition, the display processing unit 120 performs processing for displaying, on the HMD 200, a game image in which a spectator image is displayed at a location corresponding to the outside of the area. For example, in the game space, spectator seats are set and arranged at locations corresponding to the outside of the area. When the player approaches the boundary of the area in the real world, the virtual player corresponding to the player (the player's viewpoint in the game space) approaches the spectator seat in the game space. When the player moves beyond the boundary of the area in the real world, the virtual player enters the spectator seat in the game space.

また表示処理部120は、ゲーム画像から危険報知画像に切り替わった場合に、プレーヤの移動を誘導する案内情報の表示処理を行う。一例としては、危険報知画像に対して案内情報の画像を重畳して表示する。或いは表示処理部120は、ゲーム画像から危険報知画像に切り替わった場合に、プレーヤの移動を誘導するアバターの表示処理を行う。このアバターは、例えばキャラクタのように3次元オブジェクトで構成されるモデルオブジェクトにより表現できる。このアバターによる会話表示や音声通知により、プレーヤの移動を誘導する。   In addition, the display processing unit 120 performs display processing of guidance information that guides the player's movement when the game image is switched to the danger notification image. As an example, an image of guidance information is displayed superimposed on the danger notification image. Or the display process part 120 performs the display process of the avatar which guides a player's movement, when it switches from a game image to a danger notification image. This avatar can be expressed by a model object composed of a three-dimensional object such as a character. The player's movement is guided by the conversation display or voice notification by the avatar.

そして、例えばプレイエリア又はゲーム装置筐体内に、プレーヤの移動範囲として想定されるエリアが設定されていたとする。この場合には、このエリアの境界に向かう方向とは異なる誘導方向にプレーヤの移動を誘導する案内情報を、表示したり、当該誘導方向にプレーヤを誘導するアバターを、表示する。例えばエリアの境界に向かう方向の逆方向である誘導方向や、エリアの境界に向かう方向と交差する誘導方向などに、プレーヤの移動を誘導する案内情報を表示したり、当該誘導方向にプレーヤを誘導するアバターを表示する。   For example, it is assumed that an area assumed as a movement range of the player is set in the play area or the game apparatus housing. In this case, guidance information for guiding the player's movement in a guidance direction different from the direction toward the boundary of the area is displayed, or an avatar for guiding the player in the guidance direction is displayed. For example, guidance information that guides the player's movement is displayed in the guidance direction that is opposite to the direction toward the area boundary, the guidance direction that intersects the direction toward the area boundary, or the player is guided in the guidance direction. The avatar to be displayed is displayed.

また表示処理部120は、ゲーム画像と危険報知画像の間の画像の切り替えをシームレスに切り替える処理を行う。例えばゲーム画像から危険報知画像に突然に切り替わるのではなく、ゲーム画像から危険報知画像に徐々に切り替わるようにする。同様に危険報知画像からゲーム画像に突然に切り替わるのではなく、危険報知画像からゲーム画像に徐々に切り替わるようにする。この画像のシームレスの切り替え表示は、例えばフェイドイン・フェイドアウトの処理や、ゲーム画像と危険報知画像を半透明合成で合成しながら切り替える処理や、或いはワイプイン・ワイプアウトの処理などにより実現できる。   The display processing unit 120 performs a process of seamlessly switching the image between the game image and the danger notification image. For example, instead of suddenly switching from the game image to the danger notification image, the game image is gradually switched to the danger notification image. Similarly, instead of suddenly switching from the danger notification image to the game image, the danger notification image is gradually switched to the game image. This seamless switching display of images can be realized by, for example, a fade-in / fade-out process, a process of switching while synthesizing the game image and the danger notification image by translucent synthesis, or a wipe-in / wipe-out process.

また表示処理部120は、ゲーム画像上に危険報知画像を重畳表示すると共に、ゲーム画像上での危険報知画像の表示サイズを変化させる処理を行う。例えばゲーム画像から危険報知画像に切り替える場合に、ゲーム画像上での危険報知画像の表示サイズを大きくする処理を行う。この場合に、例えば通常のゲーム画像を表示する際にも、例えば画面の隅の目立たない場所に、小さい表示サイズの危険報知画像を表示(重畳表示)してもよい。そしてゲーム画像から危険報知画像に切り替える場合には、この危険報知画像の表示サイズを大きくし、例えば最終的には全画面に危険報知画像が表示されるようになる。この時、例えば危険報知画像の画面の隅の目立たない場所に、小さい表示サイズのゲーム画像を表示(重畳表示)してもよい。   The display processing unit 120 also superimposes and displays the danger notification image on the game image and changes the display size of the danger notification image on the game image. For example, when switching from a game image to a danger notification image, processing for increasing the display size of the danger notification image on the game image is performed. In this case, for example, when displaying a normal game image, for example, a danger notification image with a small display size may be displayed (superimposed display) in a place where the corner of the screen is not conspicuous. When switching from the game image to the danger notification image, the display size of the danger notification image is increased, and for example, the danger notification image is finally displayed on the entire screen. At this time, for example, a game image with a small display size may be displayed (superimposed display) in a place where the corner of the screen of the danger notification image is not conspicuous.

またゲーム処理部111は、ゲーム画像から危険報知画像への切り替え制御を、プレーヤの移動速度に基づいて行う。例えばゲーム画像から危険報知画像への切り替えタイミングを、移動速度に基づき制御する。例えばプレーヤの移動速度が速いほど、切り替えタイミングが早くなるように制御する。またプレイエリアに設定されたエリアの境界へのプレーヤの接近時に、ゲーム画像から危険報知画像への切り替えを行う場合には、境界への接近と判定される判定距離を、プレーヤの移動速度に基づき制御する。例えばプレーヤの移動速度が速いほど、当該判定距離を長くする。   In addition, the game processing unit 111 performs switching control from the game image to the danger notification image based on the moving speed of the player. For example, the switching timing from the game image to the danger notification image is controlled based on the moving speed. For example, control is performed so that the switching timing is earlier as the moving speed of the player is higher. Further, when switching from the game image to the danger notification image when the player approaches the boundary of the area set as the play area, the determination distance determined as approaching the boundary is based on the moving speed of the player. Control. For example, the determination distance is lengthened as the moving speed of the player increases.

またゲーム処理部111は、ゲーム画像から危険報知画像の切り替わった場合に、振動デバイス164を振動させる処理又は警告音を出力する処理を行う。例えば、プレイエリア又はゲーム筐体内に設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合に、ゲーム画像から危険報知画像に切り替えると共に、振動デバイス164を振動させたり、音出力部192により警告音を出力する。或いは、エリアの境界を越えたプレーヤの移動が検出された場合に、ゲーム画像から危険報知画像に切り替えると共に、振動デバイス164を振動させたり、音出力部192により警告音を出力する。なお、このような警告のための振動デバイスは、入力装置160以外の装置に設けられる振動デバイスであってもよい。例えばHMD200等に設けられる振動デバイスであってもよい。   Further, the game processing unit 111 performs a process of vibrating the vibrating device 164 or a process of outputting a warning sound when the danger notification image is switched from the game image. For example, when the approach or arrival of the player to the boundary of the play area or the area set in the game case is detected, the game image is switched to the danger notification image, and the vibration device 164 is vibrated or the sound output unit In 192, a warning sound is output. Alternatively, when the movement of the player beyond the boundary of the area is detected, the game image is switched to the danger notification image, the vibration device 164 is vibrated, and the sound output unit 192 outputs a warning sound. Such a vibrating device for warning may be a vibrating device provided in a device other than the input device 160. For example, the vibration device provided in HMD200 etc. may be sufficient.

2.本実施形態の手法
次に本実施形態の手法について具体的に説明する。なお、以下では本実施形態の手法が適用されるゲームが、歌の演奏を行う音楽ゲーム(ライブステージのゲーム、カラオケゲーム等)である場合を主に例にとり説明する。しかしながら、本実施形態の手法が適用されるゲームは、これに限定されず、例えば弦楽器(ギター等)、打楽器(ドラム、太鼓等)、或いは鍵盤楽器(キーボード、ピアノ)等の楽器を演奏する音楽ゲーム(リズムや演奏の上手さを競うゲーム)などであってもよい。また本実施形態の手法は、異性キャラクタ等とのコミュニケーションゲーム(人間関係シミュレーションゲーム)、戦闘ゲーム、RPGゲーム、ロボットゲーム、カードゲーム、スポーツゲーム、或いはアクションゲーム等の種々のゲームにも適用可能である。
2. Next, the method of this embodiment will be described in detail. In the following description, a case where the game to which the method of the present embodiment is applied is a music game (live stage game, karaoke game, etc.) for performing a song will be mainly described as an example. However, the game to which the method of the present embodiment is applied is not limited to this, for example, music that plays an instrument such as a stringed instrument (guitar, etc.), a percussion instrument (drum, drum, etc.), or a keyboard instrument (keyboard, piano). It may be a game (game that competes for rhythm and skill). The method of this embodiment can also be applied to various games such as a communication game (human relationship simulation game) with a heterosexual character, a battle game, an RPG game, a robot game, a card game, a sports game, or an action game. is there.

2.1 HMD
図2(A)に本実施形態のゲーム装置に用いられるHMD200の一例を示す。図2(A)に示すようにHMD200には複数の受光素子201、202、203(フォトダイオード)が設けられている。受光素子201、202はHMD200の前面側に設けられ、受光素子203はHMD200の右側面に設けられている。またHMDの左側面、上面等にも不図示の受光素子が設けられている。
2.1 HMD
FIG. 2A shows an example of the HMD 200 used in the game device of this embodiment. As shown in FIG. 2A, the HMD 200 is provided with a plurality of light receiving elements 201, 202, and 203 (photodiodes). The light receiving elements 201 and 202 are provided on the front side of the HMD 200, and the light receiving element 203 is provided on the right side of the HMD 200. In addition, a light receiving element (not shown) is also provided on the left side, upper surface, and the like of the HMD.

またプレーヤPLは、左手、右手で入力装置160−1、160−2を持っている。入力装置160−1、160−2には、HMD200と同様に複数の受光素子(不図示)が設けられている。また入力装置160−1にはマイク162(音入力デバイス)が設けられており、プレーヤPLは歌の演奏ゲームにおいてマイク162に口を向けて歌うことになる。また入力装置160−1、160−2はゲームコントローラとしても機能し、不図示の操作ボタン、方向指示キー等が設けられている。なおプレーヤが持つ入力装置160の個数は1個であってもよい。   The player PL has input devices 160-1 and 160-2 with the left hand and the right hand. Similar to the HMD 200, the input devices 160-1 and 160-2 are provided with a plurality of light receiving elements (not shown). Further, the input device 160-1 is provided with a microphone 162 (sound input device), and the player PL sings with the mouth facing the microphone 162 in a song performance game. The input devices 160-1 and 160-2 also function as game controllers, and are provided with operation buttons, direction instruction keys, and the like (not shown). Note that the player may have one input device 160.

またHMD200には、ヘッドバンド260等が設けられており、プレーヤPLは、より良い装着感で安定的に頭部にHMD200を装着できるようになっている。また、HMD200には、不図示のヘッドホン端子が設けられており、このヘッドホン端子にヘッドホン270(音出力部192)を接続することで、例えば3次元音響(3次元オーディオ)の処理が施されたゲーム音を、プレーヤPLは聴くことが可能になる。そしてプレーヤPLは、ゲームコントローラとして機能する入力装置160−1、160−2を操作したり、頭部の頷き動作や首振り動作を行うことで、操作情報を入力し、ゲームプレイを楽しむ。頷き動作や首振り動作は、HMD200のセンサ部210等により検出できる。   Further, the HMD 200 is provided with a headband 260 and the like so that the player PL can stably wear the HMD 200 on the head with a better wearing feeling. In addition, the HMD 200 is provided with a headphone terminal (not shown). By connecting a headphone 270 (sound output unit 192) to the headphone terminal, for example, processing of three-dimensional sound (three-dimensional audio) is performed. The player PL can listen to the game sound. Then, the player PL operates the input devices 160-1 and 160-2 functioning as game controllers, performs a head movement operation and a head movement operation, and inputs operation information to enjoy game play. The whirling motion and the swing motion can be detected by the sensor unit 210 of the HMD 200 or the like.

図2(B)に示すように、プレーヤPLのプレイエリアにはベースステーション280、284が設置されている。ベースステーション280には発光素子281、282が設けられ、ベースステーション284には発光素子285、286が設けられている。発光素子281、282、285、286は、例えばレーザー(赤外線レーザー等)を出射するLEDにより実現される。ベースステーション280、284は、これら発光素子281、282、285、286を用いて、例えばレーザーを放射状に出射する。そして図2(A)のHMD200に設けられた受光素子201〜203等が、ベースステーション280、284からのレーザーを受光することで、HMD200のトラッキングが実現され、プレーヤPLの頭の位置や向く方向を検出できるようになる。また入力装置160−1、160−2に設けられた不図示の受光素子が、ベースステーション280、284からのレーザーを受光することで、入力装置160−1、160−2のトラッキングが実現され、入力装置160−1、160−2の位置や方向を検出できるようになる。これにより、例えばゲーム画像に、入力装置160−1に対応するマイクの画像等を表示することが可能になる。   As shown in FIG. 2B, base stations 280 and 284 are installed in the play area of the player PL. The base station 280 is provided with light emitting elements 281 and 282, and the base station 284 is provided with light emitting elements 285 and 286. The light emitting elements 281, 282, 285, and 286 are realized by LEDs that emit laser (infrared laser or the like), for example. The base stations 280 and 284 use these light emitting elements 281, 282, 285, and 286 to emit, for example, a laser beam radially. The light receiving elements 201 to 203 and the like provided in the HMD 200 in FIG. 2A receive the laser beams from the base stations 280 and 284, thereby realizing tracking of the HMD 200 and the position and direction of the player PL head. Can be detected. The light receiving elements (not shown) provided in the input devices 160-1 and 160-2 receive lasers from the base stations 280 and 284, thereby realizing tracking of the input devices 160-1 and 160-2. The positions and directions of the input devices 160-1 and 160-2 can be detected. Thereby, for example, an image of a microphone corresponding to the input device 160-1 can be displayed on the game image.

図3(A)にHMD200の他の例を示す。図3(A)では、HMD200に対して複数の発光素子231〜236が設けられている。これらの発光素子231〜236は例えばLEDなどにより実現される。発光素子231〜234は、HMD200の前面側に設けられ、発光素子235や不図示の発光素子236は、背面側に設けられる。これらの発光素子231〜236は、例えば可視光の帯域の光を出射(発光)する。具体的には発光素子231〜236は、互いに異なる色の光を出射する。そして図3(B)に示す撮像部150をプレーヤPLの前方側に設置し、この撮像部150により、これらの発光素子231〜236の光を撮像する。即ち、撮像部150の撮像画像には、これらの発光素子231〜236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、プレーヤPLの頭部(HMD)のトラッキングを実現する。即ちプレーヤPLの頭部の3次元位置や動き等を検出する。   FIG. 3A shows another example of the HMD 200. In FIG. 3A, a plurality of light emitting elements 231 to 236 are provided for the HMD 200. These light emitting elements 231 to 236 are realized by, for example, LEDs. The light emitting elements 231 to 234 are provided on the front side of the HMD 200, and the light emitting element 235 and the light emitting element 236 (not shown) are provided on the back side. These light emitting elements 231 to 236 emit (emit) light in a visible light band, for example. Specifically, the light emitting elements 231 to 236 emit light of different colors. 3B is installed on the front side of the player PL, and the light of the light emitting elements 231 to 236 is imaged by the imaging unit 150. That is, the spot light of these light emitting elements 231 to 236 is reflected in the captured image of the imaging unit 150. Then, by performing image processing on the captured image, tracking of the head (HMD) of the player PL is realized. That is, the three-dimensional position and movement of the head of the player PL are detected.

例えば図3(B)に示すように撮像部150には第1、第2のカメラ151、152が設けられており、これらの第1、第2のカメラ151、152の第1、第2の撮像画像を用いることで、プレーヤPLの頭部の奥行き方向での位置等が検出可能になる。またHMD200に設けられたモーションセンサのモーション検出情報に基づいて、プレーヤPLの頭部の回転角度(視線)も検出可能になっている。従って、このようなHMD200を用いることで、プレーヤPLが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想3次元空間での画像(プレーヤの視点に対応する仮想カメラから見える画像)を、HMD200の表示部220に表示することが可能になる。なお、発光素子231〜236として、可視光ではなく赤外線のLEDを用いてもよい。また、例えばデプスカメラ等を用いるなどの他の手法で、プレーヤの頭部の位置や動き等を検出するようにしてもよい。   For example, as illustrated in FIG. 3B, the imaging unit 150 includes first and second cameras 151 and 152, and the first and second cameras 151 and 152 of the first and second cameras 151 and 152 are provided. By using the captured image, the position of the player PL in the depth direction can be detected. Further, based on the motion detection information of the motion sensor provided in the HMD 200, the rotation angle (line of sight) of the head of the player PL can also be detected. Therefore, by using such an HMD 200, the player PL corresponds to an image in a virtual three-dimensional space (corresponding to the player's viewpoint) regardless of the direction of all 360 degrees around the player PL. An image that can be seen from the virtual camera) can be displayed on the display unit 220 of the HMD 200. Note that instead of visible light, infrared LEDs may be used as the light emitting elements 231 to 236. Further, the position and movement of the player's head may be detected by other methods such as using a depth camera.

なお、プレーヤの視点情報(視点位置、視線方向等)、位置情報等を検出するトラッキング処理の手法は、図2(A)〜図3(B)で説明した手法には限定されない。例えばHMD200に設けられたモーションセンサ等を用いて、HMD200の単体でトラッキング処理を実現してもよい。即ち、図2(B)のベースステーション280、284、図3(B)の撮像部150などの外部装置を設けることなく、トラッキング処理を実現する。或いは、公知のアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの種々の視点トラッキング手法により、プレーヤの視点情報等を検出してもよい。例えばアイトラッキングでは、プレーヤの左目、右目の瞳の位置や形状等を認識する。そして、左目の位置、右目の位置、左目の視線方向、右目の視線方向等を特定し、プレーヤの視点情報を取得することで、視点トラッキングを実現する。このアイトラッキングは、例えば撮像部によりプレーヤの左目、右目を撮影し、その撮像画像に対して瞳等の画像認識処理を行うことなどで実現できる。また、フェイストラッキングでは、撮像部でプレーヤの顔を撮像し、顔の画像認識処理を行う。そして、画像認識処理の結果に基づいて、プレーヤの顔の位置や向く方向を特定して、プレーヤの視点位置、視線方向を求めて、視点トラッキングを実現する。   Note that the tracking processing method for detecting the player's viewpoint information (viewpoint position, line-of-sight direction, etc.), position information, and the like is not limited to the method described with reference to FIGS. For example, the tracking process may be realized by a single unit of the HMD 200 using a motion sensor or the like provided in the HMD 200. That is, tracking processing is realized without providing external devices such as the base stations 280 and 284 in FIG. 2B and the imaging unit 150 in FIG. Alternatively, the player's viewpoint information or the like may be detected by various viewpoint tracking methods such as known eye tracking, face tracking, or head tracking. For example, in eye tracking, the position and shape of the left eye and right eye of the player are recognized. Then, the viewpoint tracking is realized by specifying the position of the left eye, the position of the right eye, the viewing direction of the left eye, the viewing direction of the right eye, and the like, and acquiring the viewpoint information of the player. This eye tracking can be realized, for example, by photographing the left eye and the right eye of the player with the imaging unit and performing image recognition processing such as a pupil on the captured image. In face tracking, the imaging unit captures the player's face and performs face image recognition processing. Then, based on the result of the image recognition process, the position and direction of the player's face are specified, and the viewpoint position and line-of-sight direction of the player are obtained, thereby realizing viewpoint tracking.

2.2 プレイエリア、ゲーム装置の筺体
図4(A)、図4(B)に本実施形態のゲームが実現されるプレイエリアの一例を示す。このプレイエリアは、ボックス状の防音の個室により実現される。図4(A)に示すようにボックスの個室は、壁301、302、303、304やドア306や通気設備307、308を有する。また図4(B)に示すようにボックスの底面にはキャスター310、312が設けられており、移動可能になっている。プレーヤPLはドア306を開けて個室内に入り、ゲームをプレイする。この個室内の空間がプレーヤPLのプレイエリア(プレイ空間)になる。
2.2 Play Area and Game Device Housing FIGS. 4A and 4B show an example of a play area in which the game of the present embodiment is realized. This play area is realized by a box-shaped soundproof private room. As shown in FIG. 4A, the box private room has walls 301, 302, 303, 304, a door 306, and ventilation equipment 307, 308. As shown in FIG. 4B, casters 310 and 312 are provided on the bottom surface of the box so as to be movable. The player PL opens the door 306 and enters the private room to play the game. This space in the private room becomes a play area (play space) for the player PL.

そして図4(A)に示すように、ボックスの個室のプレイエリアには、プレーヤPLの移動範囲として想定されるエリアARが設定される。このエリアAR内では、ステーション280、284等を用いたプレーヤPLの視点情報(視点位置、視線方向)や位置情報のトラッキングが可能になっている。一方、エリアARの境界BDを越えた位置では、確実なトラッキングを実現できない。またプレーヤPLがエリアARの境界BDを越えると、壁301、302、303、304にぶつかるおそれがあり、安全面の上で望ましくない。エリアARの設定は、例えばゲーム装置のイニシャライズ設定などにより、その範囲を設定可能になっている。   Then, as shown in FIG. 4A, an area AR assumed as a movement range of the player PL is set in the play area of the box private room. In this area AR, it is possible to track the viewpoint information (viewpoint position, line-of-sight direction) and position information of the player PL using the stations 280, 284 and the like. On the other hand, reliable tracking cannot be realized at a position beyond the boundary BD of the area AR. Further, if the player PL exceeds the boundary BD of the area AR, there is a risk of hitting the walls 301, 302, 303, 304, which is not desirable in terms of safety. The area AR can be set, for example, by the initialization setting of the game device.

図5はゲーム装置筺体320の一例である。図5ではゲーム装置は大型のゲーム装置筺体320を有しており、プレーヤはゲーム装置筺体320内に入ってゲームをプレイできるようになっている。ゲーム装置筺体320の内部には、例えば各種の装置(操作装置)、機具、シート(椅子)等が設けられる。プレーヤは、ゲーム装置筺体320の内部に入り、HMD200を頭部に装着して、VR(バーチャルリアリティ)の世界でのゲームを楽しむ。   FIG. 5 shows an example of the game apparatus housing 320. In FIG. 5, the game device has a large game device housing 320 so that the player can enter the game device housing 320 and play the game. Inside the game device housing 320, for example, various devices (operation devices), equipment, seats (chairs), and the like are provided. The player enters the game apparatus housing 320, wears the HMD 200 on his head, and enjoys a game in the VR (virtual reality) world.

2.3 ゲームの概要
次に、本実施形態の手法により実現されるゲームの概要について説明する。本実施形態により実現されるゲームは、本物のライブステージのような臨場感の中、バンドのボーカルになりきって、ボーカル演奏を行う音楽ゲームである。プレーヤは、大観衆を目前にして歌うという、かつてない高揚感を感じつつ、自分のファンからの歓声を全身に浴びる強烈な快感を得ることができる。HMDと大出力のサラウンドスピーカーにより、まるで本物のライブステージに出演し、自分のファンに囲まれて歌っているかのような、臨場感を得ることができる。
2.3 Outline of Game Next, an outline of the game realized by the method of the present embodiment will be described. The game realized by the present embodiment is a music game in which a vocal performance is achieved by becoming a vocal of a band in a sense of reality like a real live stage. The player can obtain a strong feeling of cheering from his fans all over the body while feeling an unprecedented sense of singing in front of a large audience. With HMD and high-power surround speakers, you can feel as if you are performing on a live stage and singing with your fans.

ステージの周りの観客は、プレーヤのボーカル演奏やステージアクションに反応して、派手な声援や様々なアクションをインタラクティブに返してくる。HMDによる、まるでその場に立っているかのような臨場感のライブステージの上で、表情まで見える最前列のファンをはじめ、会場を埋める満員の観客の前で、バンドメンバーの演奏と共に、自分の歌とライブパフォーマンスを行って、観客の期待に応える。   Audiences around the stage respond interactively to the player's vocal performances and stage actions and interactively return flashy cheers and various actions. On the live stage as if standing on the spot by HMD, in front of the crowd in front of the crowd that fills the venue, including the fans in the front row who can see the expression, Meet the audience's expectations by singing and performing live.

プレーヤは共有スペースに設けられた受け付けスペースで、入室時間の予約やプレイ設定を行い、図4(A)、図4(B)に示すようにクッション材の貼られた安全な個室内で、ライブ出演体験を楽しむ。   Players make reservations for the entrance time and play settings in the reception space provided in the common space, and live in a secure private room with cushioning material as shown in FIGS. 4 (A) and 4 (B). Enjoy the appearance experience.

プレーヤは、ステージ出演前のプレイ設定において、コンサート出演モードを選択する。その後、歌う曲の選択を行い、出演ステージを選択する。そして図2(A)、図2(B)等で説明したHMD200、入力装置160−1、160−2などのデバイスを装着する。店舗のオペレータが、注意事項等を説明し、プレーヤのデバイス装着及び調整を補助する。プレイエリアである個室空間のキャリブレーション(イニシャライズ)は、オペレータが事前に行う。   The player selects the concert appearance mode in the play setting before the stage appearance. After that, the song to be sung is selected and the appearance stage is selected. Then, devices such as the HMD 200 and the input devices 160-1 and 160-2 described with reference to FIGS. 2A and 2B are mounted. The store operator explains precautions and assists the device mounting and adjustment of the player. The operator calibrates (initializes) the private room space, which is the play area, in advance.

図2(A)の入力装置160−1は、マイク&ゲームコントローラになっている。VR空間内では、プレーヤ(仮想プレーヤ)の腕や手は描画されないが、プレーヤが手で持っている入力装置160−1等の位置がセンシングされ、同じ位置にマイク画像が描画され、プレーヤの動きに応じてマイク画像が動くようになる。   The input device 160-1 in FIG. 2A is a microphone and game controller. In the VR space, the arm or hand of the player (virtual player) is not drawn, but the position of the input device 160-1 or the like held by the player is sensed, and a microphone image is drawn at the same position. The microphone image moves accordingly.

プレーヤは、VR空間のスタンバイルームで、ボーカルのキー調整を行う。スタンバイルームは、ステージの下の待機スペースである。VR空間においてプレーヤが立っているスペースは大きなリフトになっていて、本番時にはステージ上にせり上がる。   The player performs vocal key adjustment in the standby room of the VR space. The standby room is a waiting space below the stage. The space where the player stands in the VR space is a large lift, and rises on the stage during the performance.

リフトが上昇しステージが近づいて来るのに合わせて、遠くから聞こえていたホールの歓声や掛け声が徐々に大きくなり、迫力を増し、且つ、生々しく変化する。ステージ上にプレーヤが出現すると、プレーヤに向けて前方から逆光のスポットライトが当てられ、プレーヤの登場で最高潮に達した大歓声が起こる。プレーヤの開始アクションの入力(例えばハンドアクション)で演奏がスタートして、ライブシーケンスに移行する。   As the lift rises and the stage approaches, the cheers and shouts of the hall that were heard from a distance gradually increase, increasing the force and changing vividly. When a player appears on the stage, a spotlight of backlighting is applied from the front toward the player, and a loud cheer occurs that has reached its peak with the appearance of the player. The performance starts with the input of the start action (for example, hand action) of the player, and the live sequence is started.

ライブの本番ではプレーヤは、思う存分、ステージでの熱唱を楽しむ。図6、図7、図8は、ステージ上のプレーヤのHMD200に表示されるゲーム画像(VR空間での画像)の例である。図6、図7に示すようにプレーヤの目の前には満員の観客が映し出される。図6はプレーヤが正面を向いた場合のゲーム画像であり、図7は、プレーヤが右方向を向いた場合のゲーム画像である。プレーヤが後ろを振り向くと、図8に示すようにドラムやアンプやスクリーン等が映し出されたゲーム画像が表示される。ライブステージは、図9に示すように、現実世界と同様にドームDOMに囲まれた巨大なコンサートホールで行われる。VR空間のコンサートホールには多数の観客が訪れており、プレーヤのボーカル演奏により、観客の歓声は最高潮になる。なおVR空間においてプレーヤの足元に設置されたモニターには、歌詞や音程表示が映し出される。プレーヤは必要であれば、これらの歌詞や音程表示を見ながらボーカル演奏を行う。   In the live performance, players enjoy singing on stage as much as they want. 6, 7, and 8 are examples of game images (images in the VR space) displayed on the HMD 200 of the player on the stage. As shown in FIGS. 6 and 7, a full audience is projected in front of the player. FIG. 6 shows a game image when the player faces the front, and FIG. 7 shows a game image when the player faces the right. When the player turns back, a game image showing a drum, an amplifier, a screen, etc. is displayed as shown in FIG. As shown in FIG. 9, the live stage is performed in a huge concert hall surrounded by a dome DOM as in the real world. A large number of spectators are visiting the concert hall in the VR space, and the cheering of the audience is at its climax due to the vocal performance of the player. Note that lyrics and intervals are displayed on a monitor installed at the foot of the player in the VR space. If necessary, the player performs a vocal performance while viewing these lyrics and pitch indications.

図6、図7、図8に示すように、HMD200を用いる本実施形態のゲーム装置では、プレーヤの全周囲の方向に亘って、ゲーム空間であるVR空間の世界が広がる。例えばHMD200を装着したプレーヤが前方向を向けば、図6のゲーム画像がHMD200に表示され、右方向を向けば、図7のゲーム画像が表示される。また後ろ方向を向けば、図8のゲーム画像が表示される。従って、多数の観客が歓声を上げる巨大なコンサートホールにおいて、ボーカル演奏しているかのような仮想現実感をプレーヤに与えることができる。従って、従来のゲーム装置に比べて、プレーヤのゲームへの没入度等を格段に向上できるようになる。   As shown in FIGS. 6, 7, and 8, in the game device according to the present embodiment using the HMD 200, the world of the VR space that is the game space extends across the entire direction of the player. For example, when the player wearing the HMD 200 turns forward, the game image of FIG. 6 is displayed on the HMD 200, and when the player turns right, the game image of FIG. 7 is displayed. Further, when facing backward, the game image of FIG. 8 is displayed. Therefore, it is possible to give the player a virtual reality feeling as if a vocal performance is being performed in a huge concert hall where many spectators cheer. Therefore, the degree of immersion of the player in the game can be significantly improved as compared with the conventional game device.

また本実施形態では、曲の抑揚に合わせて観客の動き(アクション)や歓声が変化する。またプレーヤのアクションに応じるように、観客の動きや歓声が変化する。例えば図6において、プレーヤが立つステージの近くの観客AD1〜AD7は、例えば多数のポリゴンで構成されるポリゴンモデルのオブジェクトにより表現されている。図7の観客AD8〜AD11も同様である。一方、ステージから遠い位置にいる観客は、プレーヤの視線に正対するビルボードポリゴンに描かれた画像により表現されている。   In the present embodiment, the movement or cheering of the audience changes in accordance with the inflection of the song. In addition, the movement and cheer of the audience change according to the action of the player. For example, in FIG. 6, spectators AD1 to AD7 near the stage where the player stands are represented by polygon model objects composed of many polygons, for example. The same applies to the audiences AD8 to AD11 in FIG. On the other hand, the audience at a position far from the stage is represented by an image drawn on a billboard polygon facing the player's line of sight.

ポリゴンモデルの観客(AD1〜AD11)は、例えばモーションデータによるモーション再生によりその動きが表現されている。これらの観客は、曲のリズムにのって基本アクション(基本モーション)を行う。観客のアクションには、曲中の盛り上がり度合いを表現するための段階がある。この段階は、基本的に曲の抑揚に依存して上下する。また、プレーヤのパフォーマンスに対する評価が良好になることによっても、段階が上がる場合がある。   The movement of the polygon model audience (AD1 to AD11) is expressed by, for example, motion reproduction using motion data. These spectators perform basic actions (basic motion) according to the rhythm of the song. In the audience action, there is a stage for expressing the degree of excitement in the song. This stage basically goes up and down depending on the inflection of the song. In addition, the stage may be raised by the better evaluation of the player's performance.

観客は、プレーヤの声や動きに応じも、インタラクティブにリアクションする。プレーヤが、例えば「特定の方向を向いて歌う」、「手を振る」といったアクションを行うことで、その方向の観客のテンションが上がり、基本アクションが、1段階、派手になったり、或いは曲のリズムとは関係ない突発的な盛り上がりアクションを行うようになる。   The audience reacts interactively according to the voice and movement of the player. For example, when a player performs an action such as “singing in a specific direction” or “waving his hand”, the tension of the audience in that direction increases, and the basic action becomes one stage, flashy or Suddenly exciting action that has nothing to do with rhythm.

ステージ上でのプレーヤのゲームプレイに対する評価処理としては、2つの評価処理がある。第1の評価処理は、特定の観客を盛り上げるパフォーマンスをどれだけ出来たかについての評価処理である。即ち、特定の観客をどれだけ熱狂させられたかである。第2の評価処理は、プレーヤが歌を上手く歌えたかどうかについての評価処理である。   There are two evaluation processes for evaluating the game play of the player on the stage. The first evaluation process is an evaluation process as to how much performance that can excite a specific audience can be achieved. In other words, how enthusiastic the specific audience was. The second evaluation process is an evaluation process as to whether or not the player has successfully sung a song.

第1の評価処理による評価システムは、プレーヤのプレイ中の観客からのフィードバックが得られるメインの評価システムである。この評価システムでは、プレーヤに向けて何らかのアピールのアクションをしてくる観客がターゲットになる。例えば図6では、観客AD4が、右手を高く上げてプレーヤに対してアピールのアクションを行っており、この観客AD4がターゲットになる。また図7ではアピールのアクションを行っている観客AD10がターゲットになる。なお、群れをなす複数人の観客をターゲットにするようにしてもよい。例えば図7において観客AD3、AD4、AD5がターゲットになってもよい。   The evaluation system based on the first evaluation process is a main evaluation system that can obtain feedback from the audience during the play of the player. In this evaluation system, the audience who performs some appealing action toward the player is targeted. For example, in FIG. 6, the spectator AD4 raises his right hand to perform an appealing action to the player, and this spectator AD4 is the target. In FIG. 7, the audience AD10 who is performing an appealing action is the target. In addition, you may make it target several spectators who form a crowd. For example, in FIG. 7, audiences AD3, AD4, and AD5 may be targets.

これらのアピールする観客に対して、プレーヤが下述する第1、第2のアクションを行うことで、これらの観客の熱狂度パラメータ(熱狂度ゲージ)の値が上昇する。そして熱狂度パラメータが最大値になると、これらの観客が、大喜びを表現する熱狂アクションを行うようになる。この熱狂アクションは、曲のリズムとは無関係に狂喜するアクションなどである。   When the player performs the first and second actions described below on the appealing audiences, the value of the thermal madness parameter (thermal madness gauge) of these spectators increases. When the enthusiasm parameter reaches the maximum value, these spectators will perform an enthusiasm action that expresses delight. This enthusiasm action is an action that is crazy regardless of the rhythm of the song.

アピールする観客に対してプレーヤが行う第1のアクションは、そのターゲットの観客の方に視線を向けて歌うアクションである。この第1のアクションが評価されるのは、楽曲の歌唱パートと間奏パートのうち、歌唱パートにおいてである。   The first action that the player performs on the appealing audience is an action of singing with a line of sight toward the target audience. This first action is evaluated in the song part of the song part and the interlude part.

アピールする観客に対してプレーヤが行う第2のアクションは、観客からの掛け声に合わせてプレーヤが腕を上げるアクション(動き)である。或いは間奏パートにおいて、観客からのかけ声に合わせてプレーヤが発声するアクションである。   The second action that the player performs on the appealing audience is an action (movement) in which the player raises his arm in accordance with the shout from the audience. Alternatively, in the interlude part, it is an action that the player utters in response to a call from the audience.

これらの第1、第2のアクションのターゲットとなる観客は、例えばランダムにコンサートホール内で発生する。プレーヤの1曲の演奏におけるターゲットの数は所定数に決まっている。ターゲットとなる所定数の全ての観客について、熱狂度パラメータが最大値になり盛り上げに成功すると、所定数のターゲットを全クリアしたとして、プレーヤが最大限に評価される。例えばターゲットとなる観客の数が10人である場合に、これらの10人の全ての観客の熱狂度パラメータが最大値に達すると、ターゲットを全クリアしたと評価される。この場合に、ターゲットのクリア数に応じて、最後のステージエフェクトの種類が変化する。例えば10人のターゲットの全てをクリアした場合には、最後のステージにおいて最も派手なエフェクトが発生する。また例えば8人のターゲットをクリアした場合には、5人のターゲットをクリアした場合に比べて、より派手なエフェクトが発生する。   Audiences that are targets of these first and second actions occur, for example, randomly in the concert hall. The number of targets in the performance of one song by the player is determined to be a predetermined number. When the enthusiasm parameter reaches the maximum value and succeeds in raising the enthusiasm for all the predetermined number of audiences as targets, the player is evaluated to the maximum, assuming that the predetermined number of targets are all cleared. For example, in the case where the number of target audiences is 10, and when the enthusiasm parameter of all these 10 audiences reaches the maximum value, it is evaluated that all targets have been cleared. In this case, the type of the last stage effect changes according to the number of target clears. For example, when all 10 targets are cleared, the most flashy effect occurs in the last stage. For example, when eight targets are cleared, a more flashy effect occurs than when five targets are cleared.

第2の評価処理による評価システムは、プレーヤの歌の音程とリズムの検知による評価システムであり、プレーヤには明示しないポイントの加算で評価する。具体的には、リズムに合わせた発声が出来たかを評価する。例えば、ベース又はドラムの演奏の指定タイミングに合わせて、プレーヤが発声できると、ポイントが加算される。また、ロングトーンの上手さや、休符についての正確性なども評価される。また音程の正確性も評価する。即ち、プレーヤの歌の音程判定を行い、正解な音程で歌った音程をグラフ的に表示する。なお、プレーヤの音量がゼロの状態が一定時間、継続すると、観客の多くは待機モーションに移行し、その間はプレーヤはポイント加算を得ることができない。   The evaluation system based on the second evaluation process is an evaluation system based on the detection of the pitch and rhythm of the player's song, and the evaluation is performed by adding points that are not clearly shown to the player. Specifically, it is evaluated whether or not the utterance can be adapted to the rhythm. For example, when the player can speak in accordance with the designated timing of playing the bass or drum, points are added. In addition, the skill of long tone and the accuracy of rest are evaluated. Also evaluate the accuracy of the pitch. That is, the pitch of the player's song is determined, and the pitch of the song sung with the correct pitch is displayed graphically. Note that if the player's volume level is zero for a certain period of time, most of the audience will shift to a standby motion, during which time the player will not be able to earn points.

プレーヤの演奏が終了し、ライブステージを通してのプレーヤの評価結果が一定基準を満たすと、観客はアンコールを求めて来る。そのアンコールに応えることで、プレーヤは更に1曲、追加で演奏できるようになる。そしてライブステージの終了時には、フェイドアウトする歓声の中で、照明はさらに暗くなり、ブラックアウトして終了する。その後、「お疲れ様でした、HMDを外してください」といった表示及びガイド音声が流れる。そしてプレーヤは装備を外して個室から退室し、ゲームプレイの終了となる。   When the performance of the player is completed and the evaluation result of the player through the live stage satisfies a certain standard, the audience asks for an encore. By responding to the encore, the player can play one more song. And at the end of the live stage, the lights become darker in the cheering that fades out, and it ends with a blackout. After that, a message such as “Thank you very much, please remove the HMD” and a guide voice are played. Then, the player removes the equipment and leaves the private room, and the game play ends.

2.4 危険報知画像
以上のように本実施形態のゲーム装置によれば、あたかも本物のライブホールで、熱狂する観客の前でライブ演奏したかのような仮想現実感を、プレーヤに与えることができる。そして図6、図7に示すようにプレーヤの目の前には、プレーヤの演奏に熱狂する観客が映し出されるため、興奮したプレーヤがVR空間の観客の方に向かって移動してしまうおそれがある。
2.4 Danger notification image As described above, according to the game device of the present embodiment, it is possible to give the player a virtual reality as if it was played live in front of an enthusiastic audience in a real live hall. it can. As shown in FIGS. 6 and 7, an audience enthusiastic about the player's performance is displayed in front of the player's eyes, so that the excited player may move toward the audience in the VR space. .

例えば図10は、VR空間においてプレーヤPLが立つステージSGを、上方から俯瞰した様子を示す図である。なお図10のプレーヤPLは、実際にはVR空間での仮想プレーヤであるが、本実施形態では説明の簡素化のために、現実世界のプレーヤと仮想プレーヤを同一の符号PLで表している。   For example, FIG. 10 is a diagram showing a state where the stage SG where the player PL stands in the VR space is seen from above. Note that the player PL in FIG. 10 is actually a virtual player in the VR space. However, in the present embodiment, the player in the real world and the virtual player are represented by the same symbol PL for the sake of simplicity of explanation.

ステージSGは境界BDSにより区画されており、ステージSGの周りの観客席SE1、SE2、SE3には、図6、図7に示すようにアクションする観客が配置されている。このステージSGの境界BDSは、例えば図4(A)の現実世界のプレイエリアのエリアARの境界BDに対応している。一例としては、図4(A)の現実世界のエリアARの境界BDから例えば所定距離だけ内側に対応する位置に、VR空間でのステージSGの境界BDSが設定されている。   The stage SG is divided by the boundary BDS, and spectators acting as shown in FIGS. 6 and 7 are arranged in the audience seats SE1, SE2, and SE3 around the stage SG. The boundary BDS of the stage SG corresponds to, for example, the boundary BD of the area AR of the real-world play area shown in FIG. As an example, the boundary BDS of the stage SG in the VR space is set at a position corresponding to, for example, a predetermined distance from the boundary BD of the real world area AR in FIG.

そして図10においてステージSGに立つプレーヤPLは、図6、図7に示すように観客(AD1〜AD11)に囲まれてライブ演奏を行っている。従って、図6のように熱狂する観客を見て興奮したプレーヤPLが、これらの観客に近づこうとして、図11に示すようにステージSGの外側に移動してしまう事態が生じる。   Then, the player PL standing on the stage SG in FIG. 10 performs a live performance surrounded by spectators (AD1 to AD11) as shown in FIGS. Therefore, as shown in FIG. 11, the player PL excited to see the enthusiastic spectators as shown in FIG. 6 moves to the outside of the stage SG as shown in FIG.

このような事態が生じると、図4(A)の現実世界において、プレーヤPLが部屋の壁301等にぶつかるおそれがあり、安全面の上で望ましくない。   If such a situation occurs, in the real world of FIG. 4A, the player PL may collide with the wall 301 of the room, etc., which is not desirable in terms of safety.

そこで本実施形態では、このような状況を回避するために、危険報知画像を表示する手法を採用している。具体的には、ゲーム空間でのゲーム画像と、モデル空間での危険報知画像のいずれを表示するかを、プレーヤの位置に応じて切り替えることで、プレーヤが壁等の障害物にぶつかるなどの事態の発生を効果的に抑制する。   Therefore, in the present embodiment, in order to avoid such a situation, a technique for displaying a danger notification image is employed. Specifically, a situation in which the player hits an obstacle such as a wall by switching whether to display a game image in the game space or a danger notification image in the model space according to the position of the player. Is effectively suppressed.

具体的には図12(A)において、プレイエリア(或いはゲーム装置筐体内)に設定されたエリアARの境界BDへのプレーヤPLの接近(又は到達)が検出されたとする。例えばエリアARの境界BDから距離LBの範囲にプレーヤPLが位置した場合に、プレーヤPLが境界BDに接近したと判定する。この場合に、ゲーム空間でのゲーム画像から、モデル空間での危険報知画像に切り替える処理を行う。即ちHMD200に表示される画像を、ゲーム画像から危険報知画像に切り替える。或いは、図12(B)に示すようにエリアARの境界BDを越えたプレーヤPLの移動が検出された場合に、ゲーム空間でのゲーム画像から、モデル空間での危険報知画像に切り替える処理を行ってもよい。   Specifically, in FIG. 12A, it is assumed that the approach (or arrival) of the player PL to the boundary BD of the area AR set in the play area (or in the game apparatus housing) is detected. For example, when the player PL is located within a distance LB from the boundary BD of the area AR, it is determined that the player PL has approached the boundary BD. In this case, a process of switching from the game image in the game space to the danger notification image in the model space is performed. That is, the image displayed on the HMD 200 is switched from the game image to the danger notification image. Alternatively, as shown in FIG. 12B, when the movement of the player PL that exceeds the boundary BD of the area AR is detected, a process of switching from the game image in the game space to the danger notification image in the model space is performed. May be.

図13にモデル空間の例を示す。このモデル空間は、プレイエリアのモデル情報に基づき設定されている。例えばプレイエリアのモデル情報を含む空間情報により設定されている。具体的には、図13に示すモデル空間の空間情報は、図4(A)、図4(B)で説明したプレイエリアのモデル情報を含む空間情報となっている。なお、モデル空間は、図5で説明したゲーム装置筺体320のモデル情報に基づき設定された空間であってもよい。   FIG. 13 shows an example of the model space. This model space is set based on the model information of the play area. For example, it is set by spatial information including model information of the play area. Specifically, the spatial information of the model space shown in FIG. 13 is spatial information including the model information of the play area described with reference to FIGS. 4 (A) and 4 (B). The model space may be a space set based on the model information of the game apparatus housing 320 described with reference to FIG.

例えばゲーム空間は、図6、図7、図8のゲーム画像を生成するための空間である。このゲーム空間は、ゲームに登場する観客(広義にはキャラクタ)、観客席、ステージ、アンプ、ドラム等の楽器、或いはバンドメンバーなどを表す複数のオブジェクトが配置されたオブジェクト空間である。そして図6、図7、図8のゲーム画像は、オブジェクト空間であるゲーム空間において、例えば仮想プレーヤの視点から見える画像になっている。   For example, the game space is a space for generating the game images of FIG. 6, FIG. 7, and FIG. This game space is an object space in which a plurality of objects representing spectators (characters in a broad sense) appearing in the game, spectator seats, musical instruments such as stages, amplifiers, drums, or band members are arranged. 6, 7, and 8 are images that can be seen from the viewpoint of the virtual player, for example, in the game space that is the object space.

これに対して図13のモデル空間は、危険報知画像を生成するために用意された空間であり、図4(A)、図4(B)で説明したプレイエリアのモデル情報に基づき設定される。例えば図13において、壁301、302、303のモデルは、図4(A)に示す現実世界のプレイエリアの壁301、302、303の形状、色、素材等を模したモデル(或いは簡略化したモデル)となっており、CGの3次元オブジェクトで構成される。ドア306、ステーション280も、図4(A)に示す現実世界のプレイエリアのドア306、ステーション280の形状、色、素材等を模したモデル(簡略化したモデル)になっている。危険報知画像は、このようなモデル空間において所与の視点から見える画像になっている。例えば、ゲーム画像と同様に、モデル空間において仮想プレーヤの視点から見える画像を、危険報知画像として生成する。なお、モデル空間を、図5のゲーム装置筐体320のモデル情報に基づき設定する場合には、ゲーム装置筐体320の内部の各部材(装置、機器、シート等)の形状、色、素材等を模したモデル(簡略化したモデル)であって、CGの3次元オブジェクトで構成されるモデルを用意する。そして、このモデルのモデル情報等を用いて、モデル空間を設定すればよい。   On the other hand, the model space of FIG. 13 is a space prepared for generating a danger notification image, and is set based on the model information of the play area described in FIGS. 4 (A) and 4 (B). . For example, in FIG. 13, the model of the walls 301, 302, and 303 is a model (or simplified) that imitates the shape, color, material, and the like of the walls 301, 302, and 303 in the real world play area shown in FIG. Model) and is composed of CG three-dimensional objects. The door 306 and the station 280 are also models (simplified models) simulating the shape, color, material, and the like of the door 306 and the station 280 in the real-world play area shown in FIG. The danger notification image is an image that can be seen from a given viewpoint in such a model space. For example, similarly to the game image, an image that is visible from the viewpoint of the virtual player in the model space is generated as the danger notification image. When the model space is set based on the model information of the game apparatus housing 320 in FIG. 5, the shape, color, material, etc. of each member (device, equipment, sheet, etc.) inside the game apparatus housing 320 And a model composed of CG three-dimensional objects is prepared. Then, the model space may be set using the model information of the model.

図14に危険報知画像の例を示す。図14の危険報知画像は、例えば図12(A)に示すように、プレイエリアのエリアARの境界BDにプレーヤPLが接近(又は到達)した場合に、ゲーム画像から切り替わる危険報知画像である。例えば図6のようにプレーヤの正面に観客が映し出されるゲーム画像が表示されている状態で、図12(A)のようにプレーヤPLがエリアARの境界BDに接近したとする。これは、図10のVR空間において、ステージSGで歌っていたプレーヤPL(仮想プレーヤ)が、観客の熱狂に興奮して、図11に示すように観客席SE2の方に移動した場合に相当する。   FIG. 14 shows an example of the danger notification image. The danger notification image in FIG. 14 is a danger notification image that is switched from the game image when the player PL approaches (or reaches) the boundary BD of the area AR of the play area, for example, as shown in FIG. For example, it is assumed that the player PL approaches the boundary BD of the area AR as shown in FIG. 12A in a state where a game image in which a spectator is projected is displayed in front of the player as shown in FIG. This corresponds to the case where the player PL (virtual player) singing on the stage SG in the VR space of FIG. 10 is excited by the audience's enthusiasm and moves toward the audience seat SE2 as shown in FIG. .

この場合に本実施形態では、通常のゲーム画像から、図14に示すような危険報知画像に切り替える。するとプレーヤPLの見る画像が、図6のようなゲーム画像から図14の危険報知画像に切り替わることになる。   In this case, in the present embodiment, the normal game image is switched to the danger notification image as shown in FIG. Then, the image viewed by the player PL is switched from the game image shown in FIG. 6 to the danger notification image shown in FIG.

これによりプレーヤは、図4(A)の個室の壁301に接近して、壁301にぶつかりそうになっていることを、視覚的に確実に認識できるようになる。従って、プレーヤに対して確実に危険を知らせることができ、HMD200を利用したゲームにおける適切な危険報知を実現できるようになる。   Thus, the player can visually recognize with certainty that the player is approaching the wall 301 of the private room shown in FIG. Therefore, it is possible to reliably notify the player of the danger, and it is possible to realize an appropriate danger notification in the game using the HMD 200.

また図14では、ゲーム画像から危険報知画像に切り替わった場合に、プレーヤの移動を誘導する案内情報の表示処理も行っている。例えば図14では、「危険です。元の位置に戻って」という案内情報ALMDを表示している。この案内情報ALMDは、危険報知画像に重畳して表示されている。   In FIG. 14, guidance information display processing for guiding the movement of the player when the game image is switched to the danger notification image is also performed. For example, in FIG. 14, guidance information ALMD “Dangerous. Return to the original position” is displayed. This guidance information ALMD is displayed superimposed on the danger notification image.

例えば図12(A)のようにプレーヤPLがエリアARの境界BDに接近した場合に、図6のようなゲーム画像から図14の危険報知画像に、突然に切り替わってしまうと、何が起こったのかを認識できず、プレーヤが混乱してしまうおそれがある。即ち、プレーヤの目の前に、突然に壁301の画像が映し出されると、混乱のおそれがある。   For example, when the player PL approaches the boundary BD of the area AR as shown in FIG. 12A, what happens when the game image as shown in FIG. 6 is suddenly switched to the danger notification image shown in FIG. May not be recognized, and the player may be confused. That is, if the image of the wall 301 is suddenly projected in front of the player's eyes, there is a risk of confusion.

この点、図14のような案内情報ALMDを表示すれば、プレーヤが壁301にぶつかりそうになっていることを、容易に理解できるようになる。そして、この案内情報には「元の位置に戻って」というテキスト表示が行われているため、例えば境界方向とは異なる方向側にプレーヤを効果的に誘導することが可能になる。従って、壁301にぶつかる危険を回避しながら、プレーヤの混乱等の発生も抑制でき、より適切な危険報知を実現できるようになる。   In this regard, if the guidance information ALMD as shown in FIG. 14 is displayed, it can be easily understood that the player is about to hit the wall 301. Since this guidance information is displayed with the text “return to the original position”, it is possible to effectively guide the player in a direction different from the boundary direction, for example. Therefore, it is possible to suppress the occurrence of the player's confusion and the like while avoiding the danger of hitting the wall 301, and to realize more appropriate danger notification.

図15は危険報知画像の他の例である。図15では、ゲーム画像から危険報知画像に切り替わった場合に、プレーヤの移動を誘導するアバターAVAの表示処理を行っている。例えば図15では、アバターAVAにより「危険です。後ろに下がってください」という会話表示が行われている。このアバターAVAやその会話表示(吹き出し)の画像は、危険報知画像に重畳して表示されている。   FIG. 15 is another example of the danger notification image. In FIG. 15, when the game image is switched to the danger notification image, the display process of the avatar AVA for guiding the player's movement is performed. For example, in FIG. 15, an avatar AVA displays a conversation “Dangerous. The image of this avatar AVA and its conversation display (speech balloon) is displayed superimposed on the danger notification image.

図15のようなアバターAVAを表示し、このアバターAVAを用いてプレーヤを誘導すれば、境界方向とは異なる方向側(後ろ側)に、プレーヤを効果的に誘導することが可能になる。従って、壁301にぶつかる危険を回避して、安全な方向にプレーヤを誘導できるため、より適切な危険報知を実現できるようになる。   If the avatar AVA as shown in FIG. 15 is displayed and the player is guided using the avatar AVA, the player can be effectively guided in a direction side (back side) different from the boundary direction. Accordingly, it is possible to avoid the danger of hitting the wall 301 and guide the player in a safe direction, so that more appropriate danger notification can be realized.

また本実施形態では、図12(A)のようにエリアARの境界BDへのプレーヤPLの接近(又は到達)が検出された場合に、図16に示すような危険報知オブジェクトOBW表示されたゲーム画像を表示するようにしてもよい。そして図12(B)のようにエリアARの境界BDを越えたプレーヤPLの移動が検出された場合に、例えば図16のゲーム画像から、図14、図15に示すようなモデル空間での危険報知画像に切り替える。   Further, in the present embodiment, when the approach (or arrival) of the player PL to the boundary BD of the area AR is detected as shown in FIG. 12A, a game in which a danger notification object OBW is displayed as shown in FIG. An image may be displayed. When the movement of the player PL exceeding the boundary BD of the area AR is detected as shown in FIG. 12B, for example, the danger in the model space as shown in FIGS. 14 and 15 from the game image of FIG. Switch to the notification image.

図16では、ゲーム画像に対して、ワイヤーフレームの壁オブジェクト(網目状のオブジェクト)である危険報知オブジェクトOBWが重畳して表示されている。このような危険報知オブジェクトOBWを表示することで、図12(A)のDR1方向に移動することをプレーヤが諦めて、例えばDR1方向の反対側の方向にプレーヤが移動することを、期待できるようになる。また危険報知オブジェクトOBWは網目状になっているため、プレーヤは観客等の画像を相変わらず見ることができ、危険報知が原因でゲームへの没入感が阻害されてしまうのを最小限に抑制できる。   In FIG. 16, a danger notification object OBW, which is a wire frame wall object (mesh-like object), is displayed superimposed on the game image. By displaying such a danger notification object OBW, it can be expected that the player gives up moving in the DR1 direction in FIG. 12A and moves in the direction opposite to the DR1 direction, for example. become. Further, since the danger notification object OBW has a mesh shape, the player can still see the image of the spectator and the like, and can prevent the sense of immersion in the game from being hindered due to the danger notification.

しかしながら、プレーヤがライブ演奏で興奮していると、このような危険報知オブジェクトOBWの重畳表示を行っても、プレーヤがDR1方向への移動を止めない事態も起こり得る。   However, if the player is excited by the live performance, there may be a situation in which the player does not stop moving in the DR1 direction even when such a danger notification object OBW is displayed in a superimposed manner.

このとき本実施形態では、図12(B)に示すようにエリアARの境界BDを越えたプレーヤPLの移動が検出された場合に、ゲーム画像から、図14、図15に示すような危険報知画像に切り替わる。図14、図15のような危険報知画像が表示されることで、プレーヤは目の前の壁301を視覚的に確実に認識できるようになる。従って、プレーヤは、境界方向であるDR1方向側への移動を止めるようになり、壁301にぶつかってしまう事態を確実に防止できるようになる。   At this time, in this embodiment, when the movement of the player PL beyond the boundary BD of the area AR is detected as shown in FIG. 12B, the danger notification as shown in FIGS. Switch to the image. By displaying the danger notification images as shown in FIGS. 14 and 15, the player can visually recognize the wall 301 in front of the eyes reliably. Therefore, the player stops moving toward the DR1 direction, which is the boundary direction, and can reliably prevent a situation where the player hits the wall 301.

そして、このようなゲーム画像から危険報知画像への切り替え後に、図12(C)のようにプレーヤPLが、エリアARの境界BDの内側方向であるDR2方向に戻ったことが検出されると、今度は危険報知画像からゲーム画像に切り替わるようになる。   Then, after switching from such a game image to a danger notification image, it is detected that the player PL has returned to the DR2 direction, which is the inner side of the boundary BD of the area AR, as shown in FIG. This time, the danger notification image is switched to the game image.

このようにすれば、境界BDを越えた移動により、ゲーム画像から、一旦、図14、図15の危険報知画像に切り替わってしまうが、図12(C)のようにプレーヤが元の立ち位置の方向に引き返せば、危険報知画像からゲーム画像に戻るようになる。このため、一瞬だけ危険報知画像が表示された後、通常のゲーム画像の表示に戻るため、プレーヤのゲームプレイに対して与える支障を、最小限に抑えることが可能になる。   In this way, the game image temporarily switches from the game image to the danger notification image shown in FIGS. 14 and 15 due to the movement beyond the boundary BD. However, as shown in FIG. If it turns back in a direction, it will return to a game image from a danger notification image. For this reason, after the danger notification image is displayed for a moment, the display returns to the display of the normal game image, so that it is possible to minimize the obstacles to the player's game play.

以上のように本実施形態によれば、プレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出されたり、或いは境界を越えた移動が検出された場合などに、ゲーム画像から危険報知画像に切り替わるようになる。これにより、例えば現実世界のプレイエリア又はゲーム装置筐体内において、境界方向に対応する方向に障害物等が存在した場合において、プレーヤが障害物等にぶつかるのを、より確実に回避できるようになる。この結果、頭部装着型表示装置を利用したゲームにおいて、より適切な危険報知を実現できるゲーム装置の提供が可能になる。   As described above, according to the present embodiment, the game image is detected when the approach or arrival of the player to the boundary of the area set as the movement range of the player is detected or the movement beyond the boundary is detected. To the danger notification image. As a result, for example, when an obstacle or the like exists in a direction corresponding to the boundary direction in the real-world play area or the game apparatus housing, the player can more reliably avoid hitting the obstacle or the like. . As a result, it is possible to provide a game device that can realize more appropriate danger notification in a game using a head-mounted display device.

また、例えば図14、図15の危険報知画像を表示する代わりに、ゲーム画像の表示から、画面の全面が真っ白になる表示に切り替える手法も考えられる。   Further, for example, instead of displaying the danger notification image of FIGS. 14 and 15, a method of switching from the display of the game image to a display in which the entire screen is completely white can be considered.

しかしながら、このような画面の全面が真っ白となる表示を行うと、プレーヤが自分の位置や向く方向を見失ってしまうおそれがある。即ち、HMD200で目を覆われているプレーヤは、視界の全面が真っ白になってしまうと、自分の位置や方向を認識する基準となる表示物が存在しなくなってしまうため、自分の位置や方向を見失ってしまう。   However, when such a display with the entire screen being completely white is performed, the player may lose sight of his / her position and direction. That is, a player whose eyes are covered with the HMD 200 has no display object serving as a reference for recognizing his / her position and direction when the entire field of view is completely white. Lose sight.

これに対して図14、図15のような危険報知画像では、プレイエリアの個室を構成する壁301等の表示物の画像が表示される。このため、この表示物の位置を基準とすることで、プレーヤは、自分の位置や方向を見失わなくて済むようになる。また、図12(C)のようにプレーヤが元の立ち位置に戻れば、危険報知画像から通常のゲーム画像に切り替わるため、プレーヤのゲームへの没入度が、それほど低下しないという利点がある。   On the other hand, in the danger notification images as shown in FIGS. 14 and 15, an image of a display object such as the wall 301 constituting the private room of the play area is displayed. Therefore, by using the position of the display object as a reference, the player does not have to lose sight of his / her position and direction. Also, as shown in FIG. 12C, when the player returns to the original standing position, the danger notification image is switched to the normal game image, so that there is an advantage that the degree of immersion of the player in the game does not decrease so much.

また本実施形態によれば、危険報知画像を生成するモデル空間での視点の設定を、ゲーム画像を生成するゲーム空間での視点とは異なる設定にすることもできる。   Further, according to the present embodiment, the setting of the viewpoint in the model space for generating the danger notification image can be set to be different from the viewpoint in the game space for generating the game image.

例えば、通常のゲーム画像を生成する場合には、図17(A)に示すように、ゲーム画像を生成するための視点である仮想カメラVCは、現実世界でのプレーヤPLの視点に対応する位置に設定される。例えばプレーヤPLの視点の位置に仮想カメラVCが配置され、仮想カメラVCの向く方向は、プレーヤPLの視線方向に設定される。   For example, when generating a normal game image, as shown in FIG. 17A, the virtual camera VC, which is the viewpoint for generating the game image, is located at the position corresponding to the viewpoint of the player PL in the real world. Set to For example, the virtual camera VC is disposed at the viewpoint position of the player PL, and the direction in which the virtual camera VC faces is set to the line-of-sight direction of the player PL.

一方、危険報知画像を生成する場合に、図17(B)では、危険報知画像を生成するための視点である仮想カメラVCが、現実世界でのプレーヤPLの視点とは異なる位置に設定されている。例えば図17(B)では、プレーヤPLの後方であり且つ上方に、仮想カメラVCが設定されている。このようにすれば、プレーヤPLの方を俯瞰して見ているような危険報知画像を表示できる。例えば図13のように、個室内の壁301、302、303、ドア306、ステーション280などの多くの部材が、プレーヤの視界に入るような危険報知画像が表示される。このようにすれば、プレーヤは、これらの部材の位置関係などを把握することで、自分の位置や方向を見失ってしまうのを、回避できるようになる。   On the other hand, when the danger notification image is generated, in FIG. 17B, the virtual camera VC that is the viewpoint for generating the danger notification image is set at a position different from the viewpoint of the player PL in the real world. Yes. For example, in FIG. 17B, a virtual camera VC is set behind and above the player PL. In this way, it is possible to display a danger notification image as if looking down at the player PL. For example, as shown in FIG. 13, a danger notification image is displayed such that many members such as the walls 301, 302, and 303, the door 306, and the station 280 in the private room enter the player's field of view. In this way, the player can avoid losing sight of his / her position and direction by grasping the positional relationship of these members.

この時に、通常の一人称視点のゲーム画像の場合とは異なり、仮想プレーヤに対応するキャラクタについても、危険報知画像に表示してもよい。即ち、モデル空間において、プレーヤPLの位置に対応する位置に、プレーヤPLを模したモデルで形成されるキャラクタの3次元モデルオブジェクトを配置する。このようにすれば、プレーヤは、自身を模したキャラクタと、壁301、302、303、ドア306、ステーション280等の部材との位置関係を正確に把握できるようになる。従って、危険報知画像の表示時に、プレーヤが自分の位置や方向を見失ってしまう事態を、更に確実に回避できるようになる。   At this time, unlike the case of a normal first person viewpoint game image, the character corresponding to the virtual player may also be displayed in the danger notification image. That is, a three-dimensional model object of a character formed by a model imitating the player PL is arranged at a position corresponding to the position of the player PL in the model space. In this way, the player can accurately grasp the positional relationship between the character imitating himself and the members such as the walls 301, 302, 303, the door 306, and the station 280. Therefore, it is possible to more reliably avoid the situation where the player loses his or her position or direction when displaying the danger notification image.

また本実施形態では、ゲーム画像と危険報知画像の間の画像の切り替えをシームレスに切り替えることが望ましい。例えば図18(A)に示すように、ゲーム画像IMGMと危険報知画像IMDGの間の切り替えを、例えばフェイドイン・フェイドアウトの処理により、シームレスに切り替える。例えばゲーム画像IMGMから危険報知画像IMDGに切り替える場合には、ゲーム画像IMGMのフェイドアウト処理を行いながら、危険報知画像IMDGのフェイドイン処理を行う。一方、危険報知画像IMDGからゲーム画像IMGMに切り替える場合には、危険報知画像IMDGのフェイドアウト処理を行いながら、ゲーム画像IMGMのフェイドイン処理を行う。   In the present embodiment, it is desirable to seamlessly switch the image between the game image and the danger notification image. For example, as shown in FIG. 18A, switching between the game image IMGM and the danger notification image IMDG is seamlessly switched by, for example, fade-in / fade-out processing. For example, when switching from the game image IMGM to the danger notification image IMDG, the danger notification image IMDG is faded in while the game image IMGM is faded out. On the other hand, when switching from the danger notification image IMDG to the game image IMGM, a fade-in process of the game image IMGM is performed while performing a fade-out process of the danger notification image IMDG.

このようなシームレスな画像の切り替えは種々の手法により実現できる。例えばシームレスな画像の切り替えは半透明合成により実現できる。例えば半透明合成におけるゲーム画像のα値をαとし、危険報知画像のα値をβとする。α=1、β=1は、各々、ゲーム画像、危険報知画像が不透明であることを意味する。α=0、β=0は、各々、ゲーム画像、危険報知画像が透明であることを意味する。例えばβ=1−αの関係が成り立つ。そしてゲーム画像から危険報知画像に切り替える場合には、αを1から0に徐々に変化させて、ゲーム画像を不透明から透明に変化させると共に、βを0から1に徐々に変化させて、危険報知画像を透明から不透明に変化させればよい。一方、危険報知画像からゲーム画像に切り替える場合には、βを1から0に徐々に変化させると共に、αを0から1に徐々に変化させればよい。このようにすれば、半透明合成を用いたシームレスな画像の切り替えを実現できる。或いは、ゲーム画像と危険報知画像の切り替えの際の中間画像として、ゲーム画像と危険報知画像が混ざったモザイク画像を生成して、シームレスな画像の切り替えを実現してもよい。或いはワイプイン・ワイプアウトなどの手法により、シームレスな画像の切り替えを実現してもよい。   Such seamless image switching can be realized by various methods. For example, seamless image switching can be realized by translucent composition. For example, α value of the game image in the semi-transparent composition is α, and α value of the danger notification image is β. α = 1 and β = 1 mean that the game image and the danger notification image are opaque, respectively. α = 0 and β = 0 mean that the game image and the danger notification image are transparent, respectively. For example, the relationship β = 1−α is established. When switching from the game image to the danger notification image, α is gradually changed from 1 to 0, the game image is changed from opaque to transparent, and β is gradually changed from 0 to 1, so that the danger notification is performed. The image may be changed from transparent to opaque. On the other hand, when switching from the danger notification image to the game image, β may be gradually changed from 1 to 0 and α may be gradually changed from 0 to 1. In this way, seamless image switching using translucent composition can be realized. Alternatively, seamless image switching may be realized by generating a mosaic image in which the game image and the danger notification image are mixed as an intermediate image when switching between the game image and the danger notification image. Alternatively, seamless image switching may be realized by a method such as wipe-in and wipe-out.

このように、ゲーム画像から危険報知画像にシームレスに切り替えれば、プレーヤの視界に映し出される画像が、ゲーム画像から危険報知画像に、突然に切り替わってしまい、プレーヤが混乱したり、プレーヤのゲームへの没入度が極端に低下してしまうなどの事態を回避できるようになる。   Thus, if the game image is seamlessly switched to the danger notification image, the image displayed in the player's field of view is suddenly switched from the game image to the danger notification image, and the player is confused, or the player's game It is possible to avoid situations such as the immersive degree being extremely lowered.

また本実施形態では、ゲーム画像から危険報知画像への切り替え制御を、プレーヤの移動速度に基づいて行ってもよい。例えば図18(B)に示すように、プレーヤPLの移動速度VSを検出し、ゲーム画像IMGMから危険報知画像IMDGへの切り替えタイミングを、プレーヤPLの移動速度VSに基づき制御する。例えば、プレーヤの移動速度VSが速い場合には、より早いタイミングで、ゲーム画像IMGMから危険報知画像IMDGへの切り替えを行う。例えば図18(B)では、境界BDから距離LBの範囲にプレーヤPLが位置した場合に、ゲーム画像IMGMから危険報知画像IMDGに切り替わる。この場合、プレーヤPLの移動速度VSが速い場合には、移動速度VSが遅い場合に比べて、距離LBを長くする。例えばプレーヤPLの移動速度VSが速いと、図14、図15のような危険報知画像による危険報知が間に合わなくなる事態が生じる。この点、例えば移動速度VSが速くなるにつれて、図18(B)の距離LBを長くすれば、このような事態の発生を抑制できるようになる。   In the present embodiment, the switching control from the game image to the danger notification image may be performed based on the moving speed of the player. For example, as shown in FIG. 18B, the moving speed VS of the player PL is detected, and the switching timing from the game image IMGM to the danger notification image IMDG is controlled based on the moving speed VS of the player PL. For example, when the moving speed VS of the player is fast, switching from the game image IMGM to the danger notification image IMDG is performed at an earlier timing. For example, in FIG. 18B, when the player PL is located within the range of the distance LB from the boundary BD, the game image IMGM is switched to the danger notification image IMDG. In this case, when the moving speed VS of the player PL is fast, the distance LB is made longer than when the moving speed VS is slow. For example, when the moving speed VS of the player PL is high, a situation in which the danger notification by the danger notification images as shown in FIGS. In this regard, for example, as the moving speed VS increases, the occurrence of such a situation can be suppressed by increasing the distance LB in FIG.

また図18(C)では、エリアARの境界BDを越えたプレーヤPLの移動の検出により、ゲーム画像IMGMから危険報知画像IMDGに切り替わっている。この切り替えタイミングについても、プレーヤPLの移動速度VSに基づき制御する。例えば、プレーヤの移動速度VSが速い場合には、より早いタイミングで、図18(C)でのゲーム画像IMGMから危険報知画像IMDGへの切り替えを行う。このようにすることで、プレーヤPLが壁等にぶつかってしまう事態を、より効果的に抑制できるようになる。   In FIG. 18C, the game image IMGM is switched to the danger notification image IMDG by detecting the movement of the player PL beyond the boundary BD of the area AR. This switching timing is also controlled based on the moving speed VS of the player PL. For example, when the moving speed VS of the player is fast, the game image IMGM in FIG. 18C is switched to the danger notification image IMDG at an earlier timing. By doing in this way, the situation where the player PL hits a wall or the like can be more effectively suppressed.

また本実施形態では、ゲーム画像上に危険報知画像を重畳表示すると共に、ゲーム画像上での危険報知画像の表示サイズを変化させる処理を行ってもよい。例えば図19(A)では、ゲーム画像IMGM上に危険報知画像IMDGが重畳表示されている。例えば図19(A)では、画面の右隅に、小さい表示サイズの危険報知画像IMDGが重畳表示されている。   In the present embodiment, the danger notification image may be superimposed on the game image, and the display size of the danger notification image on the game image may be changed. For example, in FIG. 19A, the danger notification image IMDG is superimposed and displayed on the game image IMGM. For example, in FIG. 19A, a danger notification image IMDG having a small display size is superimposed and displayed at the right corner of the screen.

そして画像の切り替えの際には、ゲーム画像IMGM上での危険報知画像IMDGの表示サイズを大きくする処理を行う。そして図19(B)に示すように、最終的には全画面に危険報知画像IMDGが表示されるようにする。なお図19(B)において、例えば危険報知画像IMDGの画面の隅の目立たない場所に、小さい表示サイズのゲーム画像IMGMを重畳表示してもよい。   Then, at the time of image switching, processing for increasing the display size of the danger notification image IMDG on the game image IMGM is performed. As shown in FIG. 19B, the danger notification image IMDG is finally displayed on the entire screen. In FIG. 19B, for example, the game image IMGM having a small display size may be superimposed and displayed at a place where the corner of the screen of the danger notification image IMDG is not conspicuous.

このような表示サイズの制御処理を行うことで、図18(A)のシームレスな画像の切り替え処理と同様の効果を得ることが可能になる。   By performing such display size control processing, it is possible to obtain the same effect as the seamless image switching processing of FIG.

またモデル空間での危険報知画像の生成手法としては、種々の手法を採用できる。例えば図19(C)に示すような白などの単色で構成されるワイヤーフレームのモデルにより、危険報知画像を生成してもよい。例えばプレイエリアやゲーム装置筺体のモデルとして、ワイヤーフレームのモデルを用いる。そして、このワイヤーフレームのモデルのモデル情報に基づき設定されるモデル空間を用意する。そしてこのワイヤーフレームのモデルによるモデル空間において所与の視点から見える画像を、危険報知画像として生成する。   Various methods can be adopted as a method for generating the danger notification image in the model space. For example, the danger notification image may be generated by a wire frame model composed of a single color such as white as shown in FIG. For example, a wire frame model is used as a model of a play area or a game apparatus housing. A model space set based on the model information of the wire frame model is prepared. Then, an image that can be seen from a given viewpoint in the model space of the wire frame model is generated as a danger notification image.

また本実施形態では、ゲーム画像から危険報知画像に切り替わった場合に、振動デバイス164を振動させる処理や、警告音を出力する処理を行ってもよい。   In the present embodiment, when the game image is switched to the danger notification image, a process of vibrating the vibrating device 164 or a process of outputting a warning sound may be performed.

例えば図12(A)のようにエリアARの境界BDへのプレーヤPLの接近(又は到達)が検出された場合に、図20に示すように、例えば入力装置160−2に設けられた振動デバイス164を振動させて、警告のための振動を発生させる。また例えばヘッドホン270を用いて、警告音を出力する。こうすることで、図12(A)のように境界BDへのプレーヤPLの接近(又は到達)が検出された場合に、図14、図15に示すような危険報知画像が表示されると共に、警告振動の発生や警告音の出力が行われるようになり、より効果的な危険報知を実現できる。   For example, when the approach (or arrival) of the player PL to the boundary BD of the area AR is detected as shown in FIG. 12A, as shown in FIG. 20, for example, the vibration device provided in the input device 160-2 164 is vibrated to generate a vibration for warning. For example, a warning sound is output using the headphones 270. By doing so, when the approach (or arrival) of the player PL to the boundary BD is detected as shown in FIG. 12A, a danger notification image as shown in FIGS. 14 and 15 is displayed, Generation of warning vibrations and output of warning sounds are performed, and more effective danger notification can be realized.

或いは図12(B)のようにエリアARの境界BDを越えたプレーヤPLの移動が検出された場合に、図20に示すように、例えば入力装置160−2に設けられた振動デバイス164を振動させて、警告のための振動を発生させたり、ヘッドホン270を用いて、警告音を出力してもよい。このようにすれば図12(B)の場合に、危険報知画像が表示されると共に、警告振動の発生や警告音の出力が行われるようになり、より効果的な危険報知を実現できる。   Alternatively, when the movement of the player PL exceeding the boundary BD of the area AR is detected as shown in FIG. 12B, for example, as shown in FIG. 20, the vibration device 164 provided in the input device 160-2 is vibrated. Thus, a warning vibration may be generated or a warning sound may be output using the headphones 270. In this way, in the case of FIG. 12 (B), the danger notification image is displayed, the generation of warning vibration and the output of warning sound are performed, and more effective danger notification can be realized.

2.5 第1、第2のゲーム処理
次に図6〜図8で説明したゲームに好適な本実施形態のゲーム処理について説明する。本実施形態では入力装置160の入力情報を用いた第1のゲーム処理と、視線情報を用いた第2のゲーム処理という2つのゲーム処理を行い、これらの2つのゲーム処理の結果により、プレーヤのゲーム成績を評価する手法を採用している。
2.5 First and Second Game Processing Next, game processing according to this embodiment suitable for the game described with reference to FIGS. 6 to 8 will be described. In the present embodiment, two game processes, a first game process using the input information of the input device 160 and a second game process using the line-of-sight information, are performed. Based on the results of these two game processes, A method for evaluating game results is used.

具体的には本実施形態では、図21(A)に示すように、HMD200を装着したプレーヤの視線情報と、入力装置160を用いてプレーヤが入力した入力情報を取得する。例えば図1の入力処理部102が、視線情報と、入力装置160の入力情報を取得する。視線情報は、プレーヤの視線方向等を表す情報であり、前述したトラッキング処理などにより取得できる。例えばトラッキング処理によりHMD200の方向情報等を求めることで、プレーヤの視線情報を特定できる。また入力装置160の入力情報は、例えばプレーヤの演奏により入力される演奏情報(ボーカル演奏、楽器演奏)である。   Specifically, in the present embodiment, as shown in FIG. 21A, the line-of-sight information of the player wearing the HMD 200 and the input information input by the player using the input device 160 are acquired. For example, the input processing unit 102 in FIG. 1 acquires line-of-sight information and input information of the input device 160. The line-of-sight information is information representing the line-of-sight direction of the player, and can be acquired by the tracking processing described above. For example, the line-of-sight information of the player can be specified by obtaining the direction information of the HMD 200 by tracking processing. The input information of the input device 160 is, for example, performance information (vocal performance, musical instrument performance) input by a player's performance.

そして本実施形態では図21(A)に示すように、入力装置160からの入力情報(例えばマイクにより検出された音声情報)に基づいて、プレーヤが第1のゲームをプレイするための第1のゲーム処理を行う。またプレーヤの視線方向を表す視線情報に基づいて、プレーヤが第2のゲームをプレイするための第2のゲーム処理を行う。そして第1のゲーム処理の結果と第2のゲーム処理の結果に基づいて、プレーヤのゲーム成績を演算する。例えば、第1、第2のゲーム処理でのプレーヤのゲームプレイの評価結果に基づいて、全体としてのプレーヤのゲーム成績(総合的又は最終的なゲーム結果)を演算する。   In this embodiment, as shown in FIG. 21A, based on input information from the input device 160 (for example, audio information detected by a microphone), a first game for the player to play the first game is performed. Perform game processing. Further, based on the line-of-sight information indicating the player's line-of-sight direction, the second game process for the player to play the second game is performed. Based on the result of the first game process and the result of the second game process, the game result of the player is calculated. For example, based on the evaluation results of the player's game play in the first and second game processes, the game results (total or final game result) of the player as a whole are calculated.

この場合に第1のゲームは、例えば入力情報であるプレーヤの演奏情報に基づきゲーム処理が行われる音楽ゲームである。例えばプレーヤが歌う音楽ゲームである場合には、入力情報である演奏情報は、プレーヤの歌の音声情報などである。またプレーヤが楽器を弾く音楽ゲームである場合には、入力情報である演奏情報は、プレーヤが弾く楽器(或いは楽器を模した装置)により生成される楽器音情報などである。   In this case, the first game is a music game in which game processing is performed based on player performance information that is input information, for example. For example, in the case of a music game that the player sings, the performance information that is input information is audio information of the player's song. In the case of a music game in which the player plays an instrument, the performance information that is input information is instrument sound information generated by an instrument played by the player (or an apparatus that simulates an instrument).

一方、第2のゲームは、プレーヤの視線とターゲットとの関係を表す視線関係情報に基づきゲーム処理が行われるゲームである。例えば第2のゲームは、プレーヤの視線(視線方向)をターゲットに合わせるゲームプレイを行うことで、プレーヤのゲームプレイが評価されるゲームである。具体的には第2のゲームは、プレーヤの視線とターゲットである観客との関係を表す視線関係情報に基づきゲーム処理が行われる。   On the other hand, the second game is a game in which game processing is performed based on line-of-sight relationship information representing the relationship between the player's line of sight and the target. For example, the second game is a game in which the game play of the player is evaluated by performing a game play that matches the player's line of sight (gaze direction) with the target. Specifically, in the second game, game processing is performed based on line-of-sight relationship information representing the relationship between the player's line of sight and the target audience.

例えば図21(B)では、観客ADA、ADB、ADCのうち、観客ADBがターゲットとなっている。この場合に、HMDを装着するプレーヤPLの視線VLPと、ターゲットである観客ADBとの視線関係情報に基づいてゲーム処理が行われ、プレーヤのゲームプレイが評価される。具体的には、ターゲットADBの方にプレーヤPLがその視線VLPを向けると、プレーヤのゲームプレイの評価が高い評価になる。   For example, in FIG. 21B, the audience ADB is the target among the audiences ADA, ADB, and ADC. In this case, game processing is performed based on the line-of-sight information between the line of sight VLP of the player PL wearing the HMD and the target audience ADB, and the game play of the player is evaluated. Specifically, when the player PL points the line of sight VLP toward the target ADB, the player's evaluation of game play becomes high.

前述の図6のゲームを例にとれば、プレーヤに対してアピールをしている観客AD4が、プレーヤが視線を合わせるターゲットになる。そしてプレーヤが、このターゲットである観客AD4の方に視線を向けて歌うと、プレーヤのゲームプレイの評価が高い評価になる。   Taking the above-described game of FIG. 6 as an example, the audience AD4 appealing to the player becomes the target for the player to look at. When the player sings with the line of sight toward the target audience AD4, the player's evaluation of game play becomes high.

また本実施形態では図22(A)に示すように、第1のゲームでのプレーヤのゲームプレイを評価する第1の評価処理と、第2のゲームでのプレーヤのゲームプレイを評価する第2の評価処理が行われる。そして第1の評価処理の結果と第2の評価処理の結果に基づいて、プレーヤのゲーム成績(例えば総合的又は最終的なゲーム成績)を演算する。   In this embodiment, as shown in FIG. 22A, a first evaluation process for evaluating the game play of the player in the first game and a second evaluation for evaluating the game play of the player in the second game are performed. The evaluation process is performed. Based on the result of the first evaluation process and the result of the second evaluation process, the player's game score (for example, overall or final game score) is calculated.

即ち、入力装置160からの演奏情報等の入力情報に基づきゲーム処理が行われる第1のゲームにおいて、プレーヤのゲームプレイを評価する第1の評価処理が行われる。例えば、音楽ゲームである第1のゲームにおいて、プレーヤの演奏についての評価処理が行われる。   That is, in the first game in which game processing is performed based on input information such as performance information from the input device 160, first evaluation processing for evaluating the game play of the player is performed. For example, in a first game that is a music game, an evaluation process for the performance of the player is performed.

またプレーヤの視線情報に基づきゲーム処理が行われる第2のゲームにおいて、プレーヤのゲームプレイを評価する第2の評価処理が行われる。例えば図21(B)のように、プレーヤPLは、ターゲットである観客ADBに視線VLPを合わせる第2のゲームをプレイし、そのゲームプレイを評価する第2の評価処理が行われる。そして例えば観客ADBに視線を向けてボーカル演奏等を行うと、プレーヤのゲームプレイが評価されて、第2の評価処理でのプレーヤのゲームプレイの評価が高くなる。   In the second game in which the game process is performed based on the player's line-of-sight information, a second evaluation process for evaluating the game play of the player is performed. For example, as shown in FIG. 21B, the player PL plays a second game in which the line of sight VLP is aligned with the target audience ADB, and a second evaluation process is performed to evaluate the game play. For example, when a vocal performance or the like is performed with the line of sight toward the audience ADB, the game play of the player is evaluated, and the evaluation of the game play of the player in the second evaluation process is increased.

そして、このような第1の評価処理の結果と第2の評価処理の結果に基づいて、プレーヤのゲーム成績を演算する。例えば第1の評価処理の結果と第2の評価処理の結果を総合的に判断して、例えばプレーヤの最終的なゲーム成績(ポイント、得点等)が演算される。   Based on the result of the first evaluation process and the result of the second evaluation process, the game result of the player is calculated. For example, the result of the first evaluation process and the result of the second evaluation process are comprehensively determined, and for example, the final game score (point, score, etc.) of the player is calculated.

より具体的には図22(B)に示すように、第2の評価処理では、プレーヤの視線とターゲットとの関係を表す視線関係情報と、第1のゲームでのプレーヤの入力情報の入力状況とに基づいて、第2のゲームでのプレーヤのゲームプレイの評価を行う。   More specifically, as shown in FIG. 22B, in the second evaluation process, the line-of-sight relationship information indicating the relationship between the player's line of sight and the target, and the input status of the player's input information in the first game Based on the above, the player's game play is evaluated in the second game.

例えば図21(B)において、プレーヤPLが、ターゲットである観客ADBの方に視線VLPを向けている状態で、プレーヤの入力情報である演奏情報が入力されている状況である場合には、第2のゲームでのプレーヤのゲームプレイの評価を高い評価にする。例えば、プレーヤPLが観客ADBの方に視線VLPを向けて、歌っている状況であると判断された場合に、第2のゲームでのプレーヤのゲームプレイの評価を高い評価にする。   For example, in FIG. 21B, when the player PL is in the state where the line of sight VLP is directed toward the target audience ADB, the performance information as the player input information is input. The evaluation of the game play of the player in the game of 2 is made high. For example, when it is determined that the player PL is singing with the line of sight VLP directed toward the audience ADB, the player's evaluation of the game play in the second game is highly evaluated.

また図22(C)に示すように、第2の評価処理では、プレーヤの視線とターゲットとの関係を表す視線関係情報と、プレーヤの動き情報に基づいて、第2のゲームでのプレーヤのゲームプレイの評価を行ってもよい。   As shown in FIG. 22C, in the second evaluation process, the player's game in the second game is based on the line-of-sight relationship information indicating the relationship between the player's line of sight and the target and the player's movement information. You may evaluate play.

例えば図21(B)において、プレーヤPLが、ターゲットである観客ADBの方に視線VLPを向けている状態で、プレーヤの所定の動作(アクション)が、動き情報により検出された場合には、第2のゲームでのプレーヤのゲームプレイの評価を高い評価にする。例えばプレーヤPLが観客ADBの方に視線VLPを向けて、所定の動作を行っていると判断された場合に、第2のゲームでのプレーヤのゲームプレイの評価を高い評価にする。具体的には、観客ADBからのかけ声や、或いは観客ADBの動きに合わせて、プレーヤPLが腕を上げるなどの所定の動作を行っていると判断された場合に、第2のゲームでのプレーヤのゲームプレイの評価を高い評価にする。プレーヤPLの動き情報は、例えば図2(A)の入力装置160(160−1又は160−2)の位置や方向を検出することで取得できる。   For example, in FIG. 21B, when a predetermined action (action) of the player is detected from the motion information in a state where the player PL points the line of sight VLP toward the target audience ADB, The evaluation of the game play of the player in the game of 2 is made high. For example, when it is determined that the player PL is performing a predetermined action with the line of sight VLP directed toward the audience ADB, the evaluation of the player's game play in the second game is highly evaluated. Specifically, the player in the second game when it is determined that the player PL is performing a predetermined action such as raising the arm in accordance with the call from the audience ADB or the movement of the audience ADB. Make the gameplay rating high. The movement information of the player PL can be acquired by detecting the position and direction of the input device 160 (160-1 or 160-2) in FIG.

また本実施形態では、第2のゲームでのプレーヤのゲームプレイの結果に基づいて、プレーヤの視線のターゲットに設定されるパラメータの値を変化させる処理を行う。そして、パラメータの値及びパラメータが所与の値に達したターゲットの数の少なくとも一方に基づいて、第2の評価処理の結果を求める。   Further, in the present embodiment, processing for changing the value of a parameter set as the target of the line of sight of the player is performed based on the game play result of the player in the second game. Then, the result of the second evaluation process is obtained based on at least one of the parameter value and the number of targets for which the parameter has reached a given value.

例えば図23(A)では、第2のゲームでのプレーヤPLのゲームプレイの結果に基づいて、プレーヤPLの視線VLPのターゲットの熱狂度パラメータの値を変化させている。具体的には図23(A)では、プレーヤPLは視線VLPを観客ADBに向けて、ボーカル演奏を行っているため、観客ADBの熱狂度パラメータが上昇している。そして観客ADBの熱狂度パラメータが最大値(広義には所与の値)に達すると、観客ADBについてはターゲットクリアの状態になる。   For example, in FIG. 23A, the value of the target thermal madness parameter of the line of sight VLP of the player PL is changed based on the game play result of the player PL in the second game. Specifically, in FIG. 23A, the player PL performs a vocal performance with the line of sight VLP toward the spectator ADB, so the enthusiastic parameter of the spectator ADB is increased. When the enthusiastic parameter of the audience ADB reaches the maximum value (given value in a broad sense), the audience ADB is in a target clear state.

そして図23(B)では、プレーヤPLは視線VLPを観客ADAに向けて、ボーカル演奏を行っているため、観客ADAの熱狂度パラメータが上昇している。そして観客ADAの熱狂度パラメータが最大値に達すると、観客ADAについてもターゲットクリアの状態になる。   In FIG. 23B, the player PL performs a vocal performance with the line of sight VLP toward the spectator ADA, so the madness parameter of the spectator ADA is increased. When the madness parameter of the audience ADA reaches the maximum value, the audience ADA is also in a target clear state.

また図23(C)では、プレーヤPLは視線VLPを観客ADCに向けて、ボーカル演奏を行っているため、観客ADCの熱狂度パラメータが上昇している。そして観客ADCの熱狂度パラメータが最大値に達すると、観客ADCについてもターゲットクリアの状態になる。   In FIG. 23C, the player PL performs a vocal performance with the line of sight VLP toward the spectator ADC, so the madness parameter of the spectator ADC is increased. When the madness parameter of the audience ADC reaches the maximum value, the audience ADC is also in a target clear state.

そして、このようにして全ての観客ADA、ADB、ADCについて、ターゲットクリア(最大値への到達)になると、全ターゲットクリアになり、プレーヤPLに対して最も高い評価(評価ポイント)が与えられる。一方、ターゲットクリアの数が2つである場合には、全ターゲットクリアに比べて、プレーヤPLに与えられる評価は低くなる。同様に、ターゲットクリアの数が1つである場合には、ターゲットクリアの数が2つである場合に比べて、プレーヤPLに与えられる評価は低くなる。   Then, for all spectators ADA, ADB, and ADC in this way, when the target is cleared (reaching the maximum value), all targets are cleared, and the highest evaluation (evaluation point) is given to the player PL. On the other hand, when the number of target clears is two, the evaluation given to the player PL is lower than that for all target clears. Similarly, when the number of target clears is one, the evaluation given to the player PL is lower than when the number of target clears is two.

このように図23(A)〜図23(C)では、熱狂度パラメータ(広義にはパラメータ)が、最大値(所与の値)に達したターゲットの数に基づいて、プレーヤの第2の評価処理の結果が求められている。なお、このような最大値(所与の値)に達したターゲットの数ではなく、ターゲット(観客)のパラメータの値そのものにより、第2の評価処理の結果を求めてもよい。   In this way, in FIGS. 23A to 23C, the player's second parameter is based on the number of targets for which the thermal madness parameter (parameter in a broad sense) has reached the maximum value (given value). The result of the evaluation process is required. Note that the result of the second evaluation process may be obtained not by the number of targets that have reached such a maximum value (given value) but by the value of the target (audience) parameter itself.

また図22(A)の第1の評価処理では、入力情報であるプレーヤの演奏情報に基づき特定される音程及びリズムの少なくとも一方に基づいて、第1のゲームでのプレーヤのゲームプレイを評価する。例えばカラオケの採点ゲームと同様の方式で、第1のゲームでのプレーヤのゲームプレイを評価する。   In the first evaluation process of FIG. 22A, the player's game play in the first game is evaluated based on at least one of the pitch and rhythm specified based on the player's performance information as input information. . For example, the player's game play in the first game is evaluated in the same manner as a karaoke scoring game.

例えば図6〜図8で説明したゲームでは、図24(A)に示すように、歌詞や歌の音程表示がプレーヤに映し出される。この音程表示は、評価処理の基準(お手本)となる音程を、プレーヤが視覚的に把握するためのものである。また、この音程表示により、評価処理の基準(お手本)となるリズムについても、プレーヤは把握できる。   For example, in the game described with reference to FIGS. 6 to 8, as shown in FIG. 24 (A), lyrics and song pitches are displayed on the player. This pitch display is for the player to visually grasp the pitch that serves as a reference (example) for the evaluation process. In addition, this pitch display allows the player to grasp the rhythm that serves as a reference (example) for the evaluation process.

そしてプレーヤがボーカルの演奏を行った場合に、図24(B)に示すような音程、リズムの基準データとの比較処理が行われる。即ち、プレーヤのボーカルの演奏情報から、プレーヤの歌の音程、リズムのデータを抽出する処理を行う。そして、抽出されたプレーヤの音程、リズムのデータと、音程、リズムの基準データとの比較処理を行うことで、第1のゲーム(音楽ゲーム)でのプレーヤのゲームプレイ(ボーカル演奏)の評価を行う。このようにすれば、プレーヤの歌の上手さを適正に評価できるようになる。なお、音程、リズムの基準データに加えて、図24(B)に示すように音量の基準データを用意し、プレーヤのボーカルの音量のコントロールの上手さ(抑揚)についても評価するようにしてもよい。   Then, when the player performs a vocal performance, a comparison process with the pitch and rhythm reference data as shown in FIG. 24B is performed. That is, processing for extracting pitch and rhythm data of the player's song from the player's vocal performance information is performed. Then, the player's game play (vocal performance) in the first game (music game) is evaluated by comparing the extracted pitch and rhythm data of the player with the reference data of the pitch and rhythm. Do. In this way, it is possible to appropriately evaluate the skill of the player's song. It should be noted that in addition to the pitch and rhythm reference data, volume reference data is prepared as shown in FIG. 24B, and the skill (inflection) of the player's vocal volume control is evaluated. Good.

2.6 処理例
次に本実施形態の処理例について図25、図26のフローチャートを用いて説明する。
2.6 Processing Example Next, a processing example of this embodiment will be described with reference to the flowcharts of FIGS. 25 and 26.

図25は、エリアの境界へのプレーヤの接近(又は到達)の検出時におけるゲーム画像と危険報知画像の切り替え処理のフローチャートである。   FIG. 25 is a flowchart of a process for switching between a game image and a danger notification image when detecting the approach (or arrival) of a player to an area boundary.

まず、HMDを装着して移動するプレーヤの位置情報を取得する(ステップS1)。この位置情報は、前述したトラッキング処理などにより取得できる。   First, the position information of the player who moves while wearing the HMD is acquired (step S1). This position information can be acquired by the tracking process described above.

次に、ゲーム空間情報に基づくゲーム画像を生成する(ステップS2)。例えば図6〜図8に示すようなゲーム画像を生成する。またモデル情報に基づく危険報知画像を生成する(ステップS3)。例えば図14、図15に示すような危険報知画像を生成する。   Next, a game image based on the game space information is generated (step S2). For example, game images as shown in FIGS. 6 to 8 are generated. Further, a danger notification image based on the model information is generated (step S3). For example, a danger notification image as shown in FIGS. 14 and 15 is generated.

次に、ステップS1で取得された位置情報に基づいて、エリアの境界へのプレーヤの接近(又は到達)が検出されたか否かを判断する(ステップS4)。そして、接近(又は到達)が検出された場合には、ゲーム画像から危険報知画像への切り替え処理を行う(ステップS5)。即ち、図12(A)で説明した画像の切り替え処理を行う。   Next, based on the position information acquired in step S1, it is determined whether or not the approach (or arrival) of the player to the boundary of the area is detected (step S4). And when approach (or arrival) is detected, the switching process from a game image to a danger notification image is performed (step S5). That is, the image switching process described with reference to FIG.

次に、プレーヤが境界の内側方向に戻ったか否かを判断する(ステップS6)。そして戻った場合には、危険報知画像からゲーム画像への切り替え処理を行う(ステップS7)。即ち、図12(C)で説明した画像の切り替え処理を行う。   Next, it is determined whether or not the player has returned to the inner side of the boundary (step S6). And when it returns, the switching process from a danger notification image to a game image is performed (step S7). That is, the image switching process described with reference to FIG.

図26は、エリアの境界を越えたプレーヤの移動の検出時におけるゲーム画像と危険報知画像の切り替え処理のフローチャートである。図26のステップS11〜S13の処理は、図25のステップS1〜S3の処理と同様であるため詳細な説明を省略する。   FIG. 26 is a flowchart of the switching process between the game image and the danger notification image when the movement of the player beyond the boundary of the area is detected. The processes in steps S11 to S13 in FIG. 26 are the same as the processes in steps S1 to S3 in FIG.

図26のステップS14で、エリアの境界を越えたプレーヤの移動が検出された場合には、ゲーム画像から危険報知画像への切り替え処理を行う(ステップS15)。即ち、図12(B)で説明した画像の切り替え処理を行う。   If it is detected in step S14 in FIG. 26 that the player has moved beyond the boundary of the area, a process for switching from the game image to the danger notification image is performed (step S15). That is, the image switching process described with reference to FIG.

次に、プレーヤが境界の内側方向に戻ったか否かを判断する(ステップS16)。そして戻った場合には、危険報知画像からゲーム画像への切り替え処理を行う(ステップS17)。即ち、図12(C)で説明した画像の切り替え処理を行う。   Next, it is determined whether or not the player has returned to the inner side of the boundary (step S16). And when returning, the switching process from a danger notification image to a game image is performed (step S17). That is, the image switching process described with reference to FIG.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、位置情報や視線情報の取得処理、ゲーム処理、画像の切り替え処理、ゲーム画像の生成処理、危険報知画像の生成処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話機等の種々のゲーム装置に適用できる。例えばゲーム装置は、ゲームのプログラムがインストールされて実行される携帯電話機や携帯型情報端末であってもよい。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. Further, the position information and line-of-sight information acquisition processing, game processing, image switching processing, game image generation processing, danger notification image generation processing, and the like are not limited to those described in the present embodiment, and are equivalent to these. Techniques and processing are also included in the scope of the present invention. The present invention can be applied to various games. Further, the present invention can be applied to various game devices such as a business game device, a home game device, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. . For example, the game device may be a mobile phone or a portable information terminal in which a game program is installed and executed.

PL プレーヤ、AR エリア、BD 境界、
IMGM ゲーム画像、IMDG 危険報知画像、OBW 危険報知オブジェクト、
100 処理部、102 入力処理部、110 演算処理部、111 ゲーム処理部、
112 ゲーム進行処理部、113 評価処理部、114 キャラクタ処理部、
115 パラメータ処理部、116 オブジェクト空間設定部、
117 仮想カメラ制御部、118 ゲーム成績演算部、120 表示処理部、
130 音処理部、150 撮像部、151、152 カメラ、
160(160−1、160−2) 入力装置、161 演奏情報入力装置、
162 マイク、170 記憶部、172 空間情報記憶部、174 楽曲情報記憶部、
176 パラメータ記憶部、178 描画バッファ、180 情報記憶媒体、
192 音出力部、194 I/F部、195 携帯型情報記憶媒体、196 通信部、
200 HMD(頭部装着型表示装置)、201〜203 受光素子、210 センサ部、
220 表示部、231〜236 発光素子、240 処理部、260 ヘッドバンド、
270 ヘッドホン、280、284 ステーション、
281、282、285、286 発光素子、
301〜304 壁、306 ドア、307、308 通気設備、
310、312 キャスター、320 ゲーム装置筺体
PL player, AR area, BD boundary,
IMGM game image, IMDG danger notification image, OBW danger notification object,
100 processing units, 102 input processing units, 110 arithmetic processing units, 111 game processing units,
112 game progress processing unit, 113 evaluation processing unit, 114 character processing unit,
115 parameter processing unit, 116 object space setting unit,
117 virtual camera control unit, 118 game result calculation unit, 120 display processing unit,
130 sound processing unit, 150 imaging unit, 151, 152 camera,
160 (160-1, 160-2) input device, 161 performance information input device,
162 microphone, 170 storage unit, 172 spatial information storage unit, 174 music information storage unit,
176 parameter storage unit, 178 drawing buffer, 180 information storage medium,
192 sound output unit, 194 I / F unit, 195 portable information storage medium, 196 communication unit,
200 HMD (head-mounted display device), 201-203 light receiving element, 210 sensor unit,
220 display unit, 231 to 236 light emitting element, 240 processing unit, 260 headband,
270 headphones, 280, 284 stations,
281, 282, 285, 286 Light emitting element,
301-304 Wall, 306 Door, 307, 308 Ventilation equipment,
310, 312 caster, 320 game machine housing

Claims (12)

頭部装着型表示装置を装着して現実世界のプレイエリア又はゲーム装置筐体内で移動するプレーヤの位置情報を取得する入力処理部と、
複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理を行うゲーム処理部と、
前記ゲーム空間において所与の視点から見えるゲーム画像を、前記頭部装着型表示装置に表示する処理を行う表示処理部と、
を含み、
前記ゲーム処理部は、
前記ゲーム空間での前記ゲーム画像と、前記プレイエリアのモデル情報又は前記ゲーム装置筐体のモデル情報に基づき設定されるモデル空間での危険報知画像のいずれを表示するかを、前記プレイエリア又は前記ゲーム装置筐体内でのプレーヤの位置に応じて切り替える処理を行うことを特徴とするゲーム装置。
An input processing unit that wears a head-mounted display device and acquires position information of a player who moves in a real-world play area or game device housing;
A game processing unit for processing a game played by a player in a virtual game space in which a plurality of objects are arranged;
A display processing unit that performs processing for displaying a game image seen from a given viewpoint in the game space on the head-mounted display device;
Including
The game processing unit
Which of the game image in the game space, the model information of the play area or the danger notification image in the model space set based on the model information of the game apparatus housing is displayed, the play area or the A game device that performs a process of switching according to a position of a player in a game device housing.
請求項1において、
前記プレイエリアの前記モデル情報は、前記プレイエリアの形状情報を少なくとも含むモデル情報であり、前記ゲーム装置筐体の前記モデル情報は、前記ゲーム装置筐体の形状情報を少なくとも含むモデル情報であることを特徴とするゲーム装置。
In claim 1,
The model information of the play area is model information including at least shape information of the play area, and the model information of the game apparatus housing is model information including at least shape information of the game apparatus housing. A game device characterized by the above.
請求項1又は2において、
前記ゲーム処理部は、
前記危険報知画像を生成する前記モデル空間での視点の視点位置又は視線方向を、前記ゲーム画像を生成する前記ゲーム空間での視点とは異なる視点位置又は視線方向に設定することを特徴とするゲーム装置。
In claim 1 or 2,
The game processing unit
A game characterized in that the viewpoint position or line-of-sight direction of the viewpoint in the model space for generating the danger notification image is set to a viewpoint position or line-of-sight direction different from the viewpoint in the game space for generating the game image. apparatus.
請求項1乃至3のいずれかにおいて、
前記ゲーム処理部は、
前記プレイエリア又は前記ゲーム装置筐体内においてプレーヤの移動範囲として設定されたエリアの境界へのプレーヤの接近又は到達が検出された場合、或いは前記境界を越えたプレーヤの移動が検出された場合に、前記ゲーム画像から前記危険報知画像への切り替え処理を行うことを特徴とするゲーム装置。
In any one of Claims 1 thru | or 3,
The game processing unit
When the player's approach or arrival to the boundary of the area set as the player's movement range in the play area or the game device casing is detected, or when the player's movement beyond the boundary is detected, A game apparatus that performs a switching process from the game image to the danger notification image.
請求項4において、
前記表示処理部は、
前記エリアの外側に対応する場所に観客の画像が表示される前記ゲーム画像を、前記頭部装着型表示装置に表示する処理を行うことを特徴とするゲーム装置。
In claim 4,
The display processing unit
A game device that performs processing for displaying the game image in which an image of a spectator is displayed in a place corresponding to the outside of the area on the head-mounted display device.
請求項1乃至5のいずれかにおいて、
前記表示処理部は、
前記ゲーム画像から前記危険報知画像に切り替わった場合に、プレーヤの移動を誘導する案内情報の表示処理を行うことを特徴とするゲーム装置。
In any one of Claims 1 thru | or 5,
The display processing unit
A game apparatus that performs a display process of guidance information for guiding a player to move when the danger image is switched from the game image.
請求項1乃至6のいずれかにおいて、
前記表示処理部は、
前記ゲーム画像から前記危険報知画像に切り替わった場合に、プレーヤの移動を誘導するアバターの表示処理を行うことを特徴とするゲーム装置。
In any one of Claims 1 thru | or 6.
The display processing unit
An avatar display process for guiding a player's movement when the game image is switched to the danger notification image.
請求項1乃至7のいずれかにおいて、
前記表示処理部は、
前記ゲーム画像と前記危険報知画像の間の画像の切り替えをシームレスに切り替える処理を行うことを特徴とするゲーム装置。
In any one of Claims 1 thru | or 7,
The display processing unit
A game device characterized by performing a process of seamlessly switching an image between the game image and the danger notification image.
請求項1乃至8のいずれかにおいて、
前記表示処理部は、
前記ゲーム画像上に前記危険報知画像を重畳表示すると共に、前記ゲーム画像上での前記危険報知画像の表示サイズを変化させる処理を行うことを特徴とするゲーム装置。
In any one of Claims 1 thru | or 8.
The display processing unit
A game apparatus characterized by superimposing and displaying the danger notification image on the game image and changing a display size of the danger notification image on the game image.
請求項1乃至9のいずれかにおいて、
前記ゲーム処理部は、
前記ゲーム画像から前記危険報知画像への切り替え制御を、プレーヤの移動速度に基づいて行うことを特徴とするゲーム装置。
In any one of Claims 1 thru | or 9,
The game processing unit
A game apparatus, wherein switching control from the game image to the danger notification image is performed based on a moving speed of a player.
請求項1乃至10のいずれかにおいて、
前記ゲーム処理部は、
前記ゲーム画像から前記危険報知画像に切り替わった場合に、振動デバイスを振動させる処理又は警告音を出力する処理を行うことを特徴とするゲーム装置。
In any one of Claims 1 thru | or 10.
The game processing unit
A game apparatus that performs a process of vibrating a vibration device or a process of outputting a warning sound when the game image is switched to the danger notification image.
頭部装着型表示装置を装着して現実世界のプレイエリア又はゲーム装置筐体内で移動するプレーヤの位置情報を取得する入力処理部と、
複数のオブジェクトが配置される仮想的なゲーム空間において、プレーヤがプレイするゲームの処理を行うゲーム処理部と、
前記ゲーム空間において所与の視点から見えるゲーム画像を、前記頭部装着型表示装置に表示する処理を行う表示処理部として、
コンピュータを機能させ、
前記ゲーム処理部は、
前記ゲーム空間での前記ゲーム画像と、前記プレイエリアのモデル情報又は前記ゲーム装置筐体のモデル情報に基づき設定されるモデル空間での危険報知画像のいずれを表示するかを、前記プレイエリア又は前記ゲーム装置筐体内でのプレーヤの位置に応じて切り替える処理を行うことを特徴とするプログラム。
An input processing unit that wears a head-mounted display device and acquires position information of a player who moves in a real-world play area or game device housing;
A game processing unit for processing a game played by a player in a virtual game space in which a plurality of objects are arranged;
As a display processing unit that performs processing for displaying a game image seen from a given viewpoint in the game space on the head-mounted display device,
Make the computer work,
The game processing unit
Which of the game image in the game space, the model information of the play area or the danger notification image in the model space set based on the model information of the game apparatus housing is displayed, the play area or the A program characterized by performing a process of switching according to a position of a player in a game apparatus housing.
JP2015257581A 2015-12-29 2015-12-29 Game device and program Pending JP2017119032A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015257581A JP2017119032A (en) 2015-12-29 2015-12-29 Game device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015257581A JP2017119032A (en) 2015-12-29 2015-12-29 Game device and program

Publications (1)

Publication Number Publication Date
JP2017119032A true JP2017119032A (en) 2017-07-06

Family

ID=59271106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015257581A Pending JP2017119032A (en) 2015-12-29 2015-12-29 Game device and program

Country Status (1)

Country Link
JP (1) JP2017119032A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019113942A (en) * 2017-12-21 2019-07-11 株式会社コナミデジタルエンタテインメント Display control apparatus, display control system, and program
JP2019115687A (en) * 2019-03-01 2019-07-18 株式会社カプコン Game program and game device
JP2019122496A (en) * 2018-01-12 2019-07-25 株式会社バンダイナムコスタジオ Simulation system and program
JP2019526104A (en) * 2016-06-13 2019-09-12 株式会社ソニー・インタラクティブエンタテインメント Viewer management at view position in virtual reality environment
JP2019192259A (en) * 2017-12-21 2019-10-31 株式会社コナミデジタルエンタテインメント Display control apparatus, display control system, and program
JP2020086792A (en) * 2018-11-21 2020-06-04 サン電子株式会社 Virtual experience system and computer program
JP2020527273A (en) * 2017-07-13 2020-09-03 スマイリースコープ・ピーティーワイ.・リミテッド Virtual reality device
CN111831106A (en) * 2019-04-15 2020-10-27 未来市股份有限公司 Head-mounted display system, related method and related computer readable recording medium
JP2021514070A (en) * 2018-02-15 2021-06-03 バルブ コーポレーション Image display control using display device tracking
JP2022040118A (en) * 2020-08-26 2022-03-10 ソフトバンク株式会社 Display control device, program, and system
WO2022202056A1 (en) 2021-03-22 2022-09-29 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023199564A1 (en) * 2022-04-14 2023-10-19 キヤノン株式会社 Information processing device, information processing system, display device, information processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003151039A (en) * 2001-11-14 2003-05-23 Sharp Corp Image monitoring device
JP2009075610A (en) * 2008-12-04 2009-04-09 Olympus Corp See-through type display device with hazard prevention function and hazard prevention method when see-through type display device is used
JP2013257716A (en) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Obstacle avoiding device and obstacle avoidance method
US20140361956A1 (en) * 2013-06-09 2014-12-11 Sony Computer Entertainment Inc. Head Mounted Display
WO2015048038A2 (en) * 2013-09-30 2015-04-02 Sony Computer Entertainment Inc. Camera based safety mechanisms for users of head mounted displays

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003151039A (en) * 2001-11-14 2003-05-23 Sharp Corp Image monitoring device
JP2009075610A (en) * 2008-12-04 2009-04-09 Olympus Corp See-through type display device with hazard prevention function and hazard prevention method when see-through type display device is used
JP2013257716A (en) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Obstacle avoiding device and obstacle avoidance method
US20140361956A1 (en) * 2013-06-09 2014-12-11 Sony Computer Entertainment Inc. Head Mounted Display
WO2015048038A2 (en) * 2013-09-30 2015-04-02 Sony Computer Entertainment Inc. Camera based safety mechanisms for users of head mounted displays

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019526104A (en) * 2016-06-13 2019-09-12 株式会社ソニー・インタラクティブエンタテインメント Viewer management at view position in virtual reality environment
JP2020527273A (en) * 2017-07-13 2020-09-03 スマイリースコープ・ピーティーワイ.・リミテッド Virtual reality device
JP7289540B2 (en) 2017-07-13 2023-06-12 スマイリースコープ・ピーティーワイ.・リミテッド virtual reality device
JP2019192259A (en) * 2017-12-21 2019-10-31 株式会社コナミデジタルエンタテインメント Display control apparatus, display control system, and program
JP2019113942A (en) * 2017-12-21 2019-07-11 株式会社コナミデジタルエンタテインメント Display control apparatus, display control system, and program
JP7142853B2 (en) 2018-01-12 2022-09-28 株式会社バンダイナムコ研究所 Simulation system and program
JP2019122496A (en) * 2018-01-12 2019-07-25 株式会社バンダイナムコスタジオ Simulation system and program
JP2021514070A (en) * 2018-02-15 2021-06-03 バルブ コーポレーション Image display control using display device tracking
JP7276753B2 (en) 2018-02-15 2023-05-18 バルブ コーポレーション Method and system for image display control using display device tracking
JP2020086792A (en) * 2018-11-21 2020-06-04 サン電子株式会社 Virtual experience system and computer program
JP2019115687A (en) * 2019-03-01 2019-07-18 株式会社カプコン Game program and game device
JP2020177608A (en) * 2019-04-15 2020-10-29 未來市股▲ふん▼有限公司 Head-mounted display system capable of displaying virtual scene and map of real environment in picture-in-picture mode, related method and non-transitory computer readable storage medium
CN111831106A (en) * 2019-04-15 2020-10-27 未来市股份有限公司 Head-mounted display system, related method and related computer readable recording medium
JP2022040118A (en) * 2020-08-26 2022-03-10 ソフトバンク株式会社 Display control device, program, and system
JP7285904B2 (en) 2020-08-26 2023-06-02 ソフトバンク株式会社 Display controller, program and system
WO2022202056A1 (en) 2021-03-22 2022-09-29 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023199564A1 (en) * 2022-04-14 2023-10-19 キヤノン株式会社 Information processing device, information processing system, display device, information processing method, and program

Similar Documents

Publication Publication Date Title
CN106924966B (en) Game device and processing method
JP6727807B2 (en) Game device and program
JP2017119032A (en) Game device and program
JP6461850B2 (en) Simulation system and program
US10953336B2 (en) Role simulation method and terminal apparatus in VR scene
JP6306442B2 (en) Program and game system
JP6754678B2 (en) Simulation system and program
JP7041888B2 (en) Simulation system and program
JP6515057B2 (en) Simulation system, simulation apparatus and program
JP2018109835A (en) Simulation system and its program
JP6055651B2 (en) Information processing system, information processing program, information processing control method, and information processing apparatus
JP2019175323A (en) Simulation system and program
JP7144796B2 (en) Simulation system and program
JP6774260B2 (en) Simulation system
JP6622832B2 (en) Program and game system
JP6918189B2 (en) Simulation system and program
JP2017178612A (en) Take-up device and simulation system
JP6325016B2 (en) Simulation system and program
JP2018201247A (en) Simulation system
JP6401200B2 (en) Simulation system
JP2019126416A (en) Game program and game machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200707