JP2019176934A - Simulation system - Google Patents

Simulation system Download PDF

Info

Publication number
JP2019176934A
JP2019176934A JP2018067315A JP2018067315A JP2019176934A JP 2019176934 A JP2019176934 A JP 2019176934A JP 2018067315 A JP2018067315 A JP 2018067315A JP 2018067315 A JP2018067315 A JP 2018067315A JP 2019176934 A JP2019176934 A JP 2019176934A
Authority
JP
Japan
Prior art keywords
user
game
play area
information
simulation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018067315A
Other languages
Japanese (ja)
Inventor
裕朗 川池
Hiroaki Kawaike
裕朗 川池
朝 市野塚
Asa Ichinozuka
朝 市野塚
中村 裕紀
Hironori Nakamura
裕紀 中村
靖典 原
Yasunori Hara
靖典 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Original Assignee
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc, Bandai Namco Studios Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2018067315A priority Critical patent/JP2019176934A/en
Publication of JP2019176934A publication Critical patent/JP2019176934A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide a simulation system, etc. capable of appropriately notifying a user of an occurrence of an attack event.SOLUTION: A simulation system includes a plurality of launching devices LC1-LC6 provided in the periphery of a play area AR of a user US for launching a substance that provides a tactile stimulus to the user US, and a control part for controlling the launching of the substance by the plurality of launching devices LC1-LC6 according to a status of a game that the user US plays. In a notification event EVI that notifies the user US of an occurrence of an attack event beforehand, the control part executes control to cause the launching device corresponding to the notification event of the plurality of launching devices LC1-LC6 to launch the substance to provide a tactile stimulus.SELECTED DRAWING: Figure 16

Description

本発明は、シミュレーションシステム等に関する。   The present invention relates to a simulation system and the like.

従来より、仮想空間において仮想カメラから見える画像を生成するシミュレーションシステムが知られている。例えば仮想カメラから見える画像をHMD(頭部装着型表示装置)に表示して、バーチャルリアリティ(VR)を実現するシミュレーションシステムの従来技術としては、特許文献1に開示される技術がある。またゲームコントローラにアクチェエータを設け、振動による触覚フィードバックを行うシステムの従来技術としては、特許文献2に開示される技術がある。   2. Description of the Related Art Conventionally, simulation systems that generate images that can be viewed from a virtual camera in a virtual space are known. For example, as a prior art of a simulation system that realizes virtual reality (VR) by displaying an image seen from a virtual camera on an HMD (head-mounted display device), there is a technique disclosed in Patent Document 1. Further, as a conventional technique of a system that provides an actuator in a game controller and performs tactile feedback by vibration, there is a technique disclosed in Patent Document 2.

特開平11−309269号公報JP-A-11-309269 特開2003−199974号公報Japanese Patent Laid-Open No. 2003-199974

特許文献2の従来技術では、ゲームコントローラ等に設けられたアクチェエータの振動により触覚刺激を与える触覚フィードバックを行っている。   In the prior art disclosed in Patent Document 2, haptic feedback is performed to give a haptic stimulus by vibration of an actuator provided in a game controller or the like.

しかしながら、従来の手法では、例えばゲーム中において銃を撃った際の衝撃や、ドライブゲームにおけるハンドルに伝わる振動などを、触覚フィードバックによりユーザに感じさせるものであった。例えば攻撃イベントの発生を事前に報知するために触覚刺激を利用する手法については提案されていなかった。   However, in the conventional method, for example, the impact when a gun is shot during a game, the vibration transmitted to the handle in a drive game, and the like are made to feel to the user by tactile feedback. For example, there has been no proposal for a technique that uses tactile stimulation to notify in advance of the occurrence of an attack event.

本発明の幾つかの態様によれば、攻撃イベントが発生することをユーザに対して適切に報知することが可能なシミュレーションシステム等を提供できる。   According to some aspects of the present invention, it is possible to provide a simulation system or the like that can appropriately notify a user that an attack event has occurred.

本発明の一態様は、ユーザのプレイエリアの周囲に設けられ、前記ユーザに対して触覚刺激を与える物質を発射する複数の発射装置と、前記ユーザがプレイするゲームの状況に応じて、前記複数の発射装置の前記物質の発射を制御する制御部と、を含み、前記制御部は、前記ユーザに対して攻撃イベントが発生することを事前に報知する報知イベントにおいて、前記複数の発射装置のうち前記報知イベントに対応する発射装置に、触覚刺激を与える前記物質を発射させる制御を行うシミュレーションシステムに関係する。   According to one aspect of the present invention, a plurality of launch devices that are provided around a user's play area and that fire a substance that gives a tactile stimulus to the user, and the plurality of launch devices according to a situation of a game played by the user. A control unit that controls the emission of the substance of the launching device, wherein the control unit is a notification event that notifies the user in advance that an attack event occurs, The present invention relates to a simulation system that performs control for causing the emission device corresponding to the notification event to emit the substance that gives tactile stimulation.

本発明の一態様によれば、ユーザのプレイエリアの周囲には、ユーザに対して触覚刺激を与える物質を発射する複数の発射装置が設けられ、ユーザがプレイするゲームの状況に応じて、複数の発射装置の物質の発射が制御される。そして複数の発射装置のうち報知イベントに対応する発射装置が、触覚刺激を与える物質を発射することで、攻撃イベントが発生することがユーザに対して事前に報知される。このようにすれば、ユーザは、攻撃イベントの発生前に、発射装置から発射された物質による触覚刺激により、当該攻撃イベントが発生することを事前に知ることが可能になる。従って、攻撃イベントが発生することをユーザに対して適切に報知することが可能なシミュレーションシステム等の提供が可能になる。   According to one aspect of the present invention, a plurality of launching devices that launch a substance that gives tactile stimulation to the user are provided around the user's play area, and a plurality of launching devices are provided according to the situation of the game played by the user. The launch of the launcher's material is controlled. Then, the launching device corresponding to the notification event among the plurality of launching devices fires a substance that gives a tactile stimulus, thereby informing the user in advance that an attack event occurs. In this way, before the occurrence of the attack event, the user can know in advance that the attack event will occur due to the tactile stimulus by the substance emitted from the launching device. Therefore, it is possible to provide a simulation system or the like that can appropriately notify the user that an attack event has occurred.

また本発明の一態様では、仮想空間の設定処理を行う仮想空間設定部と、前記仮想空間での前記ゲームの処理を行うゲーム処理部と、前記ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報と、ゲーム状況情報を取得する情報取得部と、を含み、前記制御部は、前記ユーザ情報及び前記ゲーム状況情報の少なくとも1つに基づいて、前記発射装置を制御してもよい。   In one aspect of the present invention, a virtual space setting unit that performs virtual space setting processing, a game processing unit that performs processing of the game in the virtual space, and at least the position information, direction information, and posture information of the user Including user information including one and an information acquisition unit that acquires game situation information, wherein the control unit controls the launching device based on at least one of the user information and the game situation information. Also good.

このようにすることで、ユーザ情報やゲーム状況情報を反映させた発射装置による物質の発射制御を実現できるようになる。   By doing in this way, the launch control of the substance by the launch device reflecting the user information and the game situation information can be realized.

また本発明の一態様では、ユーザの視覚及び聴覚の少なくとも一方が閉塞状態になっていてもよい。   In one embodiment of the present invention, at least one of the user's vision and hearing may be in an occluded state.

このようにユーザの視覚や聴覚が閉塞状態になっている場合には、ユーザは、周囲の状況を視覚や聴覚により把握することが困難になる。このような場合にも、発射装置により物質を発射することで、当該物質による触覚刺激を利用して、視覚や聴覚が閉塞状態になっているユーザに対して、攻撃イベントが発生することを事前に報知できるようになる。   In this way, when the user's vision and hearing are in an obstructed state, it becomes difficult for the user to grasp the surrounding situation by vision and hearing. Even in such a case, by using a tactile stimulus by the substance by launching the substance with the launching device, an attack event is generated in advance for a user whose vision or hearing is blocked. Can be notified.

また本発明の一態様では、前記ゲームの処理の結果に基づいて、前記ユーザが視界を覆うように装着する頭部装着型表示装置の表示画像を生成する表示処理部を含んでもよい。   In one aspect of the present invention, a display processing unit that generates a display image of a head-mounted display device that the user wears so as to cover the field of view may be included based on a result of the game process.

このように頭部装着型表示装置を用いることで、ユーザの視界に広がるVR空間を表現しながら、発射装置から発射された物質による触覚刺激により、攻撃イベントが発生することをユーザに対して事前に報知することが可能になる。   By using the head-mounted display device in this way, while expressing the VR space spreading in the user's field of view, it is possible in advance for the user to generate an attack event due to a tactile stimulus by a substance emitted from the emission device. Can be notified.

また本発明の一態様では、前記ユーザの前記プレイエリアを揺動させる揺動機構を含んでもよい。   Moreover, in one aspect of the present invention, a rocking mechanism that rocks the play area of the user may be included.

このようにすれば、報知イベントの発生後、攻撃イベントが発生すると、ユーザのプレイエリアが揺動機構により揺動するようになり、攻撃イベントが発生したことをプレイエリアの揺動によりユーザに体感させることが可能になる。   In this way, when an attack event occurs after the occurrence of the notification event, the user's play area is swung by the rocking mechanism, and the user can feel that the attack event has occurred by rocking the play area. It becomes possible to make it.

また本発明の一態様では、前記揺動機構は、少なくとも1つのエアバネ部を含み、前記エアバネ部により前記プレイエリアを揺動させてもよい。   In the aspect of the invention, the swing mechanism may include at least one air spring portion, and the play area may be swung by the air spring portion.

このようにすれば、少なくとも1つのエアバネ部を用いた簡素な構成で、プレイエリアを揺動させることができ、攻撃イベントが発生したことをプレイエリアの揺動によりユーザに体感させることが可能になる。   In this way, the play area can be swung with a simple configuration using at least one air spring, and the user can feel that an attack event has occurred by swinging the play area. Become.

また本発明の一態様では、前記揺動機構は、前記報知イベントの発生後、前記攻撃イベントが発生した場合に、前記プレイエリアを揺動させてもよい。   In the aspect of the invention, the swing mechanism may swing the play area when the attack event occurs after the notification event occurs.

このようにすれば、報知イベントにおいては、触覚刺激を与える物質を発射装置が発射することにより、攻撃イベントが発生することをユーザに対して事前に報知し、攻撃イベントにおいては、プレイエリアを揺動させることで、攻撃の発生をユーザに体感させることが可能になる。   In this way, in the notification event, the launch device fires a substance that gives a tactile stimulus, thereby informing the user in advance that an attack event will occur, and in the attack event, the play area is shaken. By moving it, it is possible to let the user experience the occurrence of an attack.

また本発明の一態様では、前記揺動機構は、前記攻撃イベントが、前記ユーザの視野範囲内で発生した場合と、視野範囲外で発生した場合とで、異なる揺動量で前記プレイエリアを揺動させてもよい。   In one aspect of the present invention, the swing mechanism swings the play area with a different swing amount when the attack event occurs within the visual field range of the user and when the attack event occurs outside the visual field range. It may be moved.

このようにすれば、攻撃イベントが視野範囲内で発生したか、或いは視野範囲外で発生したかに応じて、揺動機構の揺動がユーザに与える体感の程度が異なるようになり、多様な体感制御が可能になる。   In this way, depending on whether an attack event occurs within the field of view or outside the field of view, the degree of bodily sensation given to the user by the swing of the swing mechanism varies. Experience control is possible.

また本発明の一態様では、前記報知イベントは、前記攻撃イベントにおいて前記ユーザに対して攻撃を行う攻撃体の移動の際に発生するイベントであってもよい。   Moreover, in one aspect of the present invention, the notification event may be an event that occurs when an attacker that attacks the user in the attack event moves.

このようにすれば、攻撃イベントにおいてユーザの方に移動してくるような攻撃体が攻撃を行う場合に、当該攻撃体が攻撃を行うことを、報知イベントによりユーザに対して事前に報知することが可能になる。   In this way, when an attacking body that moves toward the user in an attack event attacks, the notification event notifies the user in advance that the attacking body will attack. Is possible.

また本発明の一態様では、前記ユーザが回転自在に移動可能な前記プレイエリアを、所与の範囲に制限するプレイエリア制限機構を含んでもよい。   Further, according to one aspect of the present invention, it may include a play area restriction mechanism that restricts the play area that the user can rotate to a given range.

このようにすれば、プレイエリアにおいて回転自在に移動するユーザの移動範囲を、プレイエリア制限機構を用いて制限できるようになる。   In this way, the movement range of the user who moves freely in the play area can be restricted using the play area restriction mechanism.

また本発明の一態様は、ユーザのプレイエリアの周囲に設けられ、前記ユーザに対して触覚刺激を与える物質を発射する複数の発射装置と、前記ユーザがプレイするゲームの状況に応じて、前記複数の発射装置の前記物質の発射を制御する制御部と、前記ユーザが回転自在に移動可能な前記プレイエリアを、所与の範囲に制限するプレイエリア制限機構と、を含み、前記制御部は、前記ユーザの周囲において報知イベントが発生した場合に、前記複数の発射装置のうち前記報知イベントに対応する発射装置に、触覚刺激を与える前記物質を発射させる制御を行うシミュレーションシステムに関係する。   Further, according to one aspect of the present invention, a plurality of launching devices that are provided around a user's play area and launch a substance that gives tactile stimulation to the user, and the game played by the user, A control unit that controls the launch of the substance of a plurality of launch devices; and a play area limiting mechanism that limits the play area that the user can rotate to a given range, the control unit comprising: Further, the present invention relates to a simulation system that performs control to cause the emission device corresponding to the notification event, among the plurality of emission devices, to emit the substance that gives a tactile stimulus when the notification event occurs around the user.

本発明の一態様によれば、ユーザのプレイエリアの周囲には、ユーザに対して触覚刺激を与える物質を発射する複数の発射装置が設けられる。そしてユーザがプレイするゲームの状況に応じて、複数の発射装置の物質の発射が制御されると共に、ユーザが回転自在に移動可能なプレイエリアが、プレイエリア制限機構により所与の範囲に制限される。このようにすれば、プレイエリアにおいて回転自在に移動するユーザの移動範囲を、プレイエリア制限機構を用いて制限できるようになり、ユーザが不適切な動作や不用意な動作をすることでシミュレーションシステムの運営等に支障が生じるのを防止できる。   According to one aspect of the present invention, a plurality of launching devices that launch a substance that gives tactile stimulation to the user are provided around the user's play area. And according to the situation of the game which a user plays, while the discharge of the substance of a plurality of launchers is controlled, the play area which a user can move freely is restricted to a given range by a play area restriction mechanism. The In this way, the range of movement of the user who moves freely in the play area can be restricted using the play area restriction mechanism, and the simulation system can be performed by the user performing improper or inadvertent actions. Can prevent troubles in the operation of the system.

また本発明の一態様では、前記プレイエリア制限機構は、前記ユーザの周囲を囲むように設けられる制限部材を含んでもよい。   In the aspect of the invention, the play area restriction mechanism may include a restriction member provided so as to surround the user.

このようにすれば、制限部材を用いて、ユーザが回転自在に移動可能なプレイエリアを所与の範囲に制限して、ユーザが不適切な動作や不用意な動作を行うのを防止できるようになる。   In this way, it is possible to prevent the user from performing inappropriate or inadvertent operations by limiting the play area in which the user can rotate freely to a given range by using the limiting member. become.

また本発明の一態様では、前記プレイエリア制限機構は、前記ユーザに取り付けられ、前記ユーザの回転移動に伴い前記制限部材上で回転移動する移動部を含んでもよい。   In one aspect of the present invention, the play area limiting mechanism may include a moving unit that is attached to the user and rotates on the limiting member as the user rotates.

このようにすれば、制限部材と、ユーザに取り付けられて制限部材上で移動する移動部を用いて、ユーザが回転自在に移動可能なプレイエリアを所与の範囲に制限できるようになる。   If it does in this way, it will become possible to restrict the play area which a user can move freely to a given range using a restricting member and a moving part attached to a user and moving on a restricting member.

また本発明の一態様では、前記制御部は、前記ユーザの視野範囲外において、前記報知イベントが発生した場合に、前記複数の発射装置のうち前記視野範囲外に設けられた発射装置に前記物質を発射させる制御を行ってもよい。   In one aspect of the present invention, the control unit may include the substance on a launching device provided outside the visual field range among the multiple launching devices when the notification event occurs outside the visual field range of the user. You may perform control which fires.

このようにすることで、視野範囲外にあるためユーザに見えない場所において、攻撃イベントが発生する場合に、当該攻撃イベントが発生することをユーザに対して事前に報知することが可能になる。   By doing in this way, when an attack event occurs in a place that is out of the visual field range and cannot be seen by the user, it is possible to notify the user in advance that the attack event occurs.

また本発明の一態様では、前記発射装置は、触覚刺激を与える前記物質として気体を発射してもよい。   In one embodiment of the present invention, the projecting device may eject gas as the substance that provides tactile stimulation.

このように触覚刺激を与える物質として気体を用いることで、シミュレーションシステムの衛生面や運営面において好適な発射装置を実現できるようになる。   Thus, by using gas as a substance that gives tactile stimulation, it is possible to realize a launching device suitable for hygiene and management of the simulation system.

本実施形態のシミュレーションシステムの構成例を示すブロック図。The block diagram which shows the structural example of the simulation system of this embodiment. 図2(A)、図2(B)はHMDのトラッキング処理の一例の説明図。2A and 2B are explanatory diagrams of an example of tracking processing of the HMD. 図3(A)、図3(B)はHMDのトラッキング処理の他の例の説明図。3A and 3B are explanatory diagrams of another example of the HMD tracking process. 本実施形態のシミュレーションシステムの具体的な構成例を示す斜視図。The perspective view which shows the specific structural example of the simulation system of this embodiment. 本実施形態のシミュレーションシステムの具体的な構成例を示す側面図。The side view which shows the specific structural example of the simulation system of this embodiment. 本実施形態により生成されるゲーム画像の例。The example of the game image produced | generated by this embodiment. 本実施形態により生成されるゲーム画像の例。The example of the game image produced | generated by this embodiment. 本実施形態により実現されるゲームの説明図。Explanatory drawing of the game implement | achieved by this embodiment. 本実施形態により実現されるゲームの説明図。Explanatory drawing of the game implement | achieved by this embodiment. 本実施形態により実現されるゲームの説明図。Explanatory drawing of the game implement | achieved by this embodiment. 本実施形態により実現されるゲームの説明図。Explanatory drawing of the game implement | achieved by this embodiment. 本実施形態により実現されるゲームの説明図。Explanatory drawing of the game implement | achieved by this embodiment. 本実施形態により実現されるゲームの説明図。Explanatory drawing of the game implement | achieved by this embodiment. 本実施形態により実現されるゲームの説明図。Explanatory drawing of the game implement | achieved by this embodiment. 図15(A)、図15(B)は発射装置や攻撃体の配置についての説明図。FIGS. 15A and 15B are explanatory views of the arrangement of the launching device and the attacking body. 図16(A)、図16(B)は本実施形態の報知手法の説明図。FIG. 16A and FIG. 16B are explanatory diagrams of the notification method of the present embodiment. 図17(A)、図17(B)は本実施形態の報知手法の説明図。FIG. 17A and FIG. 17B are explanatory diagrams of the notification method of the present embodiment. 揺動機構によるプレイエリアの揺動手法の説明図。Explanatory drawing of the rocking method of the play area by a rocking mechanism. 図19(A)、図19(B)は視野範囲に応じた揺動量の制御手法の説明図。19A and 19B are explanatory diagrams of a swing amount control method according to the visual field range. 図20(A)、図20(B)はプレイエリア制限機構によるプレイエリアの制限手法の説明図。FIG. 20A and FIG. 20B are explanatory diagrams of a play area restriction method by a play area restriction mechanism. 本実施形態の詳細な処理例を説明するフローチャート。The flowchart explaining the detailed process example of this embodiment. 本実施形態の詳細な処理例を説明するフローチャート。The flowchart explaining the detailed process example of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.シミュレーションシステム
図1は、本実施形態のシミュレーションシステム(シミュレータ、ゲームシステム、画像生成システム)の構成例を示すブロック図である。本実施形態のシミュレーションシステムは例えばバーチャルリアリティ(VR)をシミュレートするシステムであり、ゲームコンテンツを提供するゲームシステム、運転シミュレータやスポーツ競技シミュレータなどのリアルタイムシミュレーションシステム、SNSのサービスを提供するシステム、映像等のコンテンツを提供するコンテンツ提供システム、或いは遠隔作業を実現するオペレーティングシステムなどの種々のシステムに適用可能である。なお、本実施形態のシミュレーションシステムは図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Simulation System FIG. 1 is a block diagram showing a configuration example of a simulation system (simulator, game system, image generation system) of the present embodiment. The simulation system of this embodiment is a system that simulates virtual reality (VR), for example, a game system that provides game content, a real-time simulation system such as a driving simulator and a sports competition simulator, a system that provides SNS services, and video The present invention can be applied to various systems such as a content providing system that provides content such as an operating system that implements remote work. Note that the simulation system of the present embodiment is not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of the components (each unit) or adding other components are possible.

反力発生装置10は反力発生機構を有する装置であり、例えばユーザの振り動作の振り方向と逆方向側(反対方向側)に働く反力を発生する。発射装置LC1〜LCNは、ユーザに対して触覚刺激を与える物質を発射する装置である。発射装置LC1〜LCN、反力発生装置10の詳細については後述する。   The reaction force generation device 10 is a device having a reaction force generation mechanism and generates, for example, a reaction force acting on the opposite side (opposite direction side) to the swing direction of the user's swing motion. The launchers LC1 to LCN are devices that launch a substance that gives tactile stimulation to the user. Details of the launchers LC1 to LCN and the reaction force generator 10 will be described later.

可動筐体60(広義には筐体)は、ユーザのプレイ位置(プレイエリア)を変化させる筐体である。この可動筐体60は、例えばアーケード筐体などと呼ばれるものである。可動筐体60は、ユーザがライドするライド筐体であってもよいし、車ゲームやロボットゲームや飛行機ゲームなどにおけるコックピット筐体(体感筐体)であってもよいし、その他の形態の筐体であってもよい。可動筐体60は、シミュレーションシステムの本体部分であり、シミュレーションシステムを実現するための種々の機器、構造物が設けられる。可動筐体60には、少なくともプレイ位置(プレイエリア)が設定されている。可動筐体60の詳細例については後述する。   The movable housing 60 (a housing in a broad sense) is a housing that changes the play position (play area) of the user. The movable housing 60 is called, for example, an arcade housing. The movable casing 60 may be a ride casing that a user rides, a cockpit casing (sensory casing) in a car game, a robot game, an airplane game, or the like, or a casing of another form. It may be a body. The movable housing 60 is a main part of the simulation system, and is provided with various devices and structures for realizing the simulation system. At least a play position (play area) is set in the movable housing 60. A detailed example of the movable housing 60 will be described later.

操作部160は、ユーザ(プレーヤ)が種々の操作情報(入力情報)を入力するためのものである。操作部160は、例えば、ユーザが把持する把持物40(ゲームコントローラ)、レバー、操作ボタン、方向指示キー又は音声入力装置等の種々の操作デバイスにより実現できる。   The operation unit 160 is for a user (player) to input various operation information (input information). The operation unit 160 can be realized by various operation devices such as a grasped object 40 (game controller) gripped by the user, a lever, an operation button, a direction instruction key, or a voice input device, for example.

記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。ゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SSD、光ディスク装置などにより実現できる。記憶部170は、オブジェクト情報記憶部172、描画バッファ178を含む。   The storage unit 170 stores various types of information. The storage unit 170 functions as a work area such as the processing unit 100 or the communication unit 196. The game program and game data necessary for executing the game program are held in the storage unit 170. The function of the storage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), HDD (Hard Disk Drive), SSD, optical disk device, or the like. The storage unit 170 includes an object information storage unit 172 and a drawing buffer 178.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by an optical disk (DVD, BD, CD), HDD, semiconductor memory (ROM), or the like. . The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an input device, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

HMD200(頭部装着型表示装置)は、ユーザの頭部に装着されて、ユーザの眼前に画像を表示する装置である。HMD200は非透過型であることが望ましいが、透過型であってもよい。またHMD200は、いわゆるメガネタイプのHMDであってもよい。   The HMD 200 (head-mounted display device) is a device that is mounted on the user's head and displays an image in front of the user's eyes. The HMD 200 is preferably a non-transmissive type, but may be a transmissive type. The HMD 200 may be a so-called glasses-type HMD.

HMD200は、センサ部210、表示部220、処理部240を含む。なおHMD200に発光素子を設ける変形実施も可能である。センサ部210は、例えばヘッドトラッキングなどのトラッキング処理を実現するためものである。例えばセンサ部210を用いたトラッキング処理により、HMD200の位置、方向を特定する。HMD200の位置、方向が特定されることで、ユーザの視点位置、視線方向を特定できる。   The HMD 200 includes a sensor unit 210, a display unit 220, and a processing unit 240. A modification in which a light emitting element is provided in the HMD 200 is also possible. The sensor unit 210 is for realizing tracking processing such as head tracking, for example. For example, the position and direction of the HMD 200 are specified by tracking processing using the sensor unit 210. By specifying the position and direction of the HMD 200, the user's viewpoint position and line-of-sight direction can be specified.

トラッキング方式としては種々の方式を採用できる。トラッキング方式の一例である第1のトラッキング方式では、後述の図2(A)、図2(B)で詳細に説明するように、センサ部210として複数の受光素子(フォトダイオード等)を設ける。そして外部に設けられた発光素子(LED等)からの光(レーザー等)をこれらの複数の受光素子により受光することで、現実世界の3次元空間でのHMD200(ユーザの頭部)の位置、方向を特定する。第2のトラッキング方式では、後述の図3(A)、図3(B)で詳細に説明するように、複数の発光素子(LED)をHMD200に設ける。そして、これらの複数の発光素子からの光を、外部に設けられた撮像部で撮像することで、HMD200の位置、方向を特定する。第3のトラッキング方式では、センサ部210としてモーションセンサを設け、このモーションセンサを用いてHMD200の位置、方向を特定する。モーションセンサは例えば加速度センサやジャイロセンサなどにより実現できる。例えば3軸の加速度センサと3軸のジャイロセンサを用いた6軸のモーションセンサを用いることで、現実世界の3次元空間でのHMD200の位置、方向を特定できる。なお、第1のトラッキング方式と第2のトラッキング方式の組合わせ、或いは第1のトラッキング方式と第3のトラッキング方式の組合わせなどにより、HMD200の位置、方向を特定してもよい。またHMD200の位置、方向を特定することでユーザの視点位置、視線方向を特定するのではなく、ユーザの視点位置、視線方向を直接に特定するトラッキング処理を採用してもよい。   Various methods can be adopted as the tracking method. In the first tracking method, which is an example of the tracking method, a plurality of light receiving elements (photodiodes and the like) are provided as the sensor unit 210, as will be described in detail with reference to FIGS. 2A and 2B described later. Then, by receiving light (laser or the like) from a light emitting element (LED or the like) provided outside by the plurality of light receiving elements, the position of the HMD 200 (user's head) in the real world three-dimensional space, Identify the direction. In the second tracking method, a plurality of light emitting elements (LEDs) are provided in the HMD 200 as will be described in detail with reference to FIGS. 3A and 3B described later. And the position and direction of HMD200 are pinpointed by imaging the light from these light emitting elements with the imaging part provided outside. In the third tracking method, a motion sensor is provided as the sensor unit 210, and the position and direction of the HMD 200 are specified using this motion sensor. The motion sensor can be realized by, for example, an acceleration sensor or a gyro sensor. For example, by using a 6-axis motion sensor using a 3-axis acceleration sensor and a 3-axis gyro sensor, the position and direction of the HMD 200 in a three-dimensional space in the real world can be specified. Note that the position and direction of the HMD 200 may be specified by a combination of the first tracking method and the second tracking method, or a combination of the first tracking method and the third tracking method. Further, instead of specifying the user's viewpoint position and line-of-sight direction by specifying the position and direction of the HMD 200, tracking processing that directly specifies the user's viewpoint position and line-of-sight direction may be employed.

HMD200の表示部220は例えば有機ELディスプレイ(OEL)や液晶ディスプレイ(LCD)などにより実現できる。例えばHMD200の表示部220には、ユーザの左眼の前に設定される第1のディスプレイ又は第1の表示領域と、右眼の前に設定される第2のディスプレイ又は第2の表示領域が設けられており、立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左眼用画像と右眼用画像を生成し、第1のディスプレイに左眼用画像を表示し、第2のディスプレイに右眼用画像を表示する。或いは1つのディスプレイの第1の表示領域に左眼用画像を表示し、第2の表示領域に右眼用画像を表示する。またHMD200には左眼用、右眼用の2つの接眼レンズ(魚眼レンズ)が設けられており、これによりユーザの視界の全周囲に亘って広がるVR空間が表現される。そして接眼レンズ等の光学系で生じる歪みを補正するための補正処理が、左眼用画像、右眼用画像に対して行われる。この補正処理は表示処理部120が行う。   The display unit 220 of the HMD 200 can be realized by, for example, an organic EL display (OEL) or a liquid crystal display (LCD). For example, the display unit 220 of the HMD 200 includes a first display or first display area set in front of the user's left eye and a second display or second display area set in front of the right eye. It is provided and stereoscopic display is possible. When performing stereoscopic display, for example, a left-eye image and a right-eye image with different parallax are generated, a left-eye image is displayed on the first display, and a right-eye image is displayed on the second display. To do. Alternatively, the left-eye image is displayed in the first display area of one display, and the right-eye image is displayed in the second display area. The HMD 200 is provided with two eyepiece lenses (fisheye lenses) for the left eye and the right eye, thereby expressing a VR space that extends over the entire perimeter of the user's field of view. Then, correction processing for correcting distortion generated in an optical system such as an eyepiece is performed on the left-eye image and the right-eye image. This correction process is performed by the display processing unit 120.

HMD200の処理部240は、HMD200において必要な各種の処理を行う。例えば処理部240は、センサ部210の制御処理や表示部220の表示制御処理などを行う。また処理部240が、3次元音響(立体音響)処理を行って、3次元的な音の方向や距離や広がりの再現を実現してもよい。   The processing unit 240 of the HMD 200 performs various processes necessary for the HMD 200. For example, the processing unit 240 performs control processing of the sensor unit 210, display control processing of the display unit 220, and the like. Further, the processing unit 240 may perform a three-dimensional sound (stereoscopic sound) process to realize reproduction of a three-dimensional sound direction, distance, and spread.

音出力部192は、本実施形態により生成された音を出力するものであり、例えばスピーカ又はヘッドホン等により実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and can be realized by, for example, a speaker or headphones.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。   The I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and the function can be realized by an ASIC for I / F processing or the like. The portable information storage medium 195 is for a user to save various types of information, and is a storage device that retains storage of such information even when power is not supplied. The portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.

通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (another apparatus) via a wired or wireless network, and functions thereof are hardware such as a communication ASIC or communication processor, or communication firmware. Can be realized.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。   A program (data) for causing a computer to function as each unit of this embodiment is distributed from the information storage medium of the server (host device) to the information storage medium 180 (or storage unit 170) via the network and communication unit 196. May be. Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作情報や、HMD200でのトラッキング情報(HMDの位置及び方向の少なくとも一方の情報。視点位置及び視線方向の少なくとも一方の情報)や、プログラムなどに基づいて、ゲーム処理(シミュレーション処理)、仮想空間設定処理、移動体処理、仮想カメラ制御処理、表示処理、或いは音処理などを行う。   The processing unit 100 (processor) is used for operation information from the operation unit 160, tracking information in the HMD 200 (information on at least one of the position and direction of the HMD, information on at least one of the viewpoint position and the line-of-sight direction), a program, and the like. Based on this, game processing (simulation processing), virtual space setting processing, moving body processing, virtual camera control processing, display processing, sound processing, or the like is performed.

処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。   Each processing (each function) of this embodiment performed by each unit of the processing unit 100 can be realized by a processor (a processor including hardware). For example, each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program. In the processor, for example, the function of each unit may be realized by individual hardware, or the function of each unit may be realized by integrated hardware. For example, the processor may include hardware, and the hardware may include at least one of a circuit that processes a digital signal and a circuit that processes an analog signal. For example, the processor can be configured by one or a plurality of circuit devices (for example, ICs) mounted on a circuit board or one or a plurality of circuit elements (for example, resistors, capacitors, etc.). The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Signal Processor) can be used. The processor may be an ASIC hardware circuit. The processor may include an amplifier circuit, a filter circuit, and the like that process an analog signal. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD) or an optical storage device such as an optical disk device. For example, the memory stores instructions that can be read by a computer, and the processing (function) of each unit of the processing unit 100 is realized by executing the instructions by the processor. The instruction here may be an instruction set constituting a program, or an instruction for instructing an operation to the hardware circuit of the processor.

処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。演算処理部110は、情報取得部111、仮想空間設定部112、移動体処理部113、仮想カメラ制御部114、ゲーム処理部115、制御部117、表示処理部120、音処理部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 100 includes an input processing unit 102, an arithmetic processing unit 110, and an output processing unit 140. The arithmetic processing unit 110 includes an information acquisition unit 111, a virtual space setting unit 112, a moving body processing unit 113, a virtual camera control unit 114, a game processing unit 115, a control unit 117, a display processing unit 120, and a sound processing unit 130. As described above, each process of the present embodiment executed by these units can be realized by a processor (or a processor and a memory). Various modifications such as omitting some of these components (each unit) or adding other components are possible.

入力処理部102は、操作情報やトラッキング情報を受け付ける処理や、記憶部170から情報を読み出す処理や、通信部196を介して情報を受信する処理を、入力処理として行う。例えば入力処理部102は、操作部160を用いてユーザが入力した操作情報やHMD200のセンサ部210等により検出されたトラッキング情報を取得する処理や、読み出し命令で指定された情報を、記憶部170から読み出す処理や、外部装置(サーバ等)からネットワークを介して情報を受信する処理を、入力処理として行う。ここで受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。   The input processing unit 102 performs processing for receiving operation information and tracking information, processing for reading information from the storage unit 170, and processing for receiving information via the communication unit 196 as input processing. For example, the input processing unit 102 stores, in the storage unit 170, processing for acquiring operation information input by the user using the operation unit 160, tracking information detected by the sensor unit 210 of the HMD 200, and the information specified by the read command. A process for reading data from a computer or a process for receiving information from an external device (such as a server) via a network is performed as an input process. Here, the reception process includes a process of instructing the communication unit 196 to receive information, a process of acquiring information received by the communication unit 196, and writing the information in the storage unit 170, and the like.

演算処理部110は、各種の演算処理を行う。例えば情報取得処理、仮想空間設定処理、移動体処理、仮想カメラ制御処理、ゲーム処理(シミュレーション処理)、制御処理、表示処理、或いは音処理などの演算処理を行う。   The arithmetic processing unit 110 performs various arithmetic processes. For example, arithmetic processing such as information acquisition processing, virtual space setting processing, moving body processing, virtual camera control processing, game processing (simulation processing), control processing, display processing, or sound processing is performed.

情報取得部111(情報取得処理のプログラムモジュール)は種々の情報の取得処理を行う。例えば情報取得部111は、HMD200を装着するユーザの位置情報などを取得する。情報取得部111は、ユーザの方向情報や姿勢情報や動き情報などを取得してもよい。   The information acquisition unit 111 (program module for information acquisition processing) performs various information acquisition processing. For example, the information acquisition unit 111 acquires position information of the user wearing the HMD 200 and the like. The information acquisition unit 111 may acquire user direction information, posture information, movement information, and the like.

仮想空間設定部112(仮想空間設定処理のプログラムモジュール)は、オブジェクトが配置される仮想空間(オブジェクト空間)の設定処理を行う。例えば、移動体(人、車、ロボット、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、アイテム、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)を仮想空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクト情報記憶部172には、仮想空間でのオブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報がオブジェクト番号に対応づけて記憶される。仮想空間設定部112は、例えば各フレーム毎にこのオブジェクト情報を更新する処理などを行う。   The virtual space setting unit 112 (program module for virtual space setting processing) performs setting processing for a virtual space (object space) in which an object is placed. For example, moving objects (people, cars, robots, trains, airplanes, ships, monsters, animals, etc.), maps (terrain), buildings, spectator seats, courses (roads), items, trees, walls, water surfaces, etc. Various objects to be represented (objects composed of primitive surfaces such as polygons, free-form surfaces, or subdivision surfaces) are arranged and set in the virtual space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Place the object. Specifically, in the object information storage unit 172 of the storage unit 170, object information that is information such as the position, rotation angle, moving speed, and moving direction of an object (part object) in the virtual space is associated with the object number. Is memorized. The virtual space setting unit 112 performs a process of updating the object information for each frame, for example.

移動体処理部113(移動体処理のプログラムモジュール)は、仮想空間内で移動する移動体についての種々の処理を行う。例えば仮想空間(オブジェクト空間、ゲーム空間)において移動体を移動させる処理や、移動体を動作させる処理を行う。例えば移動体処理部113は、操作部160によりユーザが入力した操作情報や、取得されたトラッキング情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(モデルオブジェクト)を仮想空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。移動体は、例えば実空間のユーザ(プレーヤ)に対応するユーザ移動体である。例えば移動体は、実空間のユーザに対応する仮想空間のユーザキャラクタ(アバター、プレーヤキャラクタ)や、或いは当該ユーザキャラクタが搭乗(操作)する移動体(搭乗移動体、操作移動体)などである。   The moving body processing unit 113 (moving body processing program module) performs various processes on a moving body that moves in the virtual space. For example, processing for moving the moving body in virtual space (object space, game space) and processing for moving the moving body are performed. For example, the mobile object processing unit 113 is based on operation information input by the user through the operation unit 160, acquired tracking information, a program (movement / motion algorithm), various data (motion data), and the like. Control processing for moving the model object) in the virtual space or moving the moving object (motion, animation) is performed. Specifically, a simulation for sequentially obtaining movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) of a moving body for each frame (for example, 1/60 second). Process. A frame is a unit of time for performing a moving / movement process (simulation process) and an image generation process of a moving object. The moving body is, for example, a user moving body corresponding to a user (player) in real space. For example, the moving body is a user character (avatar, player character) in a virtual space corresponding to a user in real space, or a moving body (boarding moving body, operation moving body) on which the user character is boarded (operated).

仮想カメラ制御部114(仮想カメラ制御処理のプログラムモジュール)は、仮想カメラの制御を行う。例えば、操作部160により入力されたユーザの操作情報やトラッキング情報などに基づいて、仮想カメラを制御する処理を行う。   The virtual camera control unit 114 (virtual camera control processing program module) controls the virtual camera. For example, a process for controlling the virtual camera is performed based on user operation information, tracking information, and the like input by the operation unit 160.

例えば仮想カメラ制御部114は、ユーザの一人称視点又は三人称視点として設定される仮想カメラの制御を行う。例えば仮想空間において移動するユーザ移動体の視点(一人称視点)に対応する位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置(位置座標)や姿勢(回転軸回りでの回転角度)を制御する。或いは、移動体(ユーザキャラクタ、搭乗移動体)に追従する視点(三人称視点)の位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置や姿勢を制御する。   For example, the virtual camera control unit 114 controls the virtual camera set as the first-person viewpoint or the third-person viewpoint of the user. For example, by setting a virtual camera at a position corresponding to the viewpoint (first-person viewpoint) of a user moving body moving in the virtual space, and setting the viewpoint position and line-of-sight direction of the virtual camera, the position (positional coordinates) of the virtual camera And control the attitude (rotation angle around the rotation axis). Alternatively, by setting a virtual camera at the position of the viewpoint (third-person viewpoint) following the moving body (user character, boarding moving body), and setting the viewpoint position and line-of-sight direction of the virtual camera, Control attitude.

例えば仮想カメラ制御部114は、視点トラッキングにより取得されたユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御する。例えば本実施形態では、ユーザの視点位置、視線方向の少なくとも1つである視点情報のトラッキング情報(視点トラッキング情報)が取得される。このトラッキング情報は、例えばHMD200のトラッキング処理を行うことで取得できる。そして仮想カメラ制御部114は、取得されたトラッキング情報(ユーザの視点位置及び視線方向の少なくとも一方の情報)に基づいて仮想カメラの視点位置、視線方向を変化させる。例えば、仮想カメラ制御部114は、実空間でのユーザの視点位置、視線方向の変化に応じて、仮想空間での仮想カメラの視点位置、視線方向(位置、姿勢)が変化するように、仮想カメラを設定する。このようにすることで、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御できる。   For example, the virtual camera control unit 114 controls the virtual camera so as to follow the change of the user's viewpoint based on the tracking information of the user's viewpoint information acquired by the viewpoint tracking. For example, in the present embodiment, tracking information (viewpoint tracking information) of viewpoint information that is at least one of the user's viewpoint position and line-of-sight direction is acquired. This tracking information can be acquired by performing tracking processing of the HMD 200, for example. The virtual camera control unit 114 changes the viewpoint position and line-of-sight direction of the virtual camera based on the acquired tracking information (information on at least one of the user's viewpoint position and line-of-sight direction). For example, the virtual camera control unit 114 is configured so that the viewpoint position and the line-of-sight direction (position, posture) of the virtual camera in the virtual space change according to changes in the viewpoint position and the line-of-sight direction of the user in the real space. Set up the camera. By doing in this way, a virtual camera can be controlled to follow a user's viewpoint change based on tracking information of a user's viewpoint information.

ゲーム処理部115(ゲーム処理のプログラムモジュール)は、ユーザがゲームをプレイするための種々のゲーム処理を行う。別の言い方をすれば、ゲーム処理部115(シミュレーション処理部)は、ユーザが仮想現実(バーチャルリアリティ)を体験するための種々のシミュレーション処理を実行する。ゲーム処理は、例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、開始したゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、或いはゲーム成績を演算する処理などである。   The game processing unit 115 (game processing program module) performs various game processes for the user to play a game. In other words, the game processing unit 115 (simulation processing unit) executes various simulation processes for the user to experience virtual reality (virtual reality). The game process is, for example, a process for starting a game when a game start condition is satisfied, a process for advancing the started game, a process for ending a game when a game end condition is satisfied, or calculating a game result. Processing.

制御部117(制御処理のプログラムモジュール)は、反力発生装置10、可動筐体60、発射装置LC1〜LCNの制御処理などを行う。例えば制御部117は、反力発生装置10による反力の発生を制御したり、可動筐体60によりユーザのプレイ位置(プレイエリア)を変化させるための制御を行ったり、発射装置LC1〜LCNによる物質の発生を制御する処理を行う。   The control unit 117 (control processing program module) performs control processing of the reaction force generator 10, the movable casing 60, and the launchers LC1 to LCN. For example, the control unit 117 controls the generation of the reaction force by the reaction force generator 10, performs control for changing the play position (play area) of the user by the movable housing 60, or uses the launchers LC <b> 1 to LCN. Processing to control the generation of substances.

表示処理部120(表示処理のプログラムモジュール)は、ゲーム画像(シミュレーション画像)の表示処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部220に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、仮想空間(3次元仮想空間)において仮想カメラ(所与の視点。左眼用、右眼用の第1、第2の視点)から見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。   The display processing unit 120 (display processing program module) performs display processing of a game image (simulation image). For example, a drawing process is performed based on the results of various processes (game process, simulation process) performed by the processing unit 100, thereby generating an image and displaying it on the display unit 220. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 178 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. As a result, an image that can be seen from the virtual camera (given viewpoint, left eye and right eye first and second viewpoints) is generated in the virtual space (three-dimensional virtual space). Note that the drawing processing performed by the display processing unit 120 can be realized by vertex shader processing, pixel shader processing, or the like.

音処理部130(音処理のプログラムモジュール)は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。なお音処理部130の音処理の一部(例えば3次元音響処理)を、HMD200の処理部240により実現してもよい。   The sound processing unit 130 (sound processing program module) performs sound processing based on the results of various processes performed by the processing unit 100. Specifically, game sounds such as music (music, BGM), sound effects, or sounds are generated, and the game sounds are output to the sound output unit 192. Note that part of the sound processing of the sound processing unit 130 (for example, three-dimensional sound processing) may be realized by the processing unit 240 of the HMD 200.

出力処理部140は各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理や、通信部196を介して情報を送信する処理を、出力処理として行う。例えば出力処理部140は、書き込み命令で指定された情報を、記憶部170に書き込む処理や、外部の装置(サーバ等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。   The output processing unit 140 performs various types of information output processing. For example, the output processing unit 140 performs processing for writing information in the storage unit 170 and processing for transmitting information via the communication unit 196 as output processing. For example, the output processing unit 140 performs a process of writing information specified by a write command in the storage unit 170 or a process of transmitting information to an external apparatus (server or the like) via a network. The transmission process is a process of instructing the communication unit 196 to transmit information, or instructing the communication unit 196 to transmit information.

そして図1のシミュレーションシステムは、複数の発射装置LC1〜LCNと制御部117を含む。発射装置LC1〜LCN(Nは2以上の整数)は、ユーザのプレイエリアの周囲に設けられ、ユーザに対して触覚刺激を与える物質を発射する。制御部117は、ユーザがプレイするゲームの状況に応じて、発射装置LC1〜LCNの物質の発射を制御する。発射装置LC1〜LCNが発射する物質は、例えばユーザの皮膚等に触れることでユーザの触覚に刺激を感じさせる物質(気体、液体又は固体)である。例えば発射装置LC1〜LCNは、触覚刺激を与える物質として気体(空気弾)を発射する。但し発射装置LC1〜LCNによる物質の発射は、気体の発射には限定されず、例えば液体、水蒸気、匂いのついた気体、BB弾又は伸縮棒等の発射であってもよい。また発射装置LC1〜LCNはユーザの全周囲に配置されている必要は無く、少なくともユーザの視野範囲内に複数の発射装置が配置されていればよい。ゲーム状況は、例えばゲームでの種々のイベント(報知イベント、攻撃イベント等)の発生の状況や、ゲームの進行状況や、ゲームの達成度(マップのクリア状況、獲得ポイント)の状況などである。例えばゲーム状況は、キャラクタ(移動体)を用いたゲームでは、ゲームにおけるキャラクタの状況や、キャラクタのステータスパラメータ等に基づき特定される状況や、キャラクタに対して発生する種々のイベントの状況などである。   The simulation system of FIG. 1 includes a plurality of launchers LC1 to LCN and a control unit 117. Launching devices LC1 to LCN (N is an integer of 2 or more) are provided around the user's play area, and fire a substance that gives tactile stimulation to the user. The control unit 117 controls the emission of the materials of the emission devices LC1 to LCN according to the situation of the game played by the user. The substances emitted by the emission devices LC1 to LCN are substances (gas, liquid, or solid) that cause the user's tactile sensation to be stimulated by touching the user's skin or the like, for example. For example, the launchers LC1 to LCN launch a gas (air bullet) as a substance that gives tactile stimulation. However, the emission of the substance by the emission devices LC1 to LCN is not limited to the emission of gas, and may be, for example, emission of liquid, water vapor, scented gas, BB bullet or telescopic rod. In addition, the launchers LC1 to LCN do not have to be arranged around the entire periphery of the user, and it is sufficient that a plurality of launchers are arranged at least within the visual field range of the user. The game situation includes, for example, the occurrence of various events (notification event, attack event, etc.) in the game, the progress of the game, the degree of achievement of the game (map clearing situation, acquisition points), and the like. For example, in a game using a character (moving body), the game situation is the situation of the character in the game, the situation specified based on the status parameter of the character, the situation of various events that occur for the character, etc. .

そして制御部117は、報知イベントにおいて、発射装置LC1〜LCNのうちの選択された発射装置に、触覚刺激を与える物質を発射させる制御を行う。例えばユーザに対して攻撃イベントが発生することを事前に報知する報知イベントにおいて、複数の発射装置LC1〜LCNのうち報知イベントに対応する発射装置(報知イベントの発生場所に対応する1又は複数の発射装置)に、触覚刺激を与える物質を発射させる制御を行う。例えば攻撃イベントの攻撃の対象となるユーザに向けて、報知イベントの発生を知らせるための物質を、当該発射装置に発射させる制御を行う。   And the control part 117 performs control which makes the selected launching device among launching devices LC1-LCN launch the substance which gives a tactile stimulus in an alerting | reporting event. For example, in a notification event that notifies a user in advance that an attack event will occur, among the plurality of launchers LC1 to LCN, a launcher corresponding to the alert event (one or a plurality of launches corresponding to the location where the alert event occurs) The device is controlled to fire a substance that gives tactile stimulation. For example, control is performed to cause the launching device to fire a substance for notifying the occurrence of a notification event toward a user who is the target of an attack event.

このようにすれば、ユーザは、攻撃イベントの発生前に、発射装置から発射された物質による触覚刺激により、当該攻撃イベントが発生することを事前に知ることが可能になる。ここで攻撃イベントは、攻撃体(攻撃要素、攻撃オブジェクト、報知要素)がユーザ又はユーザに対応するキャラクタ(ユーザキャラクタ、アバタ)に対して攻撃を行うイベントである。攻撃体は、ゲーム空間(仮想空間)での敵キャラクタや弾などの攻撃オブジェクトであってもよいし、実空間においてユーザに対して攻撃を行う物体などであってもよい。報知イベントは、この攻撃イベントの発生をユーザに対して事前に知らせるイベントである。報知イベントに対応する発射装置は、例えばゲーム空間(仮想空間)で報知イベントが発生する場合には、ゲーム空間での報知イベントの発生場所に対応する実空間の場所(近傍の場所を含む)にある発射装置等である。実空間で報知イベントが発生する場合には、実空間での報知イベントの発生場所に対応する実空間の場所(近傍の場所を含む)にある発射装置等である。   In this way, before the occurrence of the attack event, the user can know in advance that the attack event will occur due to the tactile stimulus by the substance emitted from the launching device. Here, the attack event is an event in which an attacking body (attack element, attack object, notification element) attacks a user or a character (user character, avatar) corresponding to the user. The attacking object may be an attacking object such as an enemy character or bullet in the game space (virtual space), or may be an object that attacks the user in the real space. The notification event is an event that notifies the user in advance of the occurrence of this attack event. For example, when a notification event occurs in a game space (virtual space), the launching device corresponding to the notification event is located in a real space location (including a nearby location) corresponding to the location where the notification event occurs in the game space. A launcher or the like. When a notification event occurs in the real space, it is a launching device or the like in a location (including a nearby location) in the real space corresponding to the location where the notification event occurs in the real space.

なお本実施形態の手法は、ゲーム空間の映像が無いようなエレメカ等のシステムにおいて適用してもよい。またHMD200を用いないシステムにおいて本実施形態の手法を適用してもよい。   Note that the method of this embodiment may be applied to a system such as an electromechanical system in which there is no video of the game space. Further, the method of the present embodiment may be applied to a system that does not use the HMD 200.

また本実施形態のシミュレーションシステムは、ユーザのプレイエリアを揺動させる揺動機構66を含む。例えば揺動機構66は、プレイエリアが設定されるユニットや部材の姿勢を変化させる揺動制御を行う。例えば制御部117により揺動機構66の制御が行われる。具体的には制御部117の制御処理により生成された制御信号に基づいて、揺動機構66が制御される。例えば本実施形態のシミュレーションシステムは可動筐体60を含み、可動筐体60が揺動機構66を含むことができる。プレイエリアはユーザのプレイ位置を含む所与の大きさのエリアであり、ユーザがゲームプレイを行うフィールドである。例えば後述の図4、図5のようにシミュレーションシステムがライド部62を有する場合に、プレイエリアは、例えばライド部62上のエリアである。そして揺動機構66は、プレイエリアが設定されるライド部62を揺動させる。例えば揺動機構66により、ピッチング、ローリング又はヨーイングなどのライド部62(プレイエリア)の姿勢変化が行われる。このようにすれば、報知イベントの発生後、攻撃イベントが発生すると、ユーザのプレイエリアが揺動機構66により揺動するようになる。従って、攻撃イベントが発生したことを、揺動機構66によるプレイエリアの揺動によりユーザに体感させることができ、ユーザの仮想現実感の向上等を図れる。   Further, the simulation system of the present embodiment includes a swing mechanism 66 that swings the play area of the user. For example, the swing mechanism 66 performs swing control that changes the posture of a unit or member in which a play area is set. For example, the swing mechanism 66 is controlled by the control unit 117. Specifically, the swing mechanism 66 is controlled based on the control signal generated by the control process of the control unit 117. For example, the simulation system of this embodiment includes a movable housing 60, and the movable housing 60 can include a swing mechanism 66. The play area is an area of a given size including the play position of the user, and is a field where the user plays the game. For example, when the simulation system includes the ride unit 62 as shown in FIGS. 4 and 5 described later, the play area is an area on the ride unit 62, for example. Then, the swing mechanism 66 swings the ride unit 62 where the play area is set. For example, the swing mechanism 66 changes the posture of the ride unit 62 (play area) such as pitching, rolling, or yawing. In this way, when an attack event occurs after the notification event, the user's play area is swung by the rocking mechanism 66. Therefore, the occurrence of an attack event can be experienced by the user by swinging the play area by the swing mechanism 66, and the virtual reality of the user can be improved.

また揺動機構66は、後述の図4、図5等で説明するように、少なくとも1つのエアバネ部(63、64、65)を含み、エアバネ部によりプレイエリアを揺動させる。エアバネ部(広義にはアクチュエータ)は、例えばエアコンプレッサやバブルを用いて空気の供給や排出が行われることで伸縮するユニットである。例えば揺動機構66は複数のエアバネ部を含み、この複数のエアバネ部の伸縮量を制御することで、ユーザのプレイエリアの揺動の制御が行われる。このようにすれば、少なくとも1つのエアバネ部を用いた簡素な構成で、プレイエリアを揺動させることができ、攻撃イベントが発生したことを、揺動機構66によるプレイエリアの揺動によりユーザに体感させることが可能になる。   The swing mechanism 66 includes at least one air spring portion (63, 64, 65), and swings the play area by the air spring portion, as will be described later with reference to FIGS. The air spring portion (actuator in a broad sense) is a unit that expands and contracts when air is supplied or discharged using, for example, an air compressor or a bubble. For example, the swing mechanism 66 includes a plurality of air spring portions, and the swing of the play area of the user is controlled by controlling the amount of expansion / contraction of the plurality of air spring portions. In this way, the play area can be rocked with a simple configuration using at least one air spring, and the occurrence of an attack event is notified to the user by the rocking of the play area by the rocking mechanism 66. It will be possible to experience.

また揺動機構66は、報知イベントの発生後、攻撃イベントが発生した場合に、プレイエリアを揺動させる。例えば本実施形態では、攻撃イベントが発生することを事前に知らせる報知イベントにおいて、発射装置LC1〜LCNのうちの1又は複数の発射装置が物質を発射する。そして発射装置による物質の発射後、攻撃イベントが発生すると、揺動機構66がユーザのプレイエリアを揺動させる。このようにすれば、報知イベントにおいては、触覚刺激を与える物質を発射装置が発射することにより、攻撃イベントが発生することをユーザに対して事前に報知し、攻撃イベントにおいては、プレイエリアを揺動させることで、攻撃の発生をユーザに体感させることが可能になる。   The swing mechanism 66 swings the play area when an attack event occurs after the notification event occurs. For example, in the present embodiment, one or a plurality of launchers among the launchers LC1 to LCN launch a substance in a notification event that informs in advance that an attack event will occur. When an attack event occurs after the material is fired by the launching device, the rocking mechanism 66 rocks the user's play area. In this way, in the notification event, the launch device fires a substance that gives a tactile stimulus, thereby informing the user in advance that an attack event will occur, and in the attack event, the play area is shaken. By moving it, it is possible to let the user experience the occurrence of an attack.

なお、攻撃イベントにおいて攻撃が行われる方向に応じて、揺動機構66の揺動の態様(姿勢変化の方向)を変化させてもよい。また報知イベントが発生した後、ユーザが例えば攻撃体(攻撃オブジェクト)に対して攻撃(反撃)を行った場合に、攻撃イベントの発生をキャンセルするようにしてもよい。   Note that the manner of swinging of the swing mechanism 66 (the direction of change in posture) may be changed according to the direction in which the attack is performed in the attack event. Further, after the notification event has occurred, for example, when the user performs an attack (counterattack) on the attacking body (attack object), the occurrence of the attack event may be canceled.

また揺動機構66は、攻撃イベントが、ユーザの視野範囲内で発生した場合と、視野範囲外で発生した場合とで、異なる揺動量でプレイエリアを揺動させる。一例としては、攻撃イベントが、ユーザの視野範囲内で発生した場合には揺動量を大きくし、視野範囲外で発生した場合には揺動量を小さくする。このようにすれば、攻撃イベントが視野範囲内で発生したか、或いは視野範囲外で発生したかに応じて、揺動機構66の揺動がユーザに与える体感の程度が異なるようになり、多様な体感制御が可能になる。なお、視野範囲内か視野範囲外かに応じて、揺動の態様(姿勢変化の方向)を異ならせてもよい。また視野範囲は例えばユーザである人間の視野角の範囲であり、視野角は、一例としては左右方向(水平方向)で200度程度、上下方向で130度程度である。或いは、視野範囲は、ユーザが装着するHMD200の視野角の範囲(例えば90度〜120度等)であってもよい。   The swing mechanism 66 swings the play area with a different swing amount depending on whether the attack event occurs within the visual field range of the user or outside the visual field range. As an example, if the attack event occurs within the visual field range of the user, the swing amount is increased, and if the attack event occurs outside the visual field range, the swing amount is decreased. In this way, depending on whether the attack event occurs within the field of view or outside the field of view, the degree of bodily sensation given to the user by the swinging of the swinging mechanism 66 varies. Control is possible. Note that the manner of swinging (direction of posture change) may be varied depending on whether it is within or outside the visual field range. The viewing range is, for example, a viewing angle range of a human being who is a user. For example, the viewing angle is about 200 degrees in the left-right direction (horizontal direction) and about 130 degrees in the up-down direction. Alternatively, the viewing field range may be a viewing angle range (for example, 90 degrees to 120 degrees) of the HMD 200 worn by the user.

また報知イベントは、攻撃イベントにおいてユーザに対して攻撃を行う攻撃体(移動体)の移動の際に発生するイベントである。攻撃体は、攻撃を行う主体となるものであり、例えばゲーム空間での攻撃オブジェクトや実空間での攻撃物体などである。そして攻撃イベントにおいて、例えば攻撃体がユーザに対して接近するように移動する場合に、この攻撃体の移動開始のタイミングや、移動開始後、所与の期間が経過したタイミングなどにおいて、報知イベントが発生し、攻撃イベントが発生することをユーザに対して事前に知らせる。このようにすれば、攻撃イベントにおいて、ユーザの方に移動してくるような攻撃体が攻撃を行う場合に、当該攻撃体が攻撃を行うことを、報知イベントによりユーザに対して事前に報知することが可能になる。   The notification event is an event that occurs when the attacking body (moving body) that attacks the user in the attack event moves. The attacking body is a subject that performs an attack, and is, for example, an attack object in a game space or an attack object in a real space. In the attack event, for example, when the attacking object moves so as to approach the user, the notification event is generated at the timing of starting the movement of the attacking object or at the timing when a given period has elapsed after starting the movement. To inform the user in advance that an attack event will occur. In this way, when an attacking body that moves toward the user in an attack event performs an attack, the notification event notifies the user in advance that the attacking body will attack. It becomes possible.

また本実施形態のシミュレーションシステムはプレイエリア制限機構76を含む。例えば可動筐体60がプレイエリア制限機構76を有する。プレイエリア制限機構76は、ユーザが回転自在に移動可能なプレイエリアを、所与の範囲に制限するための機構である。例えばユーザはプレイエリアにおいて回転自在に回転移動できるが、プレイエリアにおける並進移動は、プレイエリア制限機構76により所与の範囲(移動範囲)に制限される。例えばユーザはプレイエリアにおいて、例えば鉛直方向に沿った回転軸において回転自在に回転移動できるが、プレイエリアにおける例えば水平方向での移動は、プレイエリア制限機構76により所与の範囲に制限される。   The simulation system of this embodiment includes a play area restriction mechanism 76. For example, the movable housing 60 has a play area limiting mechanism 76. The play area restriction mechanism 76 is a mechanism for restricting a play area in which the user can freely rotate to a given range. For example, the user can rotate and move freely in the play area, but the translation movement in the play area is limited to a given range (movement range) by the play area restriction mechanism 76. For example, the user can rotate and rotate in the play area, for example, along a rotation axis along the vertical direction, but the movement in the play area in the horizontal direction, for example, is restricted to a given range by the play area restriction mechanism 76.

また本実施形態のシミュレーションシステムは、ユーザのプレイエリアの周囲に設けられる複数の発射装置LC1〜LCNと、発射装置LC1〜LCNの物質の発射を制御する制御部117と、プレイエリア制限機構76を含む。プレイエリア制限機構76は、ユーザが回転自在に移動可能なプレイエリアを所与の範囲に制限する。そして制御部117は、ユーザの周囲において報知イベントが発生した場合に、発射装置LC1〜LCNのうち報知イベントに対応する発射装置(報知イベントの発生場所に対応する発射装置)に、触覚刺激を与える物質を発射させる制御を行う。このようにすれば、プレイエリアにおいて回転自在に移動するユーザの移動範囲を、プレイエリア制限機構76を用いて制限できるようになり、ユーザが不適切な動作や不用意な動作をすることでシミュレーションシステムの運営等に支障が生じるのを防止できる。   In addition, the simulation system of the present embodiment includes a plurality of launchers LC1 to LCN provided around the user's play area, a control unit 117 that controls the launch of the materials of the launchers LC1 to LCN, and a play area limiting mechanism 76. Including. The play area restriction mechanism 76 restricts a play area in which the user can freely move to a given range. Then, when a notification event occurs around the user, the control unit 117 gives a tactile stimulus to the launching device corresponding to the notification event (the launching device corresponding to the location where the notification event occurs) among the launching devices LC1 to LCN. Control to fire the substance. If it does in this way, it will become possible to restrict | limit the moving range of the user who moves freely in a play area using the play area restriction | limiting mechanism 76, and a user performs a simulation by improper operation | movement or inadvertent operation | movement. It is possible to prevent troubles in system operation.

またプレイエリア制限機構76は、後述の図4、図5、図20(A)、図20(B)等で説明するように、ユーザの周囲を囲むように設けられる制限部材70を含む。例えば制限部材70は、ゲームプレイ時にユーザが入ることができる穴部を有しており、ユーザは、この穴部の周縁部に囲まれてゲームをプレイする。そしてユーザのプレイエリアでの並進移動(水平方向での移動)は、制限部材70により、この穴部の範囲に制限されることになる。このようにすれば、制限部材70を用いて、ユーザが回転自在に移動可能なプレイエリアを所与の範囲に制限して、ユーザが不適切な動作や不用意な動作を行うのを防止できるようになる。なお制限部材70に穴部が形成される場合に、穴部の形状は、円形状には限定されず、種々の形状を採用できる。   The play area restriction mechanism 76 includes a restriction member 70 provided so as to surround the user as will be described later with reference to FIGS. 4, 5, 20 (A), 20 (B), and the like. For example, the restricting member 70 has a hole that the user can enter during game play, and the user plays a game surrounded by the peripheral edge of the hole. Then, translational movement (movement in the horizontal direction) in the play area of the user is limited to the range of the hole by the limiting member 70. In this way, by using the restricting member 70, it is possible to restrict the play area in which the user can freely move to a given range, thereby preventing the user from performing inappropriate or inadvertent operations. It becomes like this. In addition, when a hole part is formed in the limitation member 70, the shape of a hole part is not limited to circular shape, A various shape is employable.

またプレイエリア制限機構76は、後述の図4、図5、図20(A)、図20(B)等で説明するように、ユーザに取り付けられ、ユーザの回転移動に伴い制限部材70上で回転移動する移動部72を含む。例えばユーザが回転移動すると、このユーザの回転移動に追従するように移動部72も制限部材70上で回転移動する。例えば移動部72にはローラー部73(73-1、73-2)が設けられており、このローラー部73が、制限部材70上で回転しながら移動することで、移動部72が制限部材70上で回転移動する。このようにすれば、制限部材70と、ユーザに取り付けられて制限部材70上で移動する移動部72とを用いて、ユーザが回転自在に移動可能なプレイエリアを所与の範囲に制限できるようになる。   The play area restriction mechanism 76 is attached to the user as described later with reference to FIGS. 4, 5, 20 (A), 20 (B), and the like, and on the restriction member 70 as the user rotates. A moving unit 72 that rotates is included. For example, when the user rotates, the moving unit 72 also rotates on the restricting member 70 so as to follow the user's rotational movement. For example, the moving part 72 is provided with roller parts 73 (73-1, 73-2), and the moving part 72 moves while rotating on the restricting member 70, so that the moving part 72 becomes the restricting member 70. Rotate and move up. In this way, it is possible to limit the play area in which the user can rotate freely to a given range by using the limiting member 70 and the moving unit 72 attached to the user and moving on the limiting member 70. become.

また制御部117は、ユーザの視野範囲外において、報知イベントが発生した場合に、複数の発射装置LC1〜LCNのうち視野範囲外に設けられた発射装置に物質を発射させる。例えば本実施形態では、発射装置LC1〜LCNはユーザの周囲に設けられ、ユーザの視野範囲内のみならず視野範囲外にも発射装置が配置されるようになる。例えばユーザが基準ライド位置、基準ライド方向で、図4、図5等で説明するライド部62に搭乗している場合に、ユーザの前方方向の範囲である視野範囲内のみならず、ユーザの後ろ方向側(例えば右後ろ方向、左後ろ方向又は真後ろ方向)に発射装置が配置されている。そして、ユーザの後ろ側方向で報知イベントが発生した場合には、後ろ側方向に配置される発射装置のうち、報知イベントに対応する発射装置(報知イベントの発生場所に対応する発射装置)に、触覚刺激を与える物質を発射させる。このようにすることで、視野範囲外にあるためユーザに見えない場所において、攻撃イベントが発生する場合に、当該攻撃イベントが発生することをユーザに対して事前に報知することが可能になる。   In addition, when a notification event occurs outside the visual field range of the user, the control unit 117 causes the launching device provided outside the visual field range among the plurality of launching devices LC1 to LCN to fire the substance. For example, in the present embodiment, the launching devices LC1 to LCN are provided around the user, and the launching device is arranged not only within the visual field range of the user but also outside the visual field range. For example, when the user is on the ride unit 62 described in FIGS. 4, 5, etc. at the reference ride position and the reference ride direction, not only within the visual field range that is the forward direction range of the user but also behind the user The launching device is arranged on the direction side (for example, right rear direction, left rear direction, or right rear direction). And when the notification event occurs in the rear direction of the user, among the launching devices arranged in the rear direction, the launching device corresponding to the notification event (launching device corresponding to the location where the notification event occurs) Fire a substance that provides tactile stimulation. By doing in this way, when an attack event occurs in a place that is out of the visual field range and cannot be seen by the user, it is possible to notify the user in advance that the attack event occurs.

また発射装置LC1〜LCNは、触覚刺激を与える物質として気体を発射する。例えばコンプレッサー等により圧縮された気体を発射することで、高い静圧の気体を用いた触覚刺激を実現できる。このように触覚刺激を与える物質として気体(空気等)を用いることで、シミュレーションシステムの衛生面や運営面において好適な発射装置を実現できるようになる。   In addition, the emission devices LC1 to LCN emit gas as a substance that gives tactile stimulation. For example, by emitting a gas compressed by a compressor or the like, a tactile stimulus using a high static pressure gas can be realized. By using gas (air or the like) as a substance that gives tactile stimulation in this way, it becomes possible to realize a launching device suitable for hygiene and operation of the simulation system.

また本実施形態のシミュレーションシステムは図1に示すように、仮想空間の設定処理を行う仮想空間設定部112と、仮想空間でのゲームの処理を行うゲーム処理部115と、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報と、ゲーム状況情報を取得する情報取得部111を含む。そして制御部117は、ユーザ情報及びゲーム状況情報の少なくとも1つに基づいて、発射装置LC1〜LCNを制御する。例えば制御部117は、ユーザの位置情報、方向情報又は姿勢情報を反映させて、発射装置LC1〜LCNの制御を行う。或いは、制御部117は、ゲーム状況に基づいて報知イベントが発生すると判断された場合や、攻撃イベントの発生が予測される場合に、発射装置に物質を発射させる。この場合に報知イベントの発生(攻撃イベントの発生の予測)を、ユーザ情報に基づいて行ってもよい。例えばユーザの位置情報、方向情報又は姿勢情報などを判断して、報知イベントの発生(攻撃イベントの発生の予測)を判断し、発射装置に物質を発射させる。或いはユーザ情報及びゲーム状況情報の両方を用いて、報知イベントの発生を判断して、発射装置に物質を発射させる。このようにすることで、ユーザ情報やゲーム状況情報などを用いて、報知イベントの発生を判断して、発射装置に物質を発射させる制御を実現できる。   Further, as shown in FIG. 1, the simulation system according to the present embodiment includes a virtual space setting unit 112 that performs a virtual space setting process, a game processing unit 115 that performs a game process in the virtual space, and user position information and directions. User information including at least one of information and posture information, and an information acquisition unit 111 that acquires game situation information are included. And the control part 117 controls launching device LC1-LCN based on at least 1 of user information and game status information. For example, the control unit 117 controls the launch devices LC1 to LCN by reflecting the user's position information, direction information, or posture information. Alternatively, the control unit 117 causes the launching device to fire a substance when it is determined that a notification event occurs based on the game situation or when an occurrence of an attack event is predicted. In this case, the occurrence of the notification event (prediction of the occurrence of the attack event) may be performed based on the user information. For example, the position information, the direction information, or the posture information of the user is determined, the occurrence of the notification event (prediction of the occurrence of the attack event) is determined, and the launching device is caused to fire the substance. Alternatively, the occurrence of a notification event is determined using both user information and game situation information, and the launching device is caused to fire the substance. By doing in this way, it is possible to realize the control for determining the occurrence of the notification event using the user information, the game situation information, etc. and causing the launching device to launch the substance.

また情報取得部111は、HMD200からのトラッキング情報や、ユーザの手又は足等の部位に取り付けられたトラッキング装置からのトラッキング情報などに基づいて、実空間でのユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報(ユーザトラッキング情報)を取得する。位置情報は、実空間でのユーザの視点の位置情報であってもよく、方向情報は、実空間でのユーザの視線の方向情報であってもよい。位置情報、方向情報は、ユーザが実空間(現実世界)のプレイエリアでプレイする場合に、そのプレイエリア(ライド部、プレイフィールド)での位置情報、方向情報(所与の位置を原点とする座標系での位置座標、各座標軸回りでの回転角度)であってもよい。姿勢情報は、ユーザの各姿勢(立ち姿勢、しゃがみ姿勢又は座り姿勢等)を特定したり、或いはユーザの各部位(胴体、頭、手又は足等)の位置、方向を特定するための情報である。姿勢情報は、ユーザの所定部位に取り付けられたトラッキング装置からのトラッキング情報により特定される情報であってもよいし、キネクト(Kinectは登録商標)などのモーショントラッキングにより特定される情報であってもよい。また情報取得部111は、HMD200の位置情報、方向情報を、当該HMD200を装着するユーザの位置情報、方向情報として取得してもよい。   In addition, the information acquisition unit 111 is based on tracking information from the HMD 200, tracking information from a tracking device attached to a part such as a user's hand or foot, and the like. User information (user tracking information) including at least one piece of information is acquired. The position information may be position information of the user's viewpoint in real space, and the direction information may be direction information of the user's line of sight in real space. When the user plays in the play space in the real space (real world), the position information and the direction information are the position information and direction information in the play area (ride section, play field) (the given position is the origin). Position coordinates in the coordinate system, rotation angle around each coordinate axis). Posture information is information for specifying each posture of the user (standing posture, crouching posture, sitting posture, etc.) or specifying the position and direction of each part of the user (body, head, hand, foot, etc.). is there. The posture information may be information specified by tracking information from a tracking device attached to a predetermined part of the user, or may be information specified by motion tracking such as Kinect (registered trademark). Good. The information acquisition unit 111 may acquire position information and direction information of the HMD 200 as position information and direction information of the user wearing the HMD 200.

また本実施形態では、ユーザの視覚及び聴覚の少なくとも一方が閉塞状態になっている。例えばユーザの視覚が外界から閉ざされた状況になっており、ユーザは、周囲の状況を視覚的に認識できない状態になっている。或いは、ユーザの聴覚が外界から閉ざされた状況になっており、ユーザは、周囲の状況を聴覚的に認識できない状態になっている。例えば視覚の閉塞状態は、ユーザの視界を覆うように配置された表示部により実現できる。具体的には、ユーザの視界を覆うように装着されるHMD200により実現できる。聴覚の閉塞状態は、例えばユーザが装着するヘッドホンやイヤホンなどの音出力装置により実現できる。例えば頭部に装着するタイプの音出力装置であるヘッドホンや、耳に装着するタイプの音出力装置であるイヤホンなどにより実現できる。ヘッドホンやイヤホンは、有線のタイプであってもよいし、無線のタイプのものであってもよい。イヤホンは、例えば耳の穴に直接に装着するタイプのものであってもよい。そして例えばヘッドホンやイヤホンの音出力が無音状態(ミュート状態)になることで、聴覚の閉塞状態が実現される。そして、このようにユーザの視覚や聴覚が閉塞状態になっている場合には、ユーザは、周囲の状況を視覚や聴覚により把握することが困難になったり、把握できなくなる。このような場合にも、本実施形態によれば、発射装置LC1〜LCNにより物質を発射することで、当該物質による触覚刺激を利用して、視覚や聴覚が閉塞状態になっているユーザに対して、攻撃イベントが発生することを事前に報知できるようになる。即ち、視覚や聴覚が閉塞状態になっている場合にも、ユーザに対して物質が当たることによる触覚刺激を利用して、攻撃イベントの発生の事前報知が可能になる。   Moreover, in this embodiment, at least one of a user's vision and hearing is obstruct | occluded. For example, the user's vision is closed from the outside world, and the user cannot visually recognize the surrounding situation. Alternatively, the user's hearing is closed from the outside world, and the user is in a state where the surrounding situation cannot be recognized audibly. For example, the visual occlusion state can be realized by a display unit arranged to cover the user's field of view. Specifically, this can be realized by the HMD 200 that is mounted so as to cover the user's field of view. The hearing occlusion state can be realized by a sound output device such as a headphone or an earphone worn by the user, for example. For example, it can be realized by a headphone that is a type of sound output device worn on the head, an earphone that is a type of sound output device worn on the ear, or the like. The headphones and earphones may be of a wired type or of a wireless type. For example, the earphone may be of a type that is directly attached to an ear hole. Then, for example, the sound output from the headphones or earphones is silenced (muted), thereby realizing a closed state of hearing. And when a user's vision and hearing are obstruct | occluded in this way, it becomes difficult for a user to grasp | ascertain the surrounding condition by vision and hearing, or it becomes impossible to grasp. Even in such a case, according to the present embodiment, by using the tactile stimulation by the substance by launching the substance by the launch devices LC1 to LCN, the user who is in a blocked state of vision and hearing Thus, it is possible to notify in advance that an attack event occurs. That is, even when the visual and auditory senses are blocked, it is possible to notify in advance of the occurrence of an attack event using a tactile stimulus caused by a substance hitting the user.

また本実施形態では表示処理部120は、ゲームの処理の結果に基づいて、ユーザが視界を覆うように装着するHMD200の表示画像を生成している。このように、ユーザが視界を覆うようにHMD200を装着する場合には、発射装置により物質を発射するような触覚刺激の体感装置は、ユーザの仮想現実感の向上のために有効である。   In the present embodiment, the display processing unit 120 generates a display image of the HMD 200 that the user wears so as to cover the field of view based on the result of the game process. As described above, when the user wears the HMD 200 so as to cover the field of view, a tactile sensation device that emits a substance by the launching device is effective for improving the virtual reality of the user.

但し、表示処理部120は、HMD200以外の表示部の表示画像を生成してもよい。例えば表示処理部120は、ドームスクリーンなどの3次元形状のスクリーンへの投影画像(プロジェクションマッピング)となる表示画像を生成してもよい。或いは、家庭用ゲーム装置におけるテレビや、パーソナルコンピュータや業務用ゲーム装置におけるモニター(ディスプレイ)などの表示画像を生成してもよい。   However, the display processing unit 120 may generate a display image of a display unit other than the HMD 200. For example, the display processing unit 120 may generate a display image that is a projection image (projection mapping) onto a three-dimensional screen such as a dome screen. Alternatively, a display image such as a television in a home game device, a monitor (display) in a personal computer, or an arcade game device may be generated.

また本実施形態のシミュレーションシステムは、ユーザが把持する把持物40と、把持物40が一端に接続される接続部材と、反力を発生する反力発生装置10と、ユーザがプレイするゲームの状況に応じて反力発生装置10の制御を行う制御部117を含む。ここで、把持物40が一端に接続される接続部材は、例えば後述の図4のワイヤー50などにより実現できる。即ち、接続部材は、一端側が把持物40に接続され、他端側が反力発生装置10に接続されるワイヤー50により実現できる。但し接続部材はこれには限定されず、多関節アーム(ロボットアーム)や棒状部材(棒が連結された部材)などの種々の部材により実現することが可能である。   In addition, the simulation system of the present embodiment includes a gripping object 40 gripped by the user, a connection member to which the gripping object 40 is connected to one end, a reaction force generating device 10 that generates a reaction force, and a situation of a game played by the user The control part 117 which controls the reaction force generator 10 according to is included. Here, the connection member to which the grasped object 40 is connected to one end can be realized by, for example, a wire 50 in FIG. That is, the connection member can be realized by the wire 50 having one end connected to the gripping object 40 and the other end connected to the reaction force generator 10. However, the connection member is not limited to this, and can be realized by various members such as an articulated arm (robot arm) and a rod-shaped member (member to which a rod is coupled).

そして制御部117は、ユーザがゲームにおいて把持物の振り動作を行った際に、振り動作の振り方向と逆方向側に働く反力を、反力発生装置10に発生させる。例えば把持物40と仮想空間の標的オブジェクト等の標的(攻撃体)とのヒットイベント(衝突イベント)が発生した場合に、反力発生装置10に反力を発生させる。例えば把持物40が標的にヒットしたと判定されるタイミングで、振り方向と逆方向側に働く反力を発生させる。例えば制御部117の制御処理により生成された制御信号が反力発生装置10に入力されて、当該制御信号に基づいて反力発生装置10が反力を発生する。ここで逆方向側は、振り方向と完全に逆方向である必要はなく、略逆方向であってもよい。例えば振り動作の振り方向側が第1又は第2の象限側である場合に、振り方向側の逆方向側は、第3又は第4の象限側であればよい。例えば第1、第2の象限と第3、第4の象限とは所定の座標軸で区画される象限である。   Then, the control unit 117 causes the reaction force generating device 10 to generate a reaction force that works in the direction opposite to the swing direction of the swing motion when the user swings the gripping object in the game. For example, when a hit event (collision event) occurs between the grasped object 40 and a target (attack body) such as a target object in the virtual space, the reaction force generator 10 generates a reaction force. For example, a reaction force acting in the direction opposite to the swing direction is generated at a timing when it is determined that the grasped object 40 has hit the target. For example, a control signal generated by the control process of the control unit 117 is input to the reaction force generator 10, and the reaction force generator 10 generates a reaction force based on the control signal. Here, the reverse direction side does not have to be completely reverse to the swing direction, and may be substantially reverse. For example, when the swing direction side of the swing motion is the first or second quadrant side, the reverse direction side of the swing direction side may be the third or fourth quadrant side. For example, the first and second quadrants and the third and fourth quadrants are quadrants defined by predetermined coordinate axes.

また制御部117は、把持物40と接続部材との接続部CPに、振り動作を停止させる反力を、反力発生装置10に発生させる。例えば把持物40と、図4のワイヤー50等の接続部材は、接続部CPにおいて接続(連結)されている。例えば接続部CPに設けられた取付具により接続されている。そして制御部117は、ユーザの振り動作を停止させる反力が当該接続部CPに働くように、反力発生装置10に当該反力を発生させる。この場合の反力は、ユーザの振り動作を完全に停止させる反力である必要はなく、ユーザの振り動作が停止するように減速させる反力であればよい。ユーザは、このように自身が振った把持物40の振り動作が停止することで、あたかも本物の標的に当たったかのような衝突感を仮想体験できるようになる。   In addition, the control unit 117 causes the reaction force generation device 10 to generate a reaction force that stops the swing motion at the connection portion CP between the grasped object 40 and the connection member. For example, the gripping object 40 and the connection member such as the wire 50 in FIG. 4 are connected (coupled) at the connection portion CP. For example, the connection part CP is connected by a fixture. Then, the control unit 117 causes the reaction force generation device 10 to generate the reaction force so that the reaction force that stops the user's swing motion acts on the connection unit CP. The reaction force in this case does not need to be a reaction force that completely stops the user's swing motion, but may be any reaction force that decelerates so that the user's swing motion stops. By stopping the swinging motion of the gripping object 40 that the user swings in this way, the user can virtually experience a collision feeling as if he or she hit a real target.

また反力発生装置10は、反力を発生すると共に、ワイヤー50を巻き取る巻き取り力を発生する。例えば反力発生装置10が、ワイヤー50が弛まないようにする巻き取り力を発生する。このようにすることで、ワイヤー50が弛んで、ユーザの手、首等の部位に絡まってしまうような事態の発生を防止できる。この巻き取り力の発生は、反力発生装置10に設けられた巻き取り力発生機構(巻き取りユニット)が発生してもよいし、反力と巻き取り力を、反力発生装置10に設けられた1つの力発生機構により発生してもよい。   The reaction force generator 10 generates a reaction force and a winding force for winding the wire 50. For example, the reaction force generator 10 generates a winding force that prevents the wire 50 from being loosened. By doing in this way, generation | occurrence | production of the situation where the wire 50 loosens and it becomes entangled in parts, such as a user's hand and a neck, can be prevented. The winding force may be generated by a winding force generation mechanism (winding unit) provided in the reaction force generator 10, or the reaction force and winding force are provided in the reaction force generator 10. It may be generated by a single force generation mechanism.

なお表示処理部120は、仮想空間での画像を、ユーザに表示する表示画像として生成する処理を行う。例えば仮想空間において仮想カメラから見える画像を、ユーザに表示する表示画像として生成する。具体的には表示処理部120は、仮想空間での画像を、ユーザが視界を覆うように装着するHMD200の表示画像として生成する。例えば仮想カメラ制御部114は、HMD200を装着するユーザの視点に対応する仮想カメラの制御処理を行う。例えば仮想カメラ制御部114は、ユーザの一人称視点として設定される仮想カメラの制御を行う。例えば仮想空間におけるユーザキャラクタの視点に対応する位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置(位置座標)や姿勢(回転軸回りでの回転角度)を制御する。そして表示処理部120は、HMD200等の表示画像(表示映像)として、仮想空間において仮想カメラ(ユーザ視点)から見える画像を生成する。例えば仮想空間であるオブジェクト空間において所与の視点から見える画像を生成する。生成される画像は例えば立体視用の画像である。このようにすることで、視界の全周囲に亘って広がる仮想空間(VR空間)の画像がHMD200に表示されるようになる。   The display processing unit 120 performs processing for generating an image in the virtual space as a display image to be displayed to the user. For example, an image visible from a virtual camera in the virtual space is generated as a display image to be displayed to the user. Specifically, the display processing unit 120 generates an image in the virtual space as a display image of the HMD 200 worn by the user so as to cover the field of view. For example, the virtual camera control unit 114 performs a virtual camera control process corresponding to the viewpoint of the user wearing the HMD 200. For example, the virtual camera control unit 114 controls the virtual camera set as the first-person viewpoint of the user. For example, by setting a virtual camera at a position corresponding to the viewpoint of the user character in the virtual space, and setting the viewpoint position and line-of-sight direction of the virtual camera, the position (positional coordinates) and posture (around the rotation axis) of the virtual camera The rotation angle). And the display process part 120 produces | generates the image seen from a virtual camera (user viewpoint) in virtual space as display images (display video), such as HMD200. For example, an image that is visible from a given viewpoint is generated in an object space that is a virtual space. The generated image is, for example, a stereoscopic image. By doing in this way, the image of the virtual space (VR space) which spreads over the perimeter of a visual field comes to be displayed on HMD200.

また本実施形態では、ユーザがプレイするゲームのゲーム処理として、仮想現実のシミュレーション処理を行う。仮想現実のシミュレーション処理は、実空間での事象を仮想空間で模擬するためのシミュレーション処理であり、当該事象をユーザに仮想体験させるための処理である。例えば実空間のユーザに対応するユーザキャラクタやその搭乗移動体などの移動体を、仮想空間で移動させたり、移動に伴う環境や周囲の変化をユーザに体感させるための処理を行う。   In the present embodiment, a virtual reality simulation process is performed as the game process of the game played by the user. The virtual reality simulation process is a simulation process for simulating an event in the real space in the virtual space, and is a process for causing the user to experience the event virtually. For example, a user character corresponding to a user in the real space or a moving body such as a boarding moving body is moved in the virtual space, or a process for causing the user to experience changes in the environment and surroundings associated with the movement is performed.

なお図1の本実施形態のシミュレーションシステムの処理は、業務用ゲーム装置や家庭用ゲーム装置などの処理装置、施設に設置されるPC等の処理装置、ユーザが背中等に装着する処理装置(バックパックPC)、或いはこれらの処理装置の分散処理などにより実現できる。或いは、本実施形態のシミュレーションシステムの処理を、サーバシステムと端末装置により実現してもよい。例えばサーバシステムと端末装置の分散処理などにより実現してもよい。   The processing of the simulation system of this embodiment shown in FIG. 1 includes processing devices such as arcade game devices and home game devices, processing devices such as PCs installed in facilities, and processing devices (back Pack PC) or distributed processing of these processing devices. Or you may implement | achieve the process of the simulation system of this embodiment with a server system and a terminal device. For example, it may be realized by distributed processing of a server system and a terminal device.

2.トラッキング処理
次にトラッキング処理の例について説明する。図2(A)に本実施形態のシミュレーションシステムに用いられるHMD200の一例を示す。図2(A)に示すようにHMD200には複数の受光素子201、202、203(フォトダイオード)が設けられている。受光素子201、202はHMD200の前面側に設けられ、受光素子203はHMD200の右側面に設けられている。またHMDの左側面、上面等にも不図示の受光素子が設けられている。
2. Tracking Processing Next, an example of tracking processing will be described. FIG. 2A shows an example of the HMD 200 used in the simulation system of this embodiment. As shown in FIG. 2A, the HMD 200 is provided with a plurality of light receiving elements 201, 202, and 203 (photodiodes). The light receiving elements 201 and 202 are provided on the front side of the HMD 200, and the light receiving element 203 is provided on the right side of the HMD 200. In addition, a light receiving element (not shown) is also provided on the left side, upper surface, and the like of the HMD.

またユーザUSは、把持物40を把持している。把持物40は例えば棒状の部材であり、ハンマー又は剣等を模した部材である。把持物40は取っ手部42(柄部)を有しており、ユーザUSは自身の手でこの取っ手部42を握ることで、把持物40を把持する。なお把持物40は、例えば少なくとも取っ手部42の部分で棒状の形状であればよい。また把持物40にはトラッキング装置44が設けられている。このトラッキング装置44としては、例えば位置情報や方向情報の検出機能を有するコントローラを用いることができる。具体的にはトラッキング装置44には、HMD200と同様に受光素子(不図示)が設けられており、受光素子(複数の受光素子)を用いたトラッキング処理により、トラッキング装置44の位置情報や方向情報が検出される。トラッキング装置44の位置情報や方向情報を検出することで、把持物40の位置情報及び方向情報の少なくとも一方である把持物情報を取得できる。また把持物40の例えば先端部には、ワイヤー50(広義には接続部材)の取付具46が設けられている。この取付具46が、把持物40とワイヤー50との接続部CPになる。   Further, the user US is holding the grasped object 40. The gripping object 40 is, for example, a rod-shaped member, and is a member that simulates a hammer or a sword. The grasped object 40 has a handle part 42 (handle part), and the user US grasps the grasped object 40 by grasping the handle part 42 with his / her hand. Note that the gripping object 40 may be in a bar shape at least at the handle portion 42, for example. The gripping object 40 is provided with a tracking device 44. As the tracking device 44, for example, a controller having a function of detecting position information and direction information can be used. Specifically, the tracking device 44 is provided with a light receiving element (not shown) similarly to the HMD 200, and position information and direction information of the tracking device 44 are obtained by tracking processing using the light receiving elements (a plurality of light receiving elements). Is detected. By detecting the position information and the direction information of the tracking device 44, the grasped object information that is at least one of the position information and the direction information of the grasped object 40 can be acquired. In addition, a fixture 46 of a wire 50 (a connecting member in a broad sense) is provided at, for example, a distal end portion of the grasped object 40. This attachment 46 becomes a connection portion CP between the gripping object 40 and the wire 50.

図2(B)に示すように、ユーザUSは、可動筐体60のライド部62に立ち姿勢で搭乗している。そしてライド部62にライドしているユーザUSの周辺には、ベースステーション280、284が設置されている。ベースステーション280には発光素子281、282が設けられ、ベースステーション284には発光素子285、286が設けられている。発光素子281、282、285、286は、例えばレーザー(赤外線レーザー等)を出射するLEDにより実現される。ベースステーション280、284は、これら発光素子281、282、285、286を用いて、例えばレーザーを放射状に出射する。そして図2(A)のHMD200に設けられた受光素子201〜203等が、ベースステーション280、284からのレーザーを受光することで、HMD200のトラッキング処理が実現され、ユーザUSの頭の位置や向く方向(視点位置、視線方向)を検出できるようになる。例えばユーザUSの位置情報や姿勢情報(方向情報)を検出できるようになる。   As shown in FIG. 2B, the user US is riding in a standing posture on the ride portion 62 of the movable housing 60. Base stations 280 and 284 are installed around the user US riding the ride unit 62. The base station 280 is provided with light emitting elements 281 and 282, and the base station 284 is provided with light emitting elements 285 and 286. The light emitting elements 281, 282, 285, and 286 are realized by LEDs that emit laser (infrared laser or the like), for example. The base stations 280 and 284 use these light emitting elements 281, 282, 285, and 286 to emit, for example, a laser beam radially. Then, the light receiving elements 201 to 203 and the like provided in the HMD 200 in FIG. 2A receive the lasers from the base stations 280 and 284, thereby realizing the tracking process of the HMD 200 and facing the head position of the user US. The direction (viewpoint position, line-of-sight direction) can be detected. For example, position information and posture information (direction information) of the user US can be detected.

また把持物40のトラッキング装置44に設けられる複数の受光素子(不図示)が、ベースステーション280、284からのレーザーを受光することで、把持物40の位置情報及び方向情報の少なくとも一方である把持物情報を検出できるようになる。   In addition, a plurality of light receiving elements (not shown) provided in the tracking device 44 of the grasped object 40 receive laser beams from the base stations 280 and 284, thereby grasping at least one of position information and direction information of the grasped object 40. Object information can be detected.

図3(A)にHMD200の他の例を示す。図3(A)では、HMD200に対して複数の発光素子231〜236が設けられている。これらの発光素子231〜236は例えばLEDなどにより実現される。発光素子231〜234は、HMD200の前面側に設けられ、発光素子235や不図示の発光素子236は、背面側に設けられる。これらの発光素子231〜236は、例えば可視光の帯域の光を出射(発光)する。具体的には発光素子231〜236は、互いに異なる色の光を出射する。またユーザUSが把持する把持物40のトラッキング装置44にも発光素子(不図示)が設けられている。例えば複数の発光素子が設けられている。   FIG. 3A shows another example of the HMD 200. In FIG. 3A, a plurality of light emitting elements 231 to 236 are provided for the HMD 200. These light emitting elements 231 to 236 are realized by, for example, LEDs. The light emitting elements 231 to 234 are provided on the front side of the HMD 200, and the light emitting element 235 and the light emitting element 236 (not shown) are provided on the back side. These light emitting elements 231 to 236 emit (emit) light in a visible light band, for example. Specifically, the light emitting elements 231 to 236 emit light of different colors. The tracking device 44 of the grasped object 40 held by the user US is also provided with a light emitting element (not shown). For example, a plurality of light emitting elements are provided.

そして図3(B)に示す撮像部150を、ユーザUSの周囲の少なくとも1つの場所(例えば前方側、或いは前方側及び後方側など)に設置し、この撮像部150により、HMD200の発光素子231〜236の光を撮像する。即ち、撮像部150の撮像画像には、これらの発光素子231〜236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、ユーザUSの頭部(HMD)のトラッキングを実現する。即ちユーザUSの頭部の3次元位置や向く方向(視点位置、視線方向)を検出する。   The imaging unit 150 shown in FIG. 3B is installed in at least one place around the user US (for example, the front side, the front side, the rear side, or the like). Image ˜236 light. That is, the spot light of these light emitting elements 231 to 236 is reflected in the captured image of the imaging unit 150. And the tracking of the user's US head (HMD) is implement | achieved by performing the image process of this captured image. That is, the three-dimensional position of the head of the user US and the facing direction (viewpoint position, line of sight direction) are detected.

例えば図3(B)に示すように撮像部150には第1、第2のカメラ151、152が設けられており、これらの第1、第2のカメラ151、152の第1、第2の撮像画像を用いることで、ユーザUSの頭部の奥行き方向での位置等が検出可能になる。またHMD200に設けられたモーションセンサのモーション検出情報に基づいて、ユーザUSの頭部の回転角度(視線)も検出可能になっている。従って、このようなHMD200を用いることで、ユーザUSが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想空間(仮想3次元空間)での画像(ユーザの視点に対応する仮想カメラから見える画像)を、HMD200の表示部220に表示することが可能になる。   For example, as illustrated in FIG. 3B, the imaging unit 150 includes first and second cameras 151 and 152, and the first and second cameras 151 and 152 of the first and second cameras 151 and 152 are provided. By using the captured image, the position of the head of the user US in the depth direction can be detected. Further, based on the motion detection information of the motion sensor provided in the HMD 200, the rotation angle (line of sight) of the head of the user US can also be detected. Therefore, by using such an HMD 200, when the user US faces in any direction of all 360 degrees around the image, the image (the user's virtual space in the virtual space (virtual three-dimensional space)) Image viewed from a virtual camera corresponding to the viewpoint) can be displayed on the display unit 220 of the HMD 200.

また撮像部150により、把持物40のトラッキング装置44に設けられた複数の発光素子(不図示)の光を撮像することで、HMD200の場合と同様に、把持物40の位置情報及び方向情報の少なくとも1つである把持物情報を検出できる。   In addition, by imaging the light of a plurality of light emitting elements (not shown) provided in the tracking device 44 of the grasped object 40 by the image capturing unit 150, as in the case of the HMD 200, the position information and the direction information of the grasped object 40 are stored. At least one grasped object information can be detected.

なお、発光素子231〜236として、可視光ではなく赤外線のLEDを用いてもよい。また、例えばデプスカメラ等を用いるなどの他の手法で、ユーザの頭部や手(所定部位)の位置や動き等を検出するようにしてもよい。   Note that instead of visible light, infrared LEDs may be used as the light emitting elements 231 to 236. Further, the position or movement of the user's head or hand (predetermined part) may be detected by another method such as using a depth camera.

また、ユーザUSの位置情報、方向情報及び姿勢情報の少なくとも1つであるユーザ情報や、把持物40の把持物情報を検出するトラッキング処理の手法は、図2(A)〜図3(B)で説明した手法には限定されない。例えばHMD200やトラッキング装置44に設けられたモーションセンサ等を用いて、HMD200、トラッキング装置44のトラッキング処理を行って、位置情報や方向情報や姿勢情報を検出してもよい。即ち、図2(B)のベースステーション280、284、図3(B)の撮像部150などの外部装置を設けることなく、トラッキング処理を実現する。或いは、公知のアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの種々の視点トラッキング手法を用いてもよい。或いはユーザのモーション(モーションデータ)を検出して特定するモーショントラッキングの手法を用いてもよい。例えばユーザの手等の部位のトラッキング処理を行ったり、モーショントラッキング処理を行うことで、ユーザ情報や把持物情報を取得してもよい。   A tracking processing method for detecting user information that is at least one of position information, direction information, and posture information of the user US and gripping object information of the gripping object 40 is illustrated in FIGS. 2A to 3B. It is not limited to the method demonstrated by (1). For example, the tracking information of the HMD 200 and the tracking device 44 may be performed using a motion sensor or the like provided in the HMD 200 or the tracking device 44 to detect position information, direction information, and posture information. That is, tracking processing is realized without providing external devices such as the base stations 280 and 284 in FIG. 2B and the imaging unit 150 in FIG. Alternatively, various viewpoint tracking methods such as known eye tracking, face tracking, or head tracking may be used. Or you may use the method of the motion tracking which detects and identifies a user's motion (motion data). For example, user information or grasped object information may be acquired by performing tracking processing of a part such as a user's hand or motion tracking processing.

3.シミュレーションシステムの具体例
次に本実施形態のシミュレーションシステムの具体的な構成例について説明する。図4はシミュレーションシステムの具体的な構成例の外観を示す斜視図であり、図5は側面図である。
3. Specific Example of Simulation System Next, a specific configuration example of the simulation system of this embodiment will be described. FIG. 4 is a perspective view showing an appearance of a specific configuration example of the simulation system, and FIG. 5 is a side view.

図4、図5に示すように、可動筐体60は、ベース部61と、ライド部62と、ベース部61とライド部62との間に設けられるエアバネ部63、64、65(広義には伸縮部、アクチュエータ)を有する。これらのベース部61、ライド部62、エアバネ部63、64、65により、ユーザUSのプレイエリアARを揺動させる揺動機構66が実現される。   As shown in FIGS. 4 and 5, the movable housing 60 includes a base portion 61, a ride portion 62, and air spring portions 63, 64, 65 (broadly defined) provided between the base portion 61 and the ride portion 62. A telescopic part, an actuator). A swing mechanism 66 that swings the play area AR of the user US is realized by the base portion 61, the ride portion 62, and the air spring portions 63, 64, and 65.

例えばエアバネ部63はライド部62の前方側の下部に設けられ、エアバネ部64、65は、ライド部62の後方側の下部の右側、左側に設けられる。これらのエアバネ部63、64、65は、エアコンプレッサやバブルを用いて空気の供給や排出が行われることで、図4、図5のY軸方向において伸縮する。なお、ここでは鉛直方向に沿った座標軸をY軸とし、基本姿勢のユーザUSを基準として、左右方向(水平方向)の座標軸をX軸とし、前後方向の座標軸をZ軸としている。   For example, the air spring part 63 is provided at the lower part on the front side of the ride part 62, and the air spring parts 64 and 65 are provided on the right side and the left side of the lower part on the rear side of the ride part 62. These air spring parts 63, 64, and 65 expand and contract in the Y-axis direction of FIGS. 4 and 5 by supplying and discharging air using an air compressor and bubbles. Here, the coordinate axis along the vertical direction is set as the Y axis, the coordinate axis in the left and right direction (horizontal direction) is set as the X axis, and the coordinate axis in the front and rear direction is set as the Z axis based on the user US of the basic posture.

例えば全てのエアバネ部63、64、65が伸びたり、縮むことで、ライド部62を、Y軸方向で上側や下側に移動させることができる。また前方側のエアバネ部63が伸びる一方で後方側のエアバネ部64、65が縮んだり、前方側のエアバネ部63が縮む一方で後方側のエアバネ部64、65が伸びることで、ライド部62をX軸回りにピッチングさせることができる。また右側のエアバネ部64が伸びる一方で左側のエアバネ部65が縮んだり、右側のエアバネ部64が縮む一方で左側のエアバネ部65が伸びることで、ライド部62をZ軸回りにローリングさせることができる。このようにエアバネ部63、64、65の伸縮を例えば図1の制御部117により制御することで、ユーザUSのプレイエリアAR(ライド部62)を揺動させる揺動機構66が実現される。   For example, when all the air spring portions 63, 64, 65 are extended or contracted, the ride portion 62 can be moved upward or downward in the Y-axis direction. Further, the air spring portion 63 on the front side extends while the air spring portions 64 and 65 on the rear side contract, or the air spring portion 63 on the rear side contracts while the air spring portions 64 and 65 on the rear side extend. It can be pitched around the X axis. Also, the right air spring part 64 extends while the left air spring part 65 contracts, or the right air spring part 64 contracts while the left air spring part 65 extends, thereby allowing the ride part 62 to roll around the Z axis. it can. In this way, by controlling the expansion and contraction of the air spring portions 63, 64, 65 by the control unit 117 of FIG. 1, for example, the swing mechanism 66 that swings the play area AR (ride portion 62) of the user US is realized.

ライド部62には、支持部67、68、69の一端側が取り付けられ、支持部67、68、69の他端側には制限部材70が取り付けられる。支持部67、68、69は、Y軸方向(鉛直方向)を長手方向とする棒状の部材により実現される。制限部材70は、ユーザUSのプレイエリアARを、所与の範囲に制限するための部材であり、例えば中央部に穴部が形成される。そしてユーザUSは、この制限部材70の穴部の中に入ってゲームをプレイする。即ち制限部材70の穴部の範囲にユーザUSのプレイエリアARが制限される。また制限部材70上には、図5に示すようにローラー部73を有する移動部72が設けられている。ローラー部73が回転することで、移動部72は、制限部材70の穴部の周りの周縁部において、回動自在に回転移動する。ユーザUSは腰ベルト80を装着しており、腰ベルト80の背面側に取り付けられた板状の取付部材74に対して、移動部72が取り付けられる。従って、ユーザUSがプレイエリアARにおいてY軸回りに回転移動すると、腰ベルト80に対して取付部材74を介して取り付けられた移動部72が、制限部材70の穴部の周りの周縁部において回転移動することになる。このような制限部材70、移動部72等により、ユーザUSが回転自在に移動可能なプレイエリアARを、所与の範囲に制限するプレイエリア制限機構76が実現される。   One end side of the support portions 67, 68, 69 is attached to the ride portion 62, and the limiting member 70 is attached to the other end side of the support portions 67, 68, 69. The support portions 67, 68, and 69 are realized by rod-shaped members whose longitudinal direction is the Y-axis direction (vertical direction). The restricting member 70 is a member for restricting the play area AR of the user US to a given range. For example, a hole is formed in the center. Then, the user US enters the hole of the restriction member 70 and plays the game. That is, the play area AR of the user US is limited to the range of the hole portion of the limiting member 70. Further, on the limiting member 70, a moving part 72 having a roller part 73 is provided as shown in FIG. As the roller unit 73 rotates, the moving unit 72 rotates and moves freely at the peripheral portion around the hole of the limiting member 70. The user US wears a waist belt 80, and the moving unit 72 is attached to a plate-like attachment member 74 attached to the back side of the waist belt 80. Therefore, when the user US rotates around the Y axis in the play area AR, the moving unit 72 attached to the waist belt 80 via the attachment member 74 rotates at the peripheral portion around the hole of the limiting member 70. Will move. The play area restriction mechanism 76 that restricts the play area AR, to which the user US can freely rotate, to a given range is realized by the restriction member 70, the moving unit 72, and the like.

ユーザUSの周りには骨組み部2が設けられている。この骨組み部2に例えば壁部材などが取り付けることでプレイルームを形成できる。骨組み部2の天井部には、板状部材4が設けられており、板状部材4上に反力発生装置10が設置されている。そして図5に示すように、ワイヤー50(接続部材)の他端側の固定点FPが、ユーザUSのゲームプレイ時の頭部の高さよりも上方の位置に設定されている。具体的にはワイヤー50の固定点FPが、ユーザUSのプレイエリアARの上方に設定されている。そしてユーザUSの上方の固定点FPが他端側に接続されたワイヤー50の一端側が、ユーザUSが把持する把持物40の接続部CPに接続される。これにより把持物40に対して上方側に作用する反力を発生させることが可能になる。   A skeleton part 2 is provided around the user US. A play room can be formed by attaching a wall member or the like to the skeleton 2. A plate-like member 4 is provided on the ceiling of the skeleton part 2, and a reaction force generator 10 is installed on the plate-like member 4. As shown in FIG. 5, the fixed point FP on the other end side of the wire 50 (connection member) is set at a position higher than the height of the head at the time of game play of the user US. Specifically, the fixed point FP of the wire 50 is set above the play area AR of the user US. Then, one end side of the wire 50 to which the fixed point FP above the user US is connected to the other end side is connected to the connection portion CP of the grasped object 40 grasped by the user US. This makes it possible to generate a reaction force that acts upward on the grasped object 40.

また図4、図5に示すように本実施形態のシミュレーションシステムは、ユーザUSのプレイエリアARの周囲に設けられ、ユーザUSに対して触覚刺激を与える物質である気体(空気)を発射する複数の発射装置LC1〜LC6(LC1〜LCN)を含む。例えば図4、図5では、ユーザUSの右方向側、前方側、左方向側に発射装置LC1〜LC6が設けられている。即ち、ユーザUSの視界範囲を内包するような周囲の範囲に、発射装置LC1〜LC6が設けられている。なおユーザUSの後方側(背面側)にも発射装置を設けることができる。   As shown in FIGS. 4 and 5, the simulation system of the present embodiment is provided around the play area AR of the user US, and emits a plurality of gases (air) that are substances that give tactile stimulation to the user US. Launchers LC1 to LC6 (LC1 to LCN). For example, in FIGS. 4 and 5, the launchers LC1 to LC6 are provided on the right side, the front side, and the left side of the user US. That is, the launch devices LC1 to LC6 are provided in a peripheral range that includes the view range of the user US. A launching device can also be provided on the rear side (back side) of the user US.

発射装置LC1〜LC6は、コンプレッサー(不図示)から気体(圧縮空気)が送られ、この気体をユーザUSの方向に対して発射する。例えば発射装置LC1、LC2はユーザUSの右方向側から気体を発射し、発射装置LC3、LC4はユーザUSの前方向側から気体を発射し、発射装置LC5、LC6はユーザUSの左方向側から気体を発射する。例えば図1の制御部117は、ユーザUSに対して攻撃イベントが発生することを事前に報知する報知イベントにおいて、複数の発射装置LC1〜LC6のうち報知イベントに対応する発射装置に、触覚刺激を与える物質である気体を発射させる。このように、攻撃イベントの発生前の報知イベントにおいて、ユーザUSに対して気体が発射されることで、ユーザUSは、当該攻撃イベントが発生することを事前に予測できるようになる。そして、例えば攻撃イベントにおいて攻撃を行おうとしている攻撃体(標的、標的オブジェクト)に対して、その攻撃前に反撃するなどの種々の行動をとることが可能になる。   The launch devices LC1 to LC6 are supplied with gas (compressed air) from a compressor (not shown), and launch the gas toward the direction of the user US. For example, the launchers LC1 and LC2 launch gas from the right side of the user US, the launchers LC3 and LC4 launch gas from the front side of the user US, and the launchers LC5 and LC6 from the left side of the user US. Fire gas. For example, the control unit 117 in FIG. 1 gives a tactile stimulus to the launching device corresponding to the notification event among the plurality of launching devices LC1 to LC6 in the notification event that notifies the user US in advance that an attack event occurs. Fires a gas that is a given substance. As described above, in the notification event before the occurrence of the attack event, the gas is emitted to the user US, so that the user US can predict in advance that the attack event will occur. Then, for example, it is possible to take various actions such as counterattacking an attacking body (target, target object) trying to attack in an attack event before the attack.

4.本実施形態の手法
次に本実施形態の手法について説明する。なお、以下では、周囲から攻撃してくる攻撃体に対してユーザが反撃するゲームに本実施形態の手法を適用した場合について主に説明する。但し本実施形態の手法が適用されるゲームはこのようなゲームには限定されず、種々のゲーム(剣等による対戦ゲーム、格闘ゲーム、RPG、アクションゲーム、ロボットゲーム、FPS(First Person shooter)、乗り物のシミュレーションゲーム、仮想体験ゲーム、スポーツゲーム、ホラー体験ゲーム、或いは音楽ゲーム等)に適用でき、ゲーム以外にも適用可能である。例えば本実施形態の手法は、多人数格闘ゲームのように、ユーザに対応するキャラクタに対して周囲から複数のキャラクタ(攻撃体)が攻撃してくるようなゲームに好適に適用できる。また本実施形態の手法は、VR空間のゲームのみならず、ゲーム空間の画像が無いエレメカ装置や、HMD以外のディスプレイを用いた通常のビデオゲーム装置等にも適用可能である。
4). Next, the method of this embodiment will be described. In the following, a case where the method of the present embodiment is applied to a game in which a user counterattacks an attacking body attacking from the surroundings will be mainly described. However, the game to which the method of the present embodiment is applied is not limited to such a game, and various games (a battle game with a sword, a fighting game, an RPG, an action game, a robot game, an FPS (First Person shooter), The present invention can be applied to a vehicle simulation game, a virtual experience game, a sports game, a horror experience game, a music game, or the like. For example, the method of the present embodiment can be suitably applied to a game in which a plurality of characters (attacking bodies) attack a character corresponding to a user from the surroundings, such as a multiplayer fighting game. Further, the method of the present embodiment can be applied not only to a VR space game, but also to an electromechanical device having no game space image, a normal video game device using a display other than the HMD, and the like.

4.1 ゲームの説明
図6、図7に本実施形態のシミュレーションシステムにより生成されるゲーム画像の例を示す。ゲームステージにはゲートG1、G2、G3等が設けられ、ゲートG1、G2、G3等からは、攻撃体(攻撃オブジェクト、標的オブジェクト)であるワニCR1、CR2、CR3等が出現する。ユーザに対応するゲーム空間のキャラクタ(アバター)は、水面に浮かぶ樽船BWに乗って、図7に示すように、ゲートG2から攻撃してくるワニCR2に対してハンマーHMを用いて反撃を加える。反撃を受けたワニCR2は、ゲートG2側に戻って行く。図6、図7のゲーム画像は、実際には非常に広い視野角でHMD200に表示される。これによりユーザは、視界の全周囲に亘って広がるVR空間において、攻撃体であるワニCR1、CR2、CR3等と戦うアクションゲームを楽しむことができる。
4.1 Description of Game FIGS. 6 and 7 show examples of game images generated by the simulation system of the present embodiment. Gates G1, G2, G3, etc. are provided on the game stage, and crocodiles CR1, CR2, CR3, etc., which are attacking bodies (attack objects, target objects), appear from the gates G1, G2, G3, etc. The character (avatar) in the game space corresponding to the user rides on the barrel ship BW floating on the water surface and countersits the crocodile CR2 attacking from the gate G2 using the hammer HM as shown in FIG. . The crocodile CR2 that has received the counterattack returns to the gate G2 side. The game images shown in FIGS. 6 and 7 are actually displayed on the HMD 200 with a very wide viewing angle. Thereby, the user can enjoy the action game which fights crocodiles CR1, CR2, CR3 etc. which are attackers in VR space which spreads over the perimeter of a visual field.

図8〜図14は本実施形態により実現されるゲームの説明図である。図8では、第1のユーザに対応するキャラクタCH1と第2のユーザに対応するキャラクタCH2がゲームに登場する。キャラクタCH1、CH2は水面に浮かぶ樽船BW1、BW2に乗って、ワニの巣の中に迷い込むというゲーム設定になっている。ワニに囲まれたキャラクタCH1、CH2は、樽船BW1、BW2が沈まないように全方位に注意を配りながら、ハンマーHM1、HM2でワニを叩いて退治する。ワニを退治するには、ワニの弱点である鼻先を上から叩く必要があり、ハンマーを上から振り下ろしてワニを叩くことでワニを退治する。全てのワニを退治した場合や、或いは樽船BW1、BW2の一方が沈んでしまった場合に、ゲームの終了となる。各ユーザは、HMD200に表示される図6、図7に示すようなゲーム画像を見ながら、ハンマーに対応する把持物40を上から振り下ろして、ゲーム空間のワニを叩いて退治するゲームを楽しむ。   8 to 14 are explanatory diagrams of a game realized by this embodiment. In FIG. 8, a character CH1 corresponding to the first user and a character CH2 corresponding to the second user appear in the game. The characters CH1 and CH2 have a game setting in which they get on the barrel boats BW1 and BW2 floating on the water surface and get lost in the nest of crocodiles. Characters CH1 and CH2 surrounded by crocodiles are eliminated by hitting crocodiles with hammers HM1 and HM2 while paying attention to all directions so that barrel ships BW1 and BW2 do not sink. In order to get rid of the crocodile, it is necessary to hit the tip of the nose, which is a weak point of the crocodile, from the top. The game ends when all the crocodiles have been exterminated, or when one of the barrel ships BW1 and BW2 has sunk. Each user enjoys a game in which the user grasps the gripping object 40 corresponding to the hammer from above and hits a crocodile in the game space while watching the game images displayed on the HMD 200 as shown in FIGS. .

そして図9では、キャラクタCH1を操作するユーザUS1(第1のユーザ)の視野範囲外である背後から、ワニCR1、CR2が攻撃を仕掛けて来ている。なお図9では、ワニCR1、CR2は実際にはゲーム空間での表示物であるため、点線で描いて示している。他の図面でも同様である。   In FIG. 9, the crocodiles CR1 and CR2 are attacking from behind the user US1 (first user) who operates the character CH1. In FIG. 9, the crocodiles CR1 and CR2 are actually display objects in the game space, and are drawn with dotted lines. The same applies to other drawings.

図9のように視野範囲外からワニCR1、CR2が攻撃してくると、これらのワニCR1、CR2の画像はHMD200には映らないため、ユーザUS1はワニCR1、CR2の存在を視覚的に認識できない。このため、不意に突然に背後から攻撃されてしまうことでユーザUS1が戸惑ってしまうなどの事態が生じる。そこで本実施形態では、ワニCR1、CR2の出現に合わせて、ユーザUS1に対して気体BR1、BR2を発射する。即ちワニCR1、CR2による攻撃イベントの発生を事前に知らせる報知イベントとして、気体BR1、BR2をユーザUS1に向けて発射する。これらの気体BR1、BR2は、ワニCR1、CR2の鼻息を表すものである。このような気体BR1、BR2が発射されると、ユーザUS1は、気体BR1、BR2が体に当たることによる触覚刺激により、ワニCR1、CR2による攻撃イベントが発生したことを事前に知ることができる。そしてユーザUS1は、例えばライド部62において体を回転させてワニCR1の方を向き、ワニCR1の方に向かって把持物40を振り下ろす動作を行う。これにより図10に示すように、ユーザUS1に対応するキャラクタCH1がハンマーHM1を振り下ろしてワニCR1を叩くゲーム画像が表示されるようになる。   When the crocodile CR1, CR2 attacks from outside the field of view as shown in FIG. 9, the images of these crocodile CR1, CR2 are not reflected in the HMD 200, so the user US1 visually recognizes the presence of the crocodile CR1, CR2. Can not. For this reason, the situation where the user US1 is confused by suddenly being attacked from behind occurs. So, in this embodiment, gas BR1 and BR2 are discharged with respect to user US1 according to appearance of crocodiles CR1 and CR2. That is, the gas BR1 and BR2 are emitted toward the user US1 as a notification event that notifies in advance of the occurrence of an attack event by the crocodiles CR1 and CR2. These gases BR1 and BR2 represent the nasal breath of the crocodiles CR1 and CR2. When such gases BR1 and BR2 are fired, the user US1 can know in advance that an attack event by the crocodiles CR1 and CR2 has occurred due to tactile stimulation caused by the gas BR1 and BR2 hitting the body. For example, the user US1 rotates the body in the ride unit 62 to face the crocodile CR1 and swings the grasped object 40 toward the crocodile CR1. As a result, as shown in FIG. 10, a game image in which the character CH1 corresponding to the user US1 swings down the hammer HM1 and hits the crocodile CR1 is displayed.

また図11ではキャラクタCH1が乗る樽船BW1に対してワニCR3が攻撃を加えている。このようにワニCR3が樽船BW1を小突く攻撃を行うと、樽船BW1が損傷して行く。そして損傷が大きくなると樽船BW1が沈んでしまうため、樽船BW1が沈まないように、ユーザUS1は周囲から襲ってくるワニCR3、CR4に対して反撃を加えて退治する。   In FIG. 11, the crocodile CR3 is attacking the barrel ship BW1 on which the character CH1 rides. In this way, when the crocodile CR3 attacks the barrel ship BW1, the barrel ship BW1 is damaged. Since the barrel ship BW1 sinks when the damage becomes large, the user US1 fights against the crocodiles CR3 and CR4 attacking from the surrounding area so that the barrel ship BW1 does not sink.

そして図11のようにワニCR3が樽船BW1に攻撃して小突くと、この攻撃をユーザUS1に体感させるために、図12に示すように揺動機構66によりユーザUS1のプレイエリアARであるライド部62を揺動させる。例えば図12では、前側のエアバネ部63が縮み、後ろ側のエアバネ部64、65が伸びることで、ユーザUS1が前側につんのめるようにライド部62(プレイエリアAR)が揺れる。これにより、後ろ側から襲ってきたワニCR3が、樽船BW1を攻撃により小突いた際に、その足元が揺れるような体感をユーザUS1に与えることができ、仮想現実感を向上できる。   Then, when the crocodile CR3 attacks the barrel ship BW1 and pokes as shown in FIG. 11, in order to make the user US1 experience this attack, as shown in FIG. 12, the swing mechanism 66 causes the ride that is the play area AR of the user US1. The part 62 is swung. For example, in FIG. 12, the front air spring portion 63 contracts and the rear air spring portions 64 and 65 extend, so that the ride portion 62 (play area AR) swings so that the user US1 can pick up the front. Thereby, when the crocodile CR3 attacked from the rear side hits the barrel ship BW1 by an attack, it is possible to give the user US1 a sense of shaking his / her feet and improve the virtual reality.

周囲から次々と襲ってくるワニを退治し、全てのワニを撃退すると、静寂なシーンに移行する。その後、揺動機構66により床が揺れる演出が行われ、図13、図14に示すようにゲームステージの壁から巨大ワニCRBSが出現する。巨大ワニCRBSはキャラクタCH1が乗る樽船BW1の周囲を回りながら襲ってくるため、ユーザUS1は、巨大ワニCRBSに背後から襲われないようにライド部62上で体を回転させながら反撃することになる。ユーザUS1のHMD200には、視界の全周囲に亘って広がるVR空間の画像が表示されるため、巨大ワニCRBSとの迫力ある対戦画像を表示することで、仮想現実感を大幅に向上できる。   Defeat the crocodiles attacking one after another from the surroundings and repel all the crocodiles. Thereafter, the swing mechanism 66 produces an effect that the floor swings, and a giant crocodile CRBS appears from the wall of the game stage as shown in FIGS. Since the giant crocodile CRBS attacks while turning around the barrel ship BW1 on which the character CH1 rides, the user US1 fights back while rotating the body on the ride unit 62 so that the giant crocodile CRBS is not attacked from behind. Become. Since the image of the VR space that extends over the entire periphery of the field of view is displayed on the HMD 200 of the user US1, virtual reality can be greatly improved by displaying a powerful battle image with the giant crocodile CRBS.

4.2 触覚刺激による攻撃イベントの報知
図8〜図14で説明したゲームでは、攻撃体であるワニが、ユーザの視野範囲外である背後等から攻撃してくる。このため攻撃体による視野範囲外からの突然の攻撃により、ユーザが戸惑ったり、不意を突かれてしまうなどの事態が生じてしまう。特にHMDを用いたゲームでは、VR空間での一人称視点での画像がHMDに表示され、あたかもユーザが実際にそのVR空間の世界に存在するかのような仮想現実感を味合うことができる。例えば通常の疑似3次元画像のゲームでは、ユーザの視野範囲での画像しかディスプレイに表示されないが、HMDを用いたゲームでは、ユーザの視野範囲外にもVR空間の世界が存在し、ユーザが、視野範囲外であった背後の方を振り向けば、その背後において見える画像がHMDに表示される。従って、ユーザが、視野範囲外である背後等の方向を振り向けば、視野範囲外から攻撃してくる攻撃体を視認できるが、攻撃体による攻撃を何ら知らさせることなく攻撃体が襲ってくると、ユーザが戸惑ったり、不意を突かれてしまい、スムーズなゲーム進行等を実現できなくなってしまう。
4.2 Notification of Attack Event by Tactile Stimulus In the game described with reference to FIGS. 8 to 14, a crocodile that is an attacking body attacks from behind or the like outside the visual field range of the user. For this reason, a sudden attack from the outside of the visual field range by the attacking body causes a situation in which the user is confused or surprised. In particular, in a game using an HMD, an image from the first-person viewpoint in the VR space is displayed on the HMD, and the user can enjoy a virtual reality as if the user actually exists in the VR space world. For example, in a normal pseudo three-dimensional image game, only an image in the user's visual field range is displayed on the display, but in a game using the HMD, the VR space world exists outside the user's visual field range, If the back side that is out of the field of view is turned around, an image that can be seen behind the range is displayed on the HMD. Therefore, if the user turns away from the field of view, such as behind, he can see the attacking object attacking from outside the field of view, but if the attacking object attacks without making any attack by the attacking object known The user may be confused or surprised, and smooth game progression or the like cannot be realized.

そこで本実施形態では、ユーザの見えない位置(死角)から攻撃してくる敵の攻撃開始タイミングを、触覚刺激によってユーザに報知する仕組みを提供する。例えばユーザがゲームを行うプレイエリア(プレイ位置)が、回転(Y軸回転)以外、ほぼ固定されている状態で行われるゲームにおいて、報知要素(ワニの襲撃、武器の発砲等)が発生した際、プレイ位置(プレイエリア)の周囲に設置された複数の発射装置(空気砲、BB弾、伸縮棒等)によるユーザへの物質発射により、ユーザの触覚にうったえる報知を実行するシミュレーションシステム(ゲームシステム)を実現する。例えばユーザのプレイエリア(プレイ位置)の周囲のうち、ユーザの視野以外(死角)の方向において、報知要素が発生した際に、その方向の近傍に設置された発射装置によるユーザへの物質発射を行う。   Therefore, in the present embodiment, a mechanism is provided for notifying the user of the attack start timing of an enemy attacking from a position (a blind spot) where the user cannot see by tactile stimulation. For example, when a notification element (crocodile attack, weapon firing, etc.) occurs in a game that is performed in a state where the play area (play position) in which the user plays the game is substantially fixed except for rotation (Y-axis rotation) , A simulation system (game system) that performs notification in response to the user's tactile sensation by material firing to the user by a plurality of launching devices (air cannon, BB bullet, telescopic rod, etc.) installed around the play position (play area) ). For example, when a notification element is generated in a direction other than the user's field of view (a blind spot) in the periphery of the user's play area (play position), a substance is released to the user by a launching device installed in the vicinity of the direction. Do.

具体的には本実施形態のシミュレーションシステムでは、図15(A)に示すように、ユーザUSに対して触覚刺激を与える物質を発射する複数の発射装置LC1〜LC6が、ユーザUSのプレイエリアARの周囲に設けられる。そしてユーザUSがプレイするゲームの状況に応じて、発射装置LC1〜LC6の物質の発射が制御される。例えば図15(A)では、可動筐体60に対してライド部62が設けられ、このライド部62がユーザUSのプレイエリアARになる。ユーザUSはライド部62上で把持物40を振ることで、敵への攻撃を行う。またライド部62の下方にはエアバネ部63、64、65が設けられ、これによりプレイエリアARを揺動させる揺動機構66が実現される。   Specifically, in the simulation system of the present embodiment, as shown in FIG. 15A, a plurality of launching devices LC1 to LC6 that launch a substance that gives a tactile stimulus to the user US include the play area AR of the user US. It is provided around. And according to the situation of the game which user US plays, discharge of the substance of launching devices LC1-LC6 is controlled. For example, in FIG. 15A, a ride unit 62 is provided for the movable housing 60, and this ride unit 62 becomes the play area AR for the user US. The user US attacks the enemy by shaking the grasped object 40 on the ride unit 62. Air spring portions 63, 64, 65 are provided below the ride portion 62, thereby realizing a swing mechanism 66 that swings the play area AR.

一方、ゲーム空間においては、図15(B)に示すように、ユーザUSに対応するキャラクタCH(ユーザキャラクタ、アバタ)が、実空間のライド部62に対応する樽船BWに乗り、実空間の把持物40に対応するハンマーHMにより攻撃を行う。そしてキャラクタCHの周囲には、ワニ等の攻撃体AT1〜AT11が出現する。図15(A)の発射装置LC1〜LC6は、これらの攻撃体AT1〜AT11の出現場所に対応する位置に設置される。   On the other hand, in the game space, as shown in FIG. 15B, the character CH (user character, avatar) corresponding to the user US rides on the barrel ship BW corresponding to the ride section 62 in the real space, and An attack is performed with the hammer HM corresponding to the grasped object 40. Then, an attacking body AT1 to AT11 such as a crocodile appears around the character CH. The launchers LC1 to LC6 in FIG. 15A are installed at positions corresponding to the appearance locations of these attacking objects AT1 to AT11.

そして本実施形態ではユーザUSに対して攻撃イベントが発生することを事前に報知する報知イベントにおいて、複数の発射装置LC1〜LC6のうち報知イベントの発生場所に対応する発射装置(1又は複数の発射装置)に、触覚刺激を与える物質を発射させる。例えば触覚刺激を与える物質として気体(圧縮された空気等)を発射させる。   In the present embodiment, in the notification event for informing in advance that an attack event occurs to the user US, among the plurality of emission devices LC1 to LC6, the emission device corresponding to the occurrence location of the notification event (one or a plurality of emission) The device is fired with a substance that provides tactile stimulation. For example, a gas (compressed air or the like) is fired as a substance that provides tactile stimulation.

例えば図16(A)では、攻撃体AT1がユーザUSに対して攻撃しようとしている。この場合には攻撃体AT1による攻撃を事前に報知する報知イベントEVIとして、攻撃体AT1の位置(報知イベントの発生場所)に対応する発射装置LC1に、触覚刺激を与える物質である気体BR1(空気砲)を発射させる。   For example, in FIG. 16 (A), the attacking object AT1 attempts to attack the user US. In this case, a gas BR1 (air) that is a substance that gives a tactile stimulus to the launcher LC1 corresponding to the position of the attacker AT1 (where the event is generated) is used as the notification event EVI that notifies the attack by the attacker AT1 in advance. Fire a gun).

例えば図16(A)では、ユーザUSの視野範囲外において攻撃体AT1がユーザUS1に対して攻撃しようとしている。この場合にユーザUSは、攻撃体AT1の攻撃を視覚的に認識できない。このため、攻撃体AT1の攻撃イベントEVAの発生により、図16(B)に示すように、何ら反撃することなく攻撃体AT1による攻撃を受けてしまう。従って、不意に視野範囲外から攻撃されてしまうことで、ユーザUS1が戸惑ってしまうなどの事態が生じてしまう。   For example, in FIG. 16A, the attacking object AT1 attempts to attack the user US1 outside the range of view of the user US. In this case, the user US cannot visually recognize the attack of the attacker AT1. For this reason, as the attack event EVA of the attacking object AT1 occurs, as shown in FIG. 16B, the attacking by the attacking object AT1 is received without any counterattack. Therefore, a situation in which the user US1 is confused due to unexpected attack from the outside of the visual field range.

この点、本実施形態では図16(A)に示すように、ユーザUSに対して攻撃イベントEVAが発生することを事前に報知する報知イベントEVIにおいて、発射装置LC1によりユーザUSに対して気体BR1を発射している。このような気体BR1を発射することで、この気体BR1がユーザUSの体に当たり、ユーザUSは、気体BR1による触覚刺激により、攻撃体AT1による攻撃イベントEVAが発生することを、事前に知ることが可能になる。これによりユーザUSは、例えば図17(A)に示すように、気体BR1の発射方向側を向くように体を回転して、攻撃体AT1による攻撃がヒットする前に、例えば把持物40により攻撃体AT1に対して反撃することが可能になる。これにより、攻撃体AT1による攻撃を回避できるようになる。例えば攻撃体AT1による攻撃がゲーム空間の樽船BWにヒットして、樽船BWが損傷してしまうなどの事態を回避できる。   In this regard, in this embodiment, as shown in FIG. 16A, in the notification event EVI that notifies the user US in advance that the attack event EVA occurs, the gas BR1 is given to the user US by the launcher LC1. Is firing. By firing such a gas BR1, this gas BR1 hits the body of the user US, and the user US knows in advance that an attack event EVA by the attacking body AT1 occurs due to a tactile stimulus by the gas BR1. It becomes possible. Thereby, as shown in FIG. 17A, for example, the user US rotates his / her body so as to face the gas BR1 in the emission direction, and before the attack by the attacking object AT1 hits, for example, the user US attacks It becomes possible to counterattack against the body AT1. As a result, an attack by the attacking object AT1 can be avoided. For example, a situation in which an attack by the attacking body AT1 hits the barrel ship BW in the game space and the barrel ship BW is damaged can be avoided.

このように本実施形態の手法によれば、ユーザの例えば視野範囲外等において攻撃体が攻撃してきた場合にも、気体を発射する報知イベントの発生により、攻撃体による攻撃を事前に認知できるようになり、不意な突然の攻撃によりユーザが戸惑ってしまうなどの事態を防止できる。これにより、よりスムーズで適切なゲーム進行等を実現できるようになる。   As described above, according to the method of the present embodiment, even when an attacking object is attacked, for example, outside the visual field range of the user, the attack by the attacking object can be recognized in advance by the occurrence of a notification event that emits gas. Therefore, it is possible to prevent the user from being confused by a sudden sudden attack. Thereby, smoother and more appropriate game progress can be realized.

なお本実施形態では攻撃体の数と発射装置の数は一致する必要はない。例えば図15(A)、図15(B)では、攻撃体の数よりも発射装置の数の方が少なくなっている。そして例えば図17(B)に示すように、発射装置LC1とLC2の間の位置に対応する場所の攻撃体AT2が攻撃してきたとする。この場合には、攻撃体AT2の攻撃を事前に報知する報知イベントEVIとして、発射装置LC1、LC2に気体BR1、BR2を発射させればよい。このように発射装置LC1、LC2が気体BR1、BR2を発射することで、ユーザUSは、発射装置LC1、LC2の間の位置の場所から攻撃体AT2が攻撃してくるのを触覚刺激により認識することが可能になり、攻撃体AT2に対する反撃を適切に行えるようになる。   In the present embodiment, the number of attacking bodies and the number of launching devices do not need to match. For example, in FIGS. 15A and 15B, the number of launching devices is smaller than the number of attacking bodies. Then, for example, as shown in FIG. 17B, it is assumed that the attacking body AT2 at a location corresponding to the position between the launchers LC1 and LC2 has attacked. In this case, gas BR1 and BR2 may be fired by the launching devices LC1 and LC2 as a notification event EVI for notifying the attack of the attacking object AT2 in advance. In this way, when the launchers LC1 and LC2 launch the gases BR1 and BR2, the user US recognizes the attacking object AT2 from the location between the launchers LC1 and LC2 by tactile stimulation. It becomes possible to counterattack against the attacker AT2.

また本実施形態では、攻撃イベントにおいてユーザに対して攻撃を行う攻撃体の移動の際に、報知イベントが発生する。例えば図16(A)、図16(B)では、攻撃体AT1はユーザUSに対して攻撃を行うためにユーザUSの方に移動している。例えば攻撃体AT1は、発射装置LC1に対応するゲーム空間の場所から移動を開始し、ユーザUSのライド部62に方に向かって移動している。例えばゲーム空間においては、攻撃体AT1の出現場所であるゲートから、ユーザUSに対応するキャラクタCHが乗る樽船BWの方に向かって移動する。そして本実施形態では、このようにユーザUSに対して攻撃を行う攻撃体AT1の移動の際に、図16(A)に示すように報知イベントEVIが発生して、触覚刺激を与える物質である気体BR1がユーザUSに向かって発射され、攻撃イベントがこれから発生することをユーザUSに伝える。例えば攻撃体AT1が開始したタイミングや、移動開始後、所与の期間が経過したタイミングで、報知イベントEVIが発生して、気体BR1がユーザUSに向かって発射される。このようにすれば、攻撃体がユーザに向かって移動して攻撃してくるようなゲームにおいて、その攻撃前に、気体等の物質の発射による触覚刺激により、その攻撃をユーザに予測させることが可能になる。従って、例えば攻撃体がユーザに接近して次々に攻撃してくるようなゲームに適切な報知処理の実現が可能になる。   In the present embodiment, a notification event is generated when an attacker that attacks the user in the attack event moves. For example, in FIG. 16 (A) and FIG. 16 (B), the attacker AT1 moves toward the user US in order to attack the user US. For example, the attacking object AT1 starts moving from the place of the game space corresponding to the launching device LC1, and moves toward the ride unit 62 of the user US. For example, in the game space, the game moves from the gate where the attacking object AT1 appears toward the barrel ship BW on which the character CH corresponding to the user US rides. In the present embodiment, when the attacker AT1 that attacks the user US moves as described above, the notification event EVI is generated as shown in FIG. The gas BR1 is fired toward the user US and informs the user US that an attack event will occur. For example, the notification event EVI is generated at the timing when the attacking body AT1 starts or when a given period has elapsed after the start of movement, and the gas BR1 is emitted toward the user US. In this way, in a game in which the attacking body moves toward the user and attacks, the attack can be predicted by the user by tactile stimulation by the emission of a substance such as gas before the attack. It becomes possible. Therefore, for example, it is possible to realize notification processing suitable for a game in which an attacking body approaches the user and attacks one after another.

また本実施形態ではユーザの視野範囲外において、報知イベントが発生した場合に、複数の発射装置にうち視野範囲外に設けられた発射装置に気体等の物質を発射させる。例えば図16(A)では、発射装置LC1はユーザUSの視野範囲外に位置している。そしてユーザUSの視野範囲外において報知イベントEVIが発生すると、視野範囲外に設けられた発射装置LC1に気体BR1を発射させて、攻撃体AT1による攻撃が発生することをユーザUSに報知している。このようにすれば、ユーザの視野範囲外からの攻撃体が攻撃してくるようなゲーム展開も許容できるようになり、これまでにないゲームの実現が可能になる。例えば多人数格闘ゲーム等のユーザの周囲に多数の敵が存在するようなゲームでは、ユーザの視野範囲外の敵からの攻撃を許容してしまうと、ユーザが不意に攻撃を受けてしまい、ゲームとして成り立たなくなる可能性がある。この点、本実施形態の手法によれば、視野範囲外の敵からの攻撃を許容しても、その敵の攻撃を、気体等の物質の発射による触覚刺激により事前に報知できる。従って、ユーザの周囲に多数の敵が存在するようなゲームにおいて、視野範囲外からの敵の攻撃を許容できるようになり、これまでにないゲームの実現が可能になる。   Further, in the present embodiment, when a notification event occurs outside the user's visual field range, a substance such as a gas is fired by a launching device provided outside the visual field range among the multiple launching devices. For example, in FIG. 16A, the launcher LC1 is located outside the visual field range of the user US. Then, when a notification event EVI occurs outside the visual field range of the user US, the gas BR1 is fired by the launching device LC1 provided outside the visual field range to notify the user US that an attack by the attacking object AT1 occurs. . In this way, it is possible to allow a game development in which an attacking body attacks from outside the visual field range of the user, and an unprecedented game can be realized. For example, in a game where there are many enemies around the user, such as a multiplayer fighting game, if an attack from an enemy outside the user's field of view is allowed, the user will be attacked unexpectedly, May not hold true. In this regard, according to the method of the present embodiment, even if an attack from an enemy outside the visual field range is allowed, the attack of the enemy can be notified in advance by a tactile stimulus by the emission of a substance such as a gas. Accordingly, in a game where there are many enemies around the user, it becomes possible to allow an enemy attack from outside the field of view, and an unprecedented game can be realized.

なお本実施形態では、ゲームの処理の結果に基づいて、ユーザが視界を覆うように装着するHMD200の表示画像を生成する表示処理を行う。このようにHMD200をユーザに装着させることで、ユーザの視界の全周囲に亘って広がるVR空間を実現できる。これにより、VR空間で実現される世界にあたかも実際に存在するかのような仮想体験が可能になり、ユーザの仮想現実感を大幅に向上できる。そして、このような広大なVR空間が実現されるゲームでは、ユーザの視野範囲内のみならず視野範囲外からも敵が攻撃してくるような状況を発生させることで、ユーザの仮想現実感の更なる向上を図れる。しかしながら、何らユーザに攻撃の報知を行うことなく、視野範囲外の敵が攻撃してくると、ユーザが不意を突かれたり、戸惑ってしまうなどの事態が発生してしまう。この点、本実施形態では、報知イベントにおいて気体等の物質をユーザに発射し、触覚刺激を利用して、敵の攻撃をユーザに対して事前に報知する手法を採用している。これにより、広大なVR空間でのゲームを実現することで、ユーザの仮想現実感を高めながら、視野範囲外の敵からの攻撃によりユーザが不意を突かれたり、戸惑ってしまうなどの問題についても解決できるようになり、これまでにない仮想体験のゲームを実現できるようになる。   In the present embodiment, display processing for generating a display image of the HMD 200 worn by the user so as to cover the field of view is performed based on the result of the game processing. Thus, by mounting the HMD 200 on the user, it is possible to realize a VR space that extends all around the user's field of view. Thereby, a virtual experience as if it actually exists in the world realized in the VR space becomes possible, and the virtual reality of the user can be greatly improved. In a game where such a vast VR space is realized, a situation in which the enemy attacks not only within the user's field of view but also from outside the field of view can cause the virtual reality of the user. Further improvement can be achieved. However, if an enemy outside the field of view attacks without informing the user of any attack, the user will be surprised or confused. In this regard, in the present embodiment, a method is employed in which a substance such as a gas is emitted to the user in a notification event, and an enemy attack is notified to the user in advance using a tactile stimulus. As a result, by realizing a game in a vast VR space, the user is surprised or confused by attacks from enemies outside the field of view while enhancing the virtual reality of the user. It will be possible to solve this, and it will be possible to realize a virtual experience game that has never existed before.

4.3 揺動機構
本実施形態のシミュレーションシステムは、ユーザUSのプレイエリアARを揺動させる揺動機構66を有する。例えば図18では、ユーザUSの後方側から攻撃体ATが攻撃している。このような攻撃体ATの攻撃イベントEVAが発生した場合に、揺動機構66によりライド部62を揺動させることで、プレイエリアARを揺動させる。例えば図18では、後方側から攻撃体ATが攻撃してきたため、ユーザUSの前方側に比べて後方側を高くするような揺動制御を行う。これによりユーザUSは、攻撃体ATにより後方側から攻撃を受けたことを、揺動機構66により自身の足元が揺れることでリアルに体感できるようになる。例えばゲーム空間の樽船BWが、攻撃体ATに小突かれることで揺れたかのような感覚をユーザUSに与えることができ、仮想現実感の向上を図れる。
4.3 Swing Mechanism The simulation system of the present embodiment includes a swing mechanism 66 that swings the play area AR of the user US. For example, in FIG. 18, the attacker AT is attacking from the rear side of the user US. When such an attack event EVA of the attacker AT occurs, the play area AR is rocked by rocking the ride unit 62 by the rocking mechanism 66. For example, in FIG. 18, since the attacking AT has attacked from the rear side, the swing control is performed such that the rear side is higher than the front side of the user US. As a result, the user US can experience realistically that his / her foot is shaken by the swing mechanism 66 that the attack has been received from the rear side by the attacking body AT. For example, it is possible to give the user US a feeling as if the barrel ship BW in the game space is shaken by being struck by the attacking body AT, thereby improving the virtual reality.

また揺動機構66は少なくとも少なくとも1つのエアバネ部を含み、エアバネ部によりプレイエリアARを揺動させる。例えば図18では、揺動機構66は、ライド部62とベース部61の間に設けられたエアバネ部63、64、65を有する。そして図18のように後方側から攻撃体ATが攻撃してきた場合には、前方側のエアバネ部63を縮めると共に後方側のエアバネ部64、65を伸ばす制御を行う。こうすることでプレイエリアARであるライド部62を、例えばX軸回りにピッチさせる揺動制御が可能になり、あたかも後方側から攻撃体ATにより小突かれたかのような体感を、ユーザUSに対して与えることが可能になる。   The swing mechanism 66 includes at least one air spring portion, and swings the play area AR by the air spring portion. For example, in FIG. 18, the swing mechanism 66 has air spring portions 63, 64, 65 provided between the ride portion 62 and the base portion 61. Then, when the attacking body AT attacks from the rear side as shown in FIG. 18, the front side air spring portion 63 is contracted and the rear side air spring portions 64 and 65 are extended. In this way, it is possible to control the swinging of the ride unit 62, which is the play area AR, for example, about the X axis, and the user US feels as if it has been struck by the attacking AT from the rear side. Can be given.

また本実施形態では揺動機構66は、報知イベントの発生後、攻撃イベントが発生した場合に、プレイエリアARを揺動させる。例えば図16(A)に示すように気体の発射による報知イベントEVIの発生後、図18に示すように攻撃イベントEVAが発生した場合に、揺動機構66によりプレイエリアARを揺動させる。このようにすれば、報知イベントの発生については、気体等の物質の発射による触覚刺激によりユーザUSに知らせる一方で、攻撃の発生については、揺動機構66の揺動によりユーザUSに体感させることが可能になり、VR空間のゲーム等に好適な体感機構を実現できる。なお攻撃の報知イベントの発生後、例えばユーザUSの反撃等により攻撃体ATが退治されたり、退却した場合には、攻撃イベントは発生せず、揺動機構66によるプレイエリアARの揺動は行われないようになる。   In the present embodiment, the swing mechanism 66 swings the play area AR when an attack event occurs after the occurrence of the notification event. For example, as shown in FIG. 16A, after the occurrence of the notification event EVI due to the emission of gas, the play area AR is rocked by the rocking mechanism 66 when the attack event EVA occurs as shown in FIG. In this way, the occurrence of the notification event is notified to the user US by a tactile stimulus by the emission of a substance such as gas, while the occurrence of the attack is caused to be experienced by the user US by the swinging of the swinging mechanism 66. Can be realized, and a bodily sensation mechanism suitable for a VR space game or the like can be realized. Note that after the attack notification event occurs, for example, when the attacking object AT is extinguished or retreats due to a counterattack or the like of the user US, no attack event occurs, and the swinging mechanism 66 swings the play area AR. It will not be broken.

また本実施形態では、攻撃イベントが、ユーザの視野範囲内で発生した場合と、視野範囲外で発生した場合とで、異なる揺動量でプレイエリアを揺動させてもよい。例えば図19(A)、図19(B)において、FVはユーザUSの視野範囲の一例を表している。そして図19(A)では、ユーザUSの視野範囲FV内において、攻撃体ATがユーザUSに対して攻撃を加える攻撃イベントが発生している。この場合には、例えばプレイエリアARの揺動量を大きくする。例えば攻撃体ATがユーザUSの前方側から攻撃しているため、前方側のエアバネ部63の伸び量を大きくし、プレイエリアARの前方側が高く上昇するように、揺動機構66がプレイエリアAR(ライド部62)を揺動させる。一方、図19(B)では、ユーザUSの視野範囲FV外において、攻撃体ATがユーザUSに対して攻撃を加える攻撃イベントが発生している。この場合には、例えばプレイエリアARの揺動量を小さくする。例えば攻撃体ATがユーザUSの右後ろ方向側から攻撃しているため、左後ろ方向側のエアバネ部64を伸ばす制御を行うが、その伸び量を小さくし、プレイエリアARの右後ろ方向側が低く上昇するように、揺動機構66がプレイエリアARを揺動させる。   Further, in the present embodiment, the play area may be rocked by different rocking amounts depending on whether the attack event occurs within the user's visual field range or when it occurs outside the visual field range. For example, in FIGS. 19A and 19B, FV represents an example of the visual field range of the user US. In FIG. 19A, an attack event in which the attacking body AT attacks the user US occurs within the visual field range FV of the user US. In this case, for example, the swing amount of the play area AR is increased. For example, since the attacking body AT is attacking from the front side of the user US, the swinging mechanism 66 is moved to the play area AR so that the extension amount of the air spring portion 63 on the front side is increased and the front side of the play area AR rises high. (Ride part 62) is swung. On the other hand, in FIG. 19B, an attack event in which the attacking body AT attacks the user US is generated outside the visual field range FV of the user US. In this case, for example, the swing amount of the play area AR is reduced. For example, since the attacker AT is attacking from the right rear direction side of the user US, control is performed to extend the air spring portion 64 on the left rear direction side, but the extension amount is reduced and the right rear direction side of the play area AR is low. The swing mechanism 66 swings the play area AR so as to rise.

例えば図19(A)に示すように視野範囲FV内で攻撃イベントが発生した場合に揺動量を大きくすることで、大きな揺動の体感をユーザUSに与えることができ、攻撃体ATの攻撃をユーザにリアルに体感させることが可能になる。一方、図19(B)に示すように視野範囲FV外で攻撃イベントが発生した場合に、揺動量が大きすぎると、不意の揺動によりユーザが戸惑ってしまうなどの事態が生じてしまうが、揺動量を小さくすることで、このような事態の発生を防止できる。このように図19(A)、図19(B)の手法によれば、攻撃イベントがユーザUSの視野範囲FV内で発生したか、視野範囲FV外で発生したかに応じて、揺動機構66の揺動がユーザUSに与える体感の程度を異ならせることが可能になり、多様で適切な体感制御を実現できる。   For example, as shown in FIG. 19A, when the attack event occurs within the visual field range FV, by increasing the swing amount, it is possible to give the user US a sense of large swing, and the attack of the attacking body AT can be prevented. It becomes possible for the user to experience it realistically. On the other hand, as shown in FIG. 19B, when an attack event occurs outside the visual field range FV, if the swinging amount is too large, the user may be confused by unexpected swinging. Such a situation can be prevented by reducing the swing amount. As described above, according to the method shown in FIGS. 19A and 19B, the swing mechanism depends on whether the attack event has occurred within the visual field range FV or outside the visual field range FV of the user US. It is possible to vary the degree of bodily sensation given to the user US by the swing of 66, and various and appropriate bodily sensation controls can be realized.

4.4 プレイエリア制限機構
本実施形態では、ユーザのプレイエリアを制限するプレイエリア制限機構76を設けている。即ち、ユーザの周囲において報知イベントが発生した場合に、報知イベントに対応する発射装置に、触覚刺激を与える物質を発射させる制御を行うと共に、ユーザが回転自在に移動可能なプレイエリアを、プレイエリア制限機構76により所与の範囲に制限している。
4.4 Play Area Restriction Mechanism In this embodiment, a play area restriction mechanism 76 that restricts the play area of the user is provided. In other words, when a notification event occurs around the user, the launch area corresponding to the notification event is controlled to fire a substance that gives a tactile stimulus, and the play area that the user can move freely is a play area. The restriction mechanism 76 restricts to a given range.

例えば図20(A)、図20(B)は本実施形態のプレイエリア制限機構76の一例を説明する図である。このプレイエリア制限機構76は、ユーザUSの周囲を囲むように設けられる制限部材70を含む。またプレイエリア制限機構76は、ユーザUSに取り付けられ、ユーザUSの回転移動に伴い制限部材70上で回転移動する移動部72を含む。   For example, FIGS. 20A and 20B are diagrams illustrating an example of the play area restriction mechanism 76 of the present embodiment. The play area limiting mechanism 76 includes a limiting member 70 provided so as to surround the user US. The play area restriction mechanism 76 includes a moving unit 72 that is attached to the user US and rotates on the restriction member 70 as the user US rotates.

例えば制限部材70は、その中央部に穴部71を有し、ユーザUSは制限部材70の穴部71に入ってゲームをプレイする。このように穴部71を設けることで、ゲームプレイ時のユーザUSの周囲を囲むように制限部材70が設けられることになる。そしてユーザUSのプレイエリアARは、制限部材70の穴部71の範囲RGに制限される。   For example, the limiting member 70 has a hole 71 at the center thereof, and the user US enters the hole 71 of the limiting member 70 and plays a game. By providing the hole 71 in this way, the limiting member 70 is provided so as to surround the user US at the time of game play. The play area AR of the user US is limited to the range RG of the hole 71 of the limiting member 70.

そしてユーザUSは、この制限部材70により制限される範囲RG内において、図20(A)、図20(B)に示すように回転自在に回転移動することになる。具体的には、ユーザUSには、その背面に設けられた取付部材74により移動部72が取り付けられている。例えば図5に示すようにユーザUSが装着している腰ベルト80の背面側に板状の取付部材74が設けられ、この取付部材74に対して移動部72が取り付けられている。移動部72には、ユーザUSの右側、左側の位置にローラー部73-1、73-2が設けられている。そしてユーザUSが、制限部材70により並進移動が制限される範囲RG内において回転すると、移動部72のローラー部73-1、73-2が、制限部材70の穴部71の周縁部において回転しながら移動する。これにより、移動部72は、ユーザUSの回転移動に伴い制限部材70上で回転移動するようになる。   Then, the user US rotates and moves freely within a range RG limited by the limiting member 70 as shown in FIGS. 20 (A) and 20 (B). Specifically, the moving part 72 is attached to the user US by an attachment member 74 provided on the back surface thereof. For example, as shown in FIG. 5, a plate-like attachment member 74 is provided on the back side of the waist belt 80 worn by the user US, and the moving portion 72 is attached to the attachment member 74. The moving unit 72 is provided with roller units 73-1 and 73-2 at positions on the right side and the left side of the user US. When the user US rotates within the range RG in which the translation movement is restricted by the restriction member 70, the roller parts 73-1 and 72-2 of the movement part 72 are rotated at the peripheral edge of the hole 71 of the restriction member 70. Move while. Thereby, the moving part 72 comes to rotate on the limiting member 70 with the rotation movement of the user US.

このようにすることで、ユーザUSが並進移動可能なプレイエリアARの範囲を、所与の範囲RGに制限しながら、ユーザUSは、この範囲RGにおいて回転自在に回転移動できるようになる。従って、例えば図16(A)、図16(B)に示すように、視野範囲外から攻撃体AT1が攻撃してきた場合にも、ユーザUSは、制限された範囲RG内において回転移動して、攻撃体AT1の方を向いて、反撃を加えることが可能になる。   By doing so, the user US can rotate and move freely in the range RG while limiting the range of the play area AR in which the user US can move in translation to the given range RG. Therefore, for example, as shown in FIGS. 16A and 16B, even when the attacking object AT1 attacks from outside the field of view, the user US rotates and moves within the limited range RG, It is possible to counterattack by facing the attacker AT1.

特に本実施形態では、図16(A)に示すように、視野範囲外から攻撃体AT1が攻撃しようとしてきた場合に、気体BR1を発射する報知イベントEVIにより、攻撃体AT1の攻撃をユーザUSに事前に報知している。このため、ユーザUSは、気体BR1が体に当たることによる触覚刺激により、攻撃体AT1が攻撃してくることを事前に知ることができる。従って、図20(A)、図20(B)に示すように、範囲RG内において回転移動して、攻撃体AT1の方を向き、図17(A)に示すように攻撃体AT1に対して反撃を加えることが可能になる。従って、ユーザUSの周囲から複数の攻撃体が攻撃してくるようなゲームにおいて最適な報知システムを実現できる。またプレイエリア制限機構76により、ユーザUSが移動可能な範囲が範囲RGに制限される。従って、ユーザUSが不用意に動いてしまって、シミュレーションシステムの運営等に支障が生じてしまう事態も防止できる。例えばユーザUSが把持物40を振って敵を倒すようなゲームでは、ユーザUSが移動可能な範囲を制限しないと、把持物40が周囲の物体に当たったり、ユーザUS自身が興奮して他の物体に当たったりするような事態が生じるおそれがある。この点、本実施形態では、ユーザUSが移動可能な範囲を範囲RGに制限しているため、このような事態の発生も防止することができる。   In particular, in the present embodiment, as shown in FIG. 16A, when the attacker AT1 tries to attack from outside the field of view, the attack of the attacker AT1 is made to the user US by the notification event EVI that emits the gas BR1. Informs in advance. For this reason, the user US can know in advance that the attacking body AT1 attacks by the tactile stimulation caused by the gas BR1 hitting the body. Accordingly, as shown in FIGS. 20 (A) and 20 (B), it rotates within the range RG and faces the attacking object AT1, and with respect to the attacking object AT1 as shown in FIG. 17 (A). It becomes possible to add a counterattack. Therefore, an optimal notification system can be realized in a game in which a plurality of attackers attack from around the user US. Further, the play area restriction mechanism 76 restricts the range in which the user US can move to the range RG. Therefore, it is possible to prevent a situation in which the user US moves carelessly and troubles the operation of the simulation system. For example, in a game in which the user US shakes the gripping object 40 and defeats the enemy, if the range in which the user US can move is not limited, the gripping object 40 hits a surrounding object or the user US himself gets excited There is a possibility that a situation such as hitting an object may occur. In this regard, in the present embodiment, since the range in which the user US can move is limited to the range RG, occurrence of such a situation can also be prevented.

4.5 詳細な処理
次に本実施形態の処理例について図21、図22のフローチャートを用いて説明する。図21では、まず、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する(ステップS1)。例えば、このユーザ情報は、図2(A)〜図3(B)で説明したようなトラッキング処理や、或いはモーショントラッキング処理などにより取得することができる。そしてユーザがプレイするゲームの処理を実行する(ステップS2)。例えばゲームを進行したり、各種のゲームパラメータを演算する処理を実行する。そしてステップS1で取得されたユーザ情報及びゲーム状況情報の少なくとも1つに基づいて、発射装置LC1〜LCNを制御する(ステップS3)。
4.5 Detailed Processing Next, a processing example of this embodiment will be described with reference to the flowcharts of FIGS. In FIG. 21, first, user information including at least one of user position information, direction information, and posture information is acquired (step S1). For example, this user information can be acquired by tracking processing as described with reference to FIGS. 2A to 3B or motion tracking processing. And the process of the game which a user plays is performed (step S2). For example, the game is advanced, or various game parameters are calculated. Based on at least one of the user information and game situation information acquired in step S1, the launchers LC1 to LCN are controlled (step S3).

このように本実施形態では、仮想空間の設定処理を行い、この仮想空間でのゲームの処理を行うと共に、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報と、ゲーム状況情報を取得する。例えば図21のステップS1でユーザ情報を取得し、ステップS2のゲーム処理の実行によりゲーム状況情報を取得する。そしてユーザ情報及びゲーム状況情報の少なくとも1つに基づいて、発射装置LC1〜LCNを制御する。例えばユーザの位置、方向又は姿勢などを反映させた発射装置LC1〜LCNの制御を行う。或いは、報知イベントや攻撃イベントなどのゲーム状況の情報に基づいて、発射装置LC1〜LCNの制御を行う。このようにすることで、ユーザの位置、方向又は姿勢やゲーム状況に応じて、発射装置LC1〜LCNに気体等の物質を発射させて、ユーザに触覚刺激を与え、攻撃の発生をユーザに事前に報知するなどの処理を実現できるようになる。   As described above, in this embodiment, the virtual space setting process is performed, the game process is performed in the virtual space, the user information including at least one of the user position information, the direction information, and the posture information, and the game situation Get information. For example, user information is acquired in step S1 of FIG. 21, and game situation information is acquired by execution of the game process of step S2. Based on at least one of the user information and the game situation information, the launchers LC1 to LCN are controlled. For example, the launchers LC1 to LCN reflecting the user's position, direction, or posture are controlled. Alternatively, the launchers LC1 to LCN are controlled based on game situation information such as a notification event or an attack event. By doing in this way, according to a user's position, direction or posture, and a game situation, substances, such as gas, are fired to launching device LC1-LCN, a tactile stimulus is given to a user, and an occurrence of an attack is beforehand given to a user. It is possible to implement processing such as informing the user.

図22は本実施形態の更に詳細な処理例を示すフローチャートである。例えば図22では、攻撃イベントが発生することを事前に報知する報知イベントが発生したか否かを判断する(ステップS11)。そして報知イベントが発生した場合には、発射装置LC1〜LCNのうち報知イベントの発生場所に対応する発射装置に気体を発射させる(ステップS12)。例えば図16(A)では、攻撃体AT1による攻撃の報知イベントEVIが発生したと判断し、報知イベントEVIの発生場所に対応する発射装置LC1に気体BR1を発射させている。これにより攻撃体AT1の攻撃イベントが発生することを、ユーザに報知できる。   FIG. 22 is a flowchart showing a more detailed processing example of this embodiment. For example, in FIG. 22, it is determined whether or not a notification event that notifies in advance that an attack event occurs has occurred (step S <b> 11). And when a notification event occurs, gas is emitted to the emission device corresponding to the generation location of the notification event among the emission devices LC1 to LCN (step S12). For example, in FIG. 16A, it is determined that an attack notification event EVI by the attacking object AT1 has occurred, and the gas BR1 is fired to the launching device LC1 corresponding to the location where the notification event EVI has occurred. Thereby, it can be notified to the user that an attack event of the attacking object AT1 occurs.

次に攻撃イベントが発生したか否かを判断する(ステップS13)。そして攻撃イベントが発生した場合には、揺動機構66によりプレイエリアを揺動させる(ステップS14)。例えば図18では攻撃体ATによる攻撃イベントEVAが発生している。この場合には、例えば揺動機構66のエアバネ部64、65を伸ばすなどの制御を行うことで、プレイエリアARを揺動させる。このようにすることで、攻撃体ATにより攻撃されたことを、プレイエリアARの揺動によりユーザに体感させることが可能になり、ユーザの仮想現実感を向上させることが可能になる。   Next, it is determined whether or not an attack event has occurred (step S13). When an attack event occurs, the play area is rocked by the rocking mechanism 66 (step S14). For example, in FIG. 18, an attack event EVA is generated by the attacker AT. In this case, the play area AR is swung by performing control such as extending the air spring portions 64 and 65 of the swing mechanism 66, for example. By doing in this way, it becomes possible to let a user feel that it was attacked by the attacking body AT by swinging the play area AR, and it is possible to improve the virtual reality of the user.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(伸縮部・アクチュエータ、筐体等)と共に記載された用語(ワイヤー、エアバネ部、可動筐体等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またシミュレーションシステムの構成、発射装置の構成、揺動機構の構成、プレイエリア制限機構の構成、制御部の制御処理、仮想空間の設定処理、ゲーム処理、ユーザ情報やゲーム状況情報の取得処理、画像の表示処理、報知処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、又は多数のユーザが参加する大型アトラクションシステム等の種々のシミュレーションシステムに適用できる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, in the specification or drawings, terms (wires, air springs, movable housings, etc.) that are described at least once together with different terms (extended parts / actuators, housings, etc.) in a broader sense or the same meaning are used in the specification or drawings. Can be replaced by the different terms at any point. Also, the configuration of the simulation system, the configuration of the launching device, the configuration of the swing mechanism, the configuration of the play area restriction mechanism, the control process of the control unit, the virtual space setting process, the game process, the acquisition process of user information and game situation information, the image The display processing, notification processing, and the like are not limited to those described in the present embodiment, and techniques, processing, and configurations equivalent to these are also included in the scope of the present invention. The present invention can be applied to various games. Further, the present invention can be applied to various simulation systems such as a business game device, a home game device, or a large attraction system in which a large number of users participate.

US、US1 ユーザ、LC1〜LCN 発射装置、AR プレイエリア、
RG 範囲、AT、AT1〜AT11 攻撃体、BR1、BR2 気体、
EVI 報知イベント、EVA 攻撃イベント、FV 視野範囲、
HM、HM1、HM2 ハンマー、CH、CH1、CH2 キャラクタ、
CR1〜CR7、CRBS ワニ、G1〜G6 ゲート、
CP 接続部、FP 固定点、BW、BW1、BW2 樽船、
2 骨組み部、4 板状部材、10 反力発生装置、
40 把持物、42 取っ手部、44 トラッキング装置、46 取付具、
50 ワイヤー、60 可動筐体、61 ベース部、62 ライド部、
63、64、65 エアバネ部、66 揺動機構、67、68、69 支持部、
70 制限部材、71 穴部、72 移動部、73、73-1、73-2 ローラー部、
74 取付部材、76 プレイエリア制限機構、80 腰ベルト、
100 処理部、102 入力処理部、110 演算処理部、111 情報取得部、
112 仮想空間設定部、113 移動体処理部、114 仮想カメラ制御部、
115 ゲーム処理部、117 制御部、120 表示処理部、
130 音処理部、140 出力処理部、150 撮像部、151、152 カメラ、
160 操作部、170 記憶部、172 オブジェクト情報記憶部、
178 描画バッファ、180 情報記憶媒体、192 音出力部、194 I/F部、
195 携帯型情報記憶媒体、196 通信部、
200 HMD(頭部装着型表示装置)、201〜203 受光素子、210 センサ部、
220 表示部、231〜236 発光素子、240 処理部、
280、284 ベースステーション、281、282、285、286 発光素子
US, US1 user, LC1-LCN launcher, AR play area,
RG range, AT, AT1-AT11 Attack, BR1, BR2 gas,
EVI notification event, EVA attack event, FV field of view,
HM, HM1, HM2 hammer, CH, CH1, CH2 characters,
CR1-CR7, CRBS crocodile, G1-G6 gate,
CP connection, FP fixed point, BW, BW1, BW2 barrel ship,
2 skeleton parts, 4 plate members, 10 reaction force generators,
40 gripping object, 42 handle part, 44 tracking device, 46 fitting,
50 wires, 60 movable housing, 61 base part, 62 ride part,
63, 64, 65 Air spring part, 66 Oscillating mechanism, 67, 68, 69 Support part,
70 restricting member, 71 hole portion, 72 moving portion, 73, 73-1, 72-2 roller portion,
74 mounting member, 76 play area limiting mechanism, 80 waist belt,
100 processing units, 102 input processing units, 110 arithmetic processing units, 111 information acquisition units,
112 virtual space setting unit, 113 moving body processing unit, 114 virtual camera control unit,
115 game processing unit, 117 control unit, 120 display processing unit,
130 sound processing unit, 140 output processing unit, 150 imaging unit, 151, 152 camera,
160 operation unit, 170 storage unit, 172 object information storage unit,
178 Drawing buffer, 180 information storage medium, 192 sound output unit, 194 I / F unit,
195 portable information storage medium, 196 communication unit,
200 HMD (head-mounted display device), 201 to 203 light receiving element, 210 sensor unit,
220 display unit, 231 to 236 light emitting element, 240 processing unit,
280, 284 Base station, 281, 282, 285, 286 Light emitting element

Claims (15)

ユーザのプレイエリアの周囲に設けられ、前記ユーザに対して触覚刺激を与える物質を発射する複数の発射装置と、
前記ユーザがプレイするゲームの状況に応じて、前記複数の発射装置の前記物質の発射を制御する制御部と、
を含み、
前記制御部は、
前記ユーザに対して攻撃イベントが発生することを事前に報知する報知イベントにおいて、前記複数の発射装置のうち前記報知イベントに対応する発射装置に、触覚刺激を与える前記物質を発射させる制御を行うことを特徴とするシミュレーションシステム。
A plurality of launch devices that are disposed around a user's play area and that fire a substance that provides tactile stimulation to the user;
In accordance with the situation of the game played by the user, a control unit for controlling the launch of the substance of the plurality of launch devices,
Including
The controller is
In a notification event for informing in advance that an attack event will occur to the user, control is performed to cause the launching device corresponding to the notification event among the plurality of launching devices to fire the substance that provides tactile stimulation. A simulation system characterized by
請求項1において、
仮想空間の設定処理を行う仮想空間設定部と、
前記仮想空間での前記ゲームの処理を行うゲーム処理部と、
前記ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報と、ゲーム状況情報を取得する情報取得部と、
を含み、
前記制御部は、
前記ユーザ情報及び前記ゲーム状況情報の少なくとも1つに基づいて、前記発射装置を制御することを特徴とするシミュレーションシステム。
In claim 1,
A virtual space setting unit for performing virtual space setting processing;
A game processing unit for processing the game in the virtual space;
User information including at least one of the user position information, direction information and posture information; and an information acquisition unit for acquiring game situation information;
Including
The controller is
The simulation system characterized in that the launching device is controlled based on at least one of the user information and the game situation information.
請求項1又は2において、
前記ユーザの視覚及び聴覚の少なくとも一方が閉塞状態になっていることを特徴とするシミュレーションシステム。
In claim 1 or 2,
A simulation system, wherein at least one of the user's visual sense and auditory sense is closed.
請求項1乃至3のいずれかにおいて、
前記ゲームの処理の結果に基づいて、前記ユーザが視界を覆うように装着する頭部装着型表示装置の表示画像を生成する表示処理部を含むことを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 3,
The simulation system characterized by including the display process part which produces | generates the display image of the head mounted display apparatus with which the said user wears so that a visual field may be covered based on the result of the process of the said game.
請求項1乃至4のいずれかにおいて、
前記ユーザの前記プレイエリアを揺動させる揺動機構を含むことを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 4,
A simulation system comprising a rocking mechanism for rocking the play area of the user.
請求項5において、
前記揺動機構は、
少なくとも1つのエアバネ部を含み、前記エアバネ部により前記プレイエリアを揺動させることを特徴とするシミュレーションシステム。
In claim 5,
The swing mechanism is
A simulation system comprising at least one air spring portion, wherein the play area is swung by the air spring portion.
請求項5又は6において、
前記揺動機構は、
前記報知イベントの発生後、前記攻撃イベントが発生した場合に、前記プレイエリアを揺動させることを特徴とするシミュレーションシステム。
In claim 5 or 6,
The swing mechanism is
A simulation system characterized by swinging the play area when the attack event occurs after the notification event occurs.
請求項5乃至7のいずれかにおいて、
前記揺動機構は、前記攻撃イベントが、前記ユーザの視野範囲内で発生した場合と、視野範囲外で発生した場合とで、異なる揺動量で前記プレイエリアを揺動させることを特徴とするシミュレーションシステム。
In any of claims 5 to 7,
The simulation is characterized in that the rocking mechanism rocks the play area with a different rocking amount when the attack event occurs within the visual field range of the user and when the attack event occurs outside the visual field range. system.
請求項1乃至8のいずれかにおいて、
前記報知イベントは、前記攻撃イベントにおいて前記ユーザに対して攻撃を行う攻撃体の移動の際に発生するイベントであることを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 8.
The said notification event is an event which generate | occur | produces in the case of the movement of the attack body which attacks the said user in the said attack event, The simulation system characterized by the above-mentioned.
請求項1乃至9のいずれかにおいて、
前記ユーザが回転自在に移動可能な前記プレイエリアを、所与の範囲に制限するプレイエリア制限機構を含むことを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 9,
The simulation system characterized by including the play area restriction | limiting mechanism which restrict | limits the said play area which the said user can rotate freely to a given range.
ユーザのプレイエリアの周囲に設けられ、前記ユーザに対して触覚刺激を与える物質を発射する複数の発射装置と、
前記ユーザがプレイするゲームの状況に応じて、前記複数の発射装置の前記物質の発射を制御する制御部と、
前記ユーザが回転自在に移動可能な前記プレイエリアを、所与の範囲に制限するプレイエリア制限機構と、
を含み、
前記制御部は、
前記ユーザの周囲において報知イベントが発生した場合に、前記複数の発射装置のうち前記報知イベントに対応する発射装置に、触覚刺激を与える前記物質を発射させる制御を行うことを特徴とするシミュレーションシステム。
A plurality of launch devices that are disposed around a user's play area and that fire a substance that provides tactile stimulation to the user;
In accordance with the situation of the game played by the user, a control unit for controlling the launch of the substance of the plurality of launch devices,
A play area restriction mechanism for restricting the play area that the user can freely rotate to a given range;
Including
The controller is
When a notification event occurs in the vicinity of the user, a simulation system is provided that performs control to cause the emission device corresponding to the notification event to emit the substance that provides tactile stimulation among the plurality of emission devices.
請求項10又は11において、
前記プレイエリア制限機構は、
前記ユーザの周囲を囲むように設けられる制限部材を含むことを特徴とするシミュレーションシステム。
In claim 10 or 11,
The play area restriction mechanism is
The simulation system characterized by including the limiting member provided so that the circumference | surroundings of the said user may be enclosed.
請求項12において、
前記プレイエリア制限機構は、
前記ユーザに取り付けられ、前記ユーザの回転移動に伴い前記制限部材上で回転移動する移動部を含むことを特徴とするシミュレーションシステム。
In claim 12,
The play area restriction mechanism is
The simulation system characterized by including the moving part attached to the said user and rotating on the said limitation member with the said user's rotational movement.
請求項1乃至13のいずれかにおいて、
前記制御部は、
前記ユーザの視野範囲外において、前記報知イベントが発生した場合に、前記複数の発射装置のうち前記視野範囲外に設けられた発射装置に前記物質を発射させる制御を行うことを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 13.
The controller is
A simulation system, wherein when the notification event occurs outside the user's visual field range, control is performed to cause the launching device provided outside the visual field range among the plurality of launching devices to fire the substance. .
請求項1乃至14のいずれかにおいて、
前記発射装置は、触覚刺激を与える前記物質として気体を発射することを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 14.
The simulation system, wherein the emission device emits a gas as the substance that gives tactile stimulation.
JP2018067315A 2018-03-30 2018-03-30 Simulation system Pending JP2019176934A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018067315A JP2019176934A (en) 2018-03-30 2018-03-30 Simulation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018067315A JP2019176934A (en) 2018-03-30 2018-03-30 Simulation system

Publications (1)

Publication Number Publication Date
JP2019176934A true JP2019176934A (en) 2019-10-17

Family

ID=68277129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018067315A Pending JP2019176934A (en) 2018-03-30 2018-03-30 Simulation system

Country Status (1)

Country Link
JP (1) JP2019176934A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021090433A1 (en) * 2019-11-07 2021-05-14

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021090433A1 (en) * 2019-11-07 2021-05-14
WO2021090433A1 (en) * 2019-11-07 2021-05-14 日本電信電話株式会社 Stimulus presentation device, stimulus presentation method, and stimulus presentation program
JP7335527B2 (en) 2019-11-07 2023-08-30 日本電信電話株式会社 Stimulus presentation device, stimulus presentation method, and stimulus presentation program
US11893879B2 (en) 2019-11-07 2024-02-06 Nippon Telegraph And Telephone Corporation Stimulus presentation apparatus, stimulus presentation method and program

Similar Documents

Publication Publication Date Title
US11014000B2 (en) Simulation system, processing method, and information storage medium
US20220129061A1 (en) Augmented reality video game systems
WO2018012395A1 (en) Simulation system, processing method, and information storage medium
CN109568944B (en) Game processing method, game processing device, game processing system, and recording medium
JP2019122496A (en) Simulation system and program
WO2018124280A1 (en) Simulation system, image processing method, and information storage medium
JP7041888B2 (en) Simulation system and program
WO2018230443A1 (en) Simulation system, image processing method, and information storage medium
JP2019175323A (en) Simulation system and program
JP6774260B2 (en) Simulation system
JP7071823B2 (en) Simulation system and program
JP2019152899A (en) Simulation system and program
JP2019139424A (en) Simulation system and program
JP6935218B2 (en) Simulation system and program
JP2018171320A (en) Simulation system and program
JP2019176934A (en) Simulation system
JP2018171309A (en) Simulation system and program
JP6918189B2 (en) Simulation system and program
JP2019213764A (en) Simulation system
JP6703578B2 (en) Program, method and information processing apparatus
JP7138483B2 (en) Computer program, information processing device and information processing method
JP6771006B2 (en) Programs, methods and information processing equipment
JP7121518B2 (en) Program, information processing device, and information processing method
JP6660321B2 (en) Simulation system and program
JP2024019178A (en) program