JP7071823B2 - Simulation system and program - Google Patents

Simulation system and program Download PDF

Info

Publication number
JP7071823B2
JP7071823B2 JP2017254079A JP2017254079A JP7071823B2 JP 7071823 B2 JP7071823 B2 JP 7071823B2 JP 2017254079 A JP2017254079 A JP 2017254079A JP 2017254079 A JP2017254079 A JP 2017254079A JP 7071823 B2 JP7071823 B2 JP 7071823B2
Authority
JP
Japan
Prior art keywords
hit
vibrating
vibration
user
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017254079A
Other languages
Japanese (ja)
Other versions
JP2019118493A (en
Inventor
浩司 藤田
慎也 丹羽
利也 小原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Bandai Namco Entertainment Inc filed Critical Namco Ltd
Priority to JP2017254079A priority Critical patent/JP7071823B2/en
Publication of JP2019118493A publication Critical patent/JP2019118493A/en
Application granted granted Critical
Publication of JP7071823B2 publication Critical patent/JP7071823B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、シミュレーションシステム及びプログラム等に関する。 The present invention relates to a simulation system, a program, and the like.

従来より、ユーザの触覚を利用した直感的なマンマシーンインターフェースを実現する技術が知られている。例えば特許文献1には、接触検出器や動き検出器を含むセンサ回路と、触覚テキスタイル(haptic textile)と、センサ回路からの作動信号に基づいて触覚フィードバックを生成するように構成された作動面とを有する装置が開示されている。この特許文献1の従来技術では、触覚テキスタイルにより触覚フィードバックの衣服を実現する手法が提案されている。 Conventionally, a technique for realizing an intuitive man-machine interface using the user's tactile sensation has been known. For example, Patent Document 1 describes a sensor circuit including a contact detector and a motion detector, a haptic textile, and an operating surface configured to generate tactile feedback based on an operating signal from the sensor circuit. The device having the above is disclosed. In the prior art of Patent Document 1, a method of realizing garments with tactile feedback by using tactile textiles is proposed.

特表2012-511781号公報Special Table 2012-511781A Gazette

しかしながら特許文献1では、ゲームにおいて発生する振動イベントの状況を、ユーザが装着する装着体の振動制御に反映させる手法については提案されていなかった。また振動イベントの発生時に、装着体の振動部が常に同じような振動態様で振動してしまうと、ユーザがその振動態様に慣れてしまい、ユーザの仮想現実感の向上が不十分であることが判明した。 However, Patent Document 1 has not proposed a method of reflecting the situation of a vibration event generated in a game in the vibration control of a wearer worn by a user. Further, if the vibrating part of the wearer always vibrates in the same vibration mode when a vibration event occurs, the user becomes accustomed to the vibration mode, and the improvement of the user's virtual reality is insufficient. found.

本発明の幾つかの態様によれば、振動イベントの種類や内容などを反映させた多様な振動態様での装着体の振動部の振動制御を実現できるシミュレーションシステム及びプログラム等を提供できる。 According to some aspects of the present invention, it is possible to provide a simulation system and a program capable of realizing vibration control of a vibrating portion of an attached body in various vibration modes reflecting the types and contents of vibration events.

本発明の一態様は、ユーザが身体に装着体を装着してプレイするゲームについてのゲーム処理を行うゲーム処理部と、複数の振動部が設けられる前記装着体についての制御を行う制御部と、を含み、前記制御部は、前記ゲームにおいて発生する振動イベントの種類又は内容に応じて、振動させる前記振動部の個数又は振動させる前記振動部の範囲である振動範囲を変化させる制御を行うシミュレーションシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。 One aspect of the present invention includes a game processing unit that performs game processing for a game in which a user wears a wearable body on a body and plays a game, and a control unit that controls the wearable body provided with a plurality of vibration units. The control unit is a simulation system that controls to change the number of vibration units to be vibrated or the vibration range which is the range of the vibration units to be vibrated according to the type or content of the vibration event generated in the game. Related to. The present invention also relates to a program that causes a computer to function as each of the above parts, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、ユーザが身体に装着体を装着してプレイするゲームの処理が行われ、当該装着体に設けられる複数の振動部の制御が行われる。そしてゲームにおいて振動イベントが発生すると、振動イベントの種類又は内容に応じて、振動させる振動部の個数又は振動範囲を変化させる制御が行われる。従って、振動イベントの種類や内容が異なれば、振動部の振動個数や振動範囲も変化するようになり、振動イベントの種類や内容などを反映させた多様な振動態様での装着体の振動部の振動制御を実現できるようになる。 According to one aspect of the present invention, a game in which a user wears a wearable body on a body and plays the game is processed, and a plurality of vibrating portions provided on the wearable body are controlled. When a vibration event occurs in the game, control is performed to change the number of vibrating parts or the vibration range according to the type or content of the vibration event. Therefore, if the type and content of the vibration event are different, the number of vibrations and the vibration range of the vibration part will also change, and the vibration part of the mounting body in various vibration modes reflecting the type and content of the vibration event. Vibration control can be realized.

また本発明の一態様では、前記振動イベントは、前記ユーザ又は前記ユーザに対応するユーザ移動体と被ヒット物とのヒットイベントであり、前記制御部は、前記ヒットイベントの種類又は内容に応じて、振動させる前記振動部の前記個数又は前記振動範囲を変化させる制御を行ってもよい。 Further, in one aspect of the present invention, the vibration event is a hit event between the user or a user moving body corresponding to the user and a hit object, and the control unit determines the type or content of the hit event. , The number of the vibrating parts to be vibrated or the vibration range may be changed.

このようにすれば、例えば実空間においてユーザに対して被ヒット物がヒットしたり、仮想空間においてユーザに対応するユーザ移動体に被ヒット物がヒットするヒットイベントが発生すると、発生したヒットイベントの種類又は内容に応じて、振動部の振動個数や振動範囲が変化するようになり、多様な振動態様の振動制御を実現できる。 By doing so, for example, when a hit event occurs in which the hit object hits the user in the real space or the hit object hits the user moving object corresponding to the user in the virtual space, the generated hit event is generated. Depending on the type or content, the number of vibrations and the vibration range of the vibrating part will change, and vibration control of various vibration modes can be realized.

また本発明の一態様では、前記制御部は、前記被ヒット物の種類又は攻撃内容に応じて、振動させる前記振動部の前記個数又は前記振動範囲を変化させる制御を行ってもよい。 Further, in one aspect of the present invention, the control unit may perform control to change the number of vibration units to be vibrated or the vibration range according to the type of the hit object or the content of the attack.

このようにすれば、被ヒット物がユーザ又はユーザ移動体にヒットするヒットイベントが発生すると、ヒットした被ヒット物の種類やその攻撃内容に応じて、振動部の振動個数や振動範囲が変化するようになり、被ヒット物を反映させた振動制御を実現できる。 In this way, when a hit event occurs in which the hit object hits the user or the user moving object, the number of vibrations and the vibration range of the vibrating portion change according to the type of the hit object and the attack content thereof. Therefore, vibration control that reflects the hit object can be realized.

また本発明の一態様では、前記制御部は、前記被ヒット物の種類が、高い攻撃能力を有する種類の被ヒット物であるほど、或いは前記被ヒット物の攻撃が、攻撃力の高い攻撃内容であるほど、振動させる前記振動部の前記個数を多くする、又は前記振動範囲を広くしてもよい。 Further, in one aspect of the present invention, the control unit has an attack content in which the type of the hit object is a type of hit object having a high attack capability, or the attack of the hit object has a high attack power. The larger the number, the larger the number of the vibrating portions to be vibrated, or the wider the vibration range may be.

このようにすれば、被ヒット物が、高い攻撃能力を有していたり、高い攻撃内容であると、それに応じて振動部の振動個数が多くなったり、振動範囲が広くなるため、被ヒット物の攻撃能力や攻撃内容を反映させた振動制御を実現できる。 In this way, if the hit object has a high attack capability or has a high attack content, the number of vibrations of the vibrating part will increase and the vibration range will be widened accordingly, so that the hit object will be hit. It is possible to realize vibration control that reflects the attack ability and attack content of.

また本発明の一態様では、前記制御部は、前記被ヒット物の前記ヒットタイミングにおいて、複数の前記振動部のうちの第1の振動部を振動させ、前記ヒットタイミングから所与の時間が経過した後に、前記第1の振動部の周囲の第2の振動部を振動させてもよい。 Further, in one aspect of the present invention, the control unit vibrates the first vibrating unit among the plurality of vibrating units at the hit timing of the hit object, and a given time elapses from the hit timing. After that, the second vibrating portion around the first vibrating portion may be vibrated.

このようにすれば、第1の振動部からその周囲へと振動範囲が時間経過に伴い広がったり、振動部の振動個数が時間経過に伴い増加して行くような振動制御を実現できる。 By doing so, it is possible to realize vibration control in which the vibration range expands from the first vibrating portion to its surroundings with the passage of time, and the number of vibrations of the vibrating portion increases with the passage of time.

また本発明の一態様では、前記制御部は、前記被ヒット物の前記ヒットタイミングにおいて、複数の前記振動部のうちの第1の振動部を振動させ、次に、前記第1の振動部の周囲の第2の振動部を振動させてもよい。 Further, in one aspect of the present invention, the control unit vibrates the first vibrating unit among the plurality of vibrating units at the hit timing of the hit object, and then the first vibrating unit of the first vibrating unit. The surrounding second vibrating portion may be vibrated.

このようにすれば、第1の振動部からその周囲の第2の振動部へと順次に振動して行くような振動制御を実現できる。 By doing so, it is possible to realize vibration control in which vibration is sequentially performed from the first vibrating portion to the second vibrating portion around the first vibrating portion.

また本発明の一態様では、前記制御部は、前記振動イベントが発生した際に、複数の前記振動部の中から振動させる振動部をランダムに選択してもよい。 Further, in one aspect of the present invention, the control unit may randomly select a vibration unit to vibrate from the plurality of vibration units when the vibration event occurs.

このようにすれば、振動イベントが発生すると、複数の振動部の中からランダムに選択された振動部が振動するようになる。従って、ユーザの身体が振動に慣れてしまうような事態を防止でき、多様な振動態様での振動制御を実現できるようになる。 In this way, when a vibration event occurs, the vibrating portion randomly selected from the plurality of vibrating portions vibrates. Therefore, it is possible to prevent the user's body from becoming accustomed to vibration and to realize vibration control in various vibration modes.

また本発明の一態様は、ユーザが身体に装着体を装着してプレイするゲームについてのゲーム処理を行うゲーム処理部と、複数の振動部が設けられる前記装着体についての制御を行う制御部と、を含み、前記制御部は、前記振動イベントが発生した際に、複数の前記振動部の中から振動させる振動部をランダムに選択するシミュレーションシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。 Further, one aspect of the present invention includes a game processing unit that performs game processing for a game in which a user wears a wearable body on a body and plays a game, and a control unit that controls the wearable body provided with a plurality of vibration units. , The control unit relates to a simulation system that randomly selects a vibration unit to be vibrated from a plurality of the vibration units when the vibration event occurs. The present invention also relates to a program that causes a computer to function as each of the above parts, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、ユーザが身体に装着体を装着してプレイするゲームの処理が行われ、当該装着体に設けられる複数の振動部の制御が行われる。そしてゲームにおいて振動イベントが発生すると、複数の振動部の中からランダムに選択された振動部が振動するようになる。従って、振動イベント発生時に常に同じ振動部が振動してしまいユーザの身体が振動に慣れてしまうような事態の発生を防止でき、多様な振動態様での振動制御を実現できる。 According to one aspect of the present invention, a game in which a user wears a wearable body on a body and plays the game is processed, and a plurality of vibrating portions provided on the wearable body are controlled. Then, when a vibration event occurs in the game, a vibration unit randomly selected from a plurality of vibration units vibrates. Therefore, it is possible to prevent the occurrence of a situation in which the same vibrating portion always vibrates when a vibration event occurs and the user's body becomes accustomed to the vibration, and it is possible to realize vibration control in various vibration modes.

また本発明の一態様では、前記制御部は、前記振動イベントが発生した場合に、複数の前記振動部のうちの第1の振動部を振動させ、次に前記振動イベントが発生した場合に、複数の前記振動部のうちの前記第1の振動部とは異なる第2の振動部をランダムに選択して振動させてもよい。 Further, in one aspect of the present invention, the control unit vibrates the first vibration unit among the plurality of vibration units when the vibration event occurs, and then when the vibration event occurs, the control unit vibrates. A second vibrating portion different from the first vibrating portion may be randomly selected and vibrated from the plurality of vibrating portions.

このようにすれば、振動イベントの発生により第1の振動部が振動した後、次に振動イベントが発生すると、第1の振動部とは異なる第2の振動部がランダムに選択されて振動するようになり、多様な振動態様での振動制御を実現できる。 In this way, when the first vibrating part vibrates due to the occurrence of the vibration event and then the next vibration event occurs, the second vibrating part different from the first vibrating part is randomly selected and vibrates. Therefore, vibration control in various vibration modes can be realized.

また本発明の一態様では、前記振動イベントは、前記ユーザ又は前記ユーザに対応するユーザ移動体と被ヒット物とのヒットイベントであり、前記ゲーム処理部は、前記ユーザ又は前記ユーザ移動体と前記被ヒット物とのヒット演算処理を行って、ヒット方向及びヒット位置の少なくとも一方を含むヒット情報を求め、前記制御部は、前記ヒットイベントが発生した場合に、前記ヒット情報に応じて、複数の前記振動部の中から振動させる前記振動部を選択してもよい。 Further, in one aspect of the present invention, the vibration event is a hit event between the user or a user moving body corresponding to the user and a hit object, and the game processing unit is the user or the user moving body and the user moving body. Hit calculation processing with the hit object is performed to obtain hit information including at least one of the hit direction and the hit position, and when the hit event occurs, the control unit has a plurality of hit information according to the hit information. The vibrating portion to be vibrated may be selected from the vibrating portions.

このようにすれば、ヒットイベントが発生すると、ヒット情報に応じた振動部が選択されて振動するようになるため、ヒット情報を反映させた振動制御を実現できる。 By doing so, when a hit event occurs, the vibrating portion corresponding to the hit information is selected and vibrates, so that vibration control that reflects the hit information can be realized.

また本発明の一態様では、前記装着体の前面部に、少なくとも1つの前面側振動部が設けられ、前記装着体の後面部に、少なくとも1つの後面側振動部が設けられ、前記制御部は、前記ヒットイベントが発生した場合に、前記ヒット情報に基づいて、前記前面側振動部及び前記後面側振動部の一方の振動部を振動させた後、前記前面側振動部及び前記後面側振動部の他方の振動部を振動させる振動制御を行ってもよい。 Further, in one aspect of the present invention, at least one front side vibrating portion is provided on the front surface portion of the mounting body, and at least one rear surface side vibrating portion is provided on the rear surface portion of the mounting body. When the hit event occurs, the front side vibrating portion and the rear surface side vibrating portion are vibrated after vibrating one of the front side vibrating portion and the rear surface side vibrating portion based on the hit information. Vibration control may be performed to vibrate the other vibrating portion of the.

このようにすれば、ヒットイベントが発生すると、ヒット情報に基づいて、前面側振動部及び後面側振動部の一方の振動部が振動した後、他方の振動部が振動するようになる。従って、あたかも被ヒット物が身体を貫通したかのような仮想現実を、ユーザに体感させることができ、ヒットイベントでのヒット情報等を反映させた装着体の振動部の振動制御を実現できるようになる。 By doing so, when a hit event occurs, one vibrating portion of the front side vibrating portion and the rear side vibrating portion vibrates and then the other vibrating portion vibrates based on the hit information. Therefore, the user can experience the virtual reality as if the hit object penetrated the body, and the vibration control of the vibrating part of the wearer reflecting the hit information at the hit event can be realized. become.

また本発明の一態様では、仮想空間の設定処理を行う仮想空間設定部と、前記仮想空間を移動するユーザ移動体の移動処理を行う移動体処理部と、前記ゲーム処理の結果に基づいて、前記ユーザに表示する画像を生成する表示処理部と、を含んでもよい。 Further, in one aspect of the present invention, a virtual space setting unit that performs virtual space setting processing, a moving body processing unit that performs movement processing of a user moving body that moves in the virtual space, and a game processing result are used. A display processing unit that generates an image to be displayed to the user may be included.

このようにすれば、仮想空間においてユーザ移動体を移動させる移動処理が行われると共に、ユーザが身体に装着体を装着してプレイするゲームの処理が行われ、ゲーム処理の結果に基づいて表示画像を生成される。そして、当該ゲームにおいて振動イベントが発生すると、振動イベントに応じた装着体の振動部の振動制御が行われるようになり、仮想空間でプレイされるゲームに応じた多様な振動態様での振動制御を実現できるようになる。 By doing so, the movement process of moving the user moving body in the virtual space is performed, and the game processing in which the user wears the wearing body on the body and plays the game is performed, and the display image is displayed based on the result of the game processing. Is generated. Then, when a vibration event occurs in the game, vibration control of the vibration part of the wearer according to the vibration event is performed, and vibration control in various vibration modes according to the game played in the virtual space is performed. It will be possible.

また本発明の一態様では、前記表示処理部は、前記ユーザが視界を覆うように装着する頭部装着型表示装置の表示画像を生成してもよい。 Further, in one aspect of the present invention, the display processing unit may generate a display image of a head-mounted display device worn by the user so as to cover the field of view.

このようにユーザの視界が頭部装着型表示装置により覆われている場合には、ユーザの装着体の振動部を振動させることで、振動イベントやヒットイベントでの仮想現実感を効果的に向上できるようになる。 When the user's view is covered by the head-mounted display device in this way, the vibration part of the user's wearer is vibrated to effectively improve the virtual reality in a vibration event or a hit event. become able to.

本実施形態のシミュレーションシステムの構成例を示すブロック図。The block diagram which shows the configuration example of the simulation system of this embodiment. 図2(A)、図2(B)は本実施形態に用いられるHMDの一例。2 (A) and 2 (B) are examples of the HMD used in this embodiment. 図3(A)、図3(B)は本実施形態に用いられるHMDの他の例。3 (A) and 3 (B) are other examples of the HMD used in this embodiment. シミュレーションシステムで用いられるフィールドの説明図。Explanatory diagram of the field used in the simulation system. 図5(A)、図5(B)は実空間のユーザと当該ユーザに対応する移動体についての説明図。5 (A) and 5 (B) are explanatory views of a user in real space and a moving body corresponding to the user. HMDに表示されるゲーム画像の例。An example of a game image displayed on the HMD. 剣型コントローラを用いるゲームの説明図。An explanatory diagram of a game using a sword-shaped controller. HMDに表示されるゲーム画像の例。An example of a game image displayed on the HMD. 図9(A)、図9(B)は複数の振動部が設けられた装着体であるジャケットの説明図。9 (A) and 9 (B) are explanatory views of a jacket which is a mounting body provided with a plurality of vibrating portions. ソレノイドを用いた振動部の構成例。Configuration example of the vibrating part using a solenoid. 図11(A)、図11(B)は実空間でのユーザの移動に応じた仮想空間のユーザ移動体の移動処理の説明図。11 (A) and 11 (B) are explanatory views of the movement process of the user moving body in the virtual space according to the movement of the user in the real space. 図12(A)、図12(B)は弾のヒット時における振動制御手法の説明図。12 (A) and 12 (B) are explanatory views of the vibration control method at the time of hitting a bullet. 図13(A)~図13(C)は振動イベントの種類に応じた振動部の振動制御手法の説明図。13 (A) to 13 (C) are explanatory views of a vibration control method of a vibration unit according to the type of vibration event. 図14(A)~図14(C)は振動イベントの内容に応じた振動部の振動制御手法の説明図。14 (A) to 14 (C) are explanatory views of a vibration control method of a vibration unit according to the content of a vibration event. 図15(A)~図15(C)は振動イベントでの時間経過に応じた振動部の振動制御手法の説明図。15 (A) to 15 (C) are explanatory views of a vibration control method of a vibrating portion according to the passage of time in a vibration event. 図16(A)~図16(C)は複数の振動部の中から振動させる振動部をランダムに選択する振動制御手法の説明図。16 (A) to 16 (C) are explanatory views of a vibration control method in which a vibrating portion to be vibrated is randomly selected from a plurality of vibrating portions. 図17(A)、図17(B)はヒット情報に応じた振動部の振動制御手法の説明図。17 (A) and 17 (B) are explanatory views of a vibration control method of a vibrating portion according to hit information. 図18(A)、図18(B)はヒット情報に応じた振動部の振動制御手法の説明図。18 (A) and 18 (B) are explanatory views of a vibration control method of a vibrating portion according to hit information. 図19(A)、図19(B)はヒット情報に応じた振動部の振動制御手法の説明図。19 (A) and 19 (B) are explanatory views of a vibration control method of a vibrating portion according to hit information. 図20(A)~図20(C)はヒット情報のヒット速度やヒットイベントの種類、内容に応じた振動間隔の設定手法の説明図。20 (A) to 20 (C) are explanatory diagrams of a vibration interval setting method according to the hit speed of hit information, the type of hit event, and the content. 図21(A)~図21(D)はヒットイベント、振動イベントの種々の例の説明図。21 (A) to 21 (D) are explanatory views of various examples of a hit event and a vibration event. シミュレーションシステムの他の例の説明図。Explanatory drawing of another example of the simulation system. 本実施形態の詳細な処理例を説明するフローチャート。The flowchart explaining the detailed processing example of this embodiment. 本実施形態の詳細な処理例を説明するフローチャート。The flowchart explaining the detailed processing example of this embodiment. 本実施形態の詳細な処理例を説明するフローチャート。The flowchart explaining the detailed processing example of this embodiment. 本実施形態の詳細な処理例を説明するフローチャート。The flowchart explaining the detailed processing example of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. The embodiments described below do not unreasonably limit the content of the present invention described in the claims. Moreover, not all of the configurations described in the present embodiment are essential constituent requirements of the present invention.

1.シミュレーションシステム
図1は、本実施形態のシミュレーションシステム(シミュレータ、ゲームシステム)の構成例を示すブロック図である。本実施形態のシミュレーションシステムは例えばバーチャルリアリティ(VR)をシミュレートするシステムであり、ゲームコンテンツを提供するゲームシステム、スポーツ競技シミュレータや運転シミュレータなどのリアルタイムシミュレーションシステム、SNSのサービスを提供するシステム、映像等のコンテンツを提供するコンテンツ提供システム、或いは遠隔作業を実現するオペレーティングシステムなどの種々のシステムに適用可能である。なお、本実施形態のシミュレーションシステムは図1の構成に限定されず、その構成要素(各部)の一部(例えば仮想空間設定部、移動体処理部、仮想カメラ制御部、表示処理部等)を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. 1. Simulation system FIG. 1 is a block diagram showing a configuration example of a simulation system (simulator, game system) of the present embodiment. The simulation system of this embodiment is, for example, a system that simulates virtual reality (VR), a game system that provides game content, a real-time simulation system such as a sports competition simulator or a driving simulator, a system that provides SNS services, and an image. It can be applied to various systems such as a content providing system that provides such contents or an operating system that realizes remote work. The simulation system of the present embodiment is not limited to the configuration shown in FIG. 1, and a part of its constituent elements (each part) (for example, a virtual space setting unit, a moving body processing unit, a virtual camera control unit, a display processing unit, etc.) may be used. Various modifications can be implemented, such as omitting or adding other components.

装着体50は、ユーザが身体に装着するものである。身体は、例えばユーザの首よりも下方の部分(胴体、腰、脚部又は腕等)である。装着体50には複数の振動部V1~VNが設けられている。振動部V1~VNは取付具により装着体50に取り付けられている。 The wearing body 50 is worn by the user on the body. The body is, for example, a portion below the user's neck (torso, hips, legs, arms, etc.). The mounting body 50 is provided with a plurality of vibrating portions V1 to VN. The vibrating portions V1 to VN are attached to the mounting body 50 by a mounting tool.

操作部160は、ユーザ(プレーヤ)が種々の操作情報(入力情報)を入力するためのものである。操作部160は、例えば操作ボタン、方向指示キー、ジョイスティック、ハンドル、ペダル又はレバー等の種々の操作デバイスにより実現できる。操作部160は、例えばユーザの装備品であるガン型コントローラや剣型コントローラ等のコントローラなどにより実現できる。 The operation unit 160 is for the user (player) to input various operation information (input information). The operation unit 160 can be realized by various operation devices such as an operation button, a direction indicator key, a joystick, a handle, a pedal or a lever. The operation unit 160 can be realized by, for example, a controller such as a gun-type controller or a sword-type controller, which is a user's equipment.

記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。ゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SSD、光ディスク装置などにより実現できる。記憶部170は、オブジェクト情報記憶部172、描画バッファ178を含む。 The storage unit 170 stores various types of information. The storage unit 170 functions as a work area for the processing unit 100, the communication unit 196, and the like. The game program and game data necessary for executing the game program are stored in the storage unit 170. The function of the storage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), an HDD (hard disk drive), an SSD, an optical disk device, or the like. The storage unit 170 includes an object information storage unit 172 and a drawing buffer 178.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。 The information storage medium 180 (a medium readable by a computer) stores programs, data, and the like, and its function can be realized by an optical disk (DVD, BD, CD), an HDD, a semiconductor memory (ROM), or the like. .. The processing unit 100 performs various processes of the present embodiment based on the program (data) stored in the information storage medium 180. That is, the information storage medium 180 is a program for making a computer (a device including an input device, a processing unit, a storage unit, and an output unit) function as each part of the present embodiment (a program for causing the computer to execute the processing of each part). Is remembered.

HMD200(頭部装着型表示装置)は、ユーザの頭部に装着されて、ユーザの眼前に画像を表示する装置である。HMD200は非透過型であることが望ましいが、透過型であってもよい。またHMD200は、いわゆるメガネタイプのHMDであってもよい。 The HMD200 (head-mounted display device) is a device that is attached to the user's head and displays an image in front of the user's eyes. The HMD 200 is preferably a non-transparent type, but may be a transmissive type. Further, the HMD 200 may be a so-called glasses type HMD.

HMD200は、センサ部210、表示部220、処理部240を含む。なおHMD200に発光素子を設ける変形実施も可能である。センサ部210は、例えばヘッドトラッキングなどのトラッキング処理を実現するためものである。例えばセンサ部210を用いたトラッキング処理により、HMD200の位置、方向を特定する。HMD200の位置、方向が特定されることで、ユーザの視点位置、視線方向(ユーザの位置、方向)を特定できる。 The HMD 200 includes a sensor unit 210, a display unit 220, and a processing unit 240. It is also possible to modify the HMD 200 by providing a light emitting element. The sensor unit 210 is for realizing tracking processing such as head tracking. For example, the position and direction of the HMD 200 are specified by the tracking process using the sensor unit 210. By specifying the position and direction of the HMD 200, the user's viewpoint position and line-of-sight direction (user's position and direction) can be specified.

トラッキング方式としては種々の方式を採用できる。トラッキング方式の一例である第1のトラッキング方式では、後述の図2(A)、図2(B)で詳細に説明するように、センサ部210として複数の受光素子(フォトダイオード等)を設ける。そして外部に設けられた発光素子(LED等)からの光(レーザー等)をこれらの複数の受光素子により受光することで、現実世界の3次元空間でのHMD200(ユーザの頭部)の位置、方向を特定する。第2のトラッキング方式では、後述の図3(A)、図3(B)で詳細に説明するように、複数の発光素子(LED)をHMD200に設ける。そして、これらの複数の発光素子からの光を、外部に設けられた撮像部で撮像することで、HMD200の位置、方向を特定する。第3のトラッキング方式では、センサ部210としてモーションセンサを設け、このモーションセンサを用いてHMD200の位置、方向を特定する。モーションセンサは例えば加速度センサやジャイロセンサなどにより実現できる。例えば3軸の加速度センサと3軸のジャイロセンサを用いた6軸のモーションセンサを用いることで、現実世界の3次元空間でのHMD200の位置、方向を特定できる。なお、第1のトラッキング方式と第2のトラッキング方式の組合わせ、或いは第1のトラッキング方式と第3のトラッキング方式の組合わせなどにより、HMD200の位置、方向を特定してもよい。またHMD200の位置、方向を特定することでユーザの視点位置、視線方向を特定するのではなく、ユーザの視点位置、視線方向(位置、方向)を直接に特定するトラッキング処理を採用してもよい。 Various methods can be adopted as the tracking method. In the first tracking method, which is an example of the tracking method, a plurality of light receiving elements (photodiodes and the like) are provided as the sensor unit 210 as described in detail in FIGS. 2 (A) and 2 (B) described later. Then, by receiving the light (laser, etc.) from the light emitting element (LED, etc.) provided outside by these multiple light receiving elements, the position of the HMD200 (user's head) in the three-dimensional space in the real world, Specify the direction. In the second tracking method, a plurality of light emitting elements (LEDs) are provided in the HMD 200 as described in detail in FIGS. 3 (A) and 3 (B) described later. Then, the position and direction of the HMD 200 are specified by capturing the light from these plurality of light emitting elements with an image pickup unit provided outside. In the third tracking method, a motion sensor is provided as the sensor unit 210, and the position and direction of the HMD 200 are specified using this motion sensor. The motion sensor can be realized by, for example, an acceleration sensor or a gyro sensor. For example, by using a 6-axis motion sensor using a 3-axis acceleration sensor and a 3-axis gyro sensor, the position and direction of the HMD200 in the three-dimensional space of the real world can be specified. The position and direction of the HMD 200 may be specified by a combination of the first tracking method and the second tracking method, or a combination of the first tracking method and the third tracking method. Further, instead of specifying the user's viewpoint position and line-of-sight direction by specifying the position and direction of the HMD 200, a tracking process that directly specifies the user's viewpoint position and line-of-sight direction (position, direction) may be adopted. ..

HMD200の表示部220は例えば有機ELディスプレイ(OEL)や液晶ディスプレイ(LCD)などにより実現できる。例えばHMD200の表示部220には、ユーザの左目の前に設定される第1のディスプレイ又は第1の表示領域と、右目の前に設定される第2のディスプレイ又は第2の表示領域が設けられており、立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左目用画像と右目用画像を生成し、第1のディスプレイに左目用画像を表示し、第2のディスプレイに右目用画像を表示する。或いは1つのディスプレイの第1の表示領域に左目用画像を表示し、第2の表示領域に右目用画像を表示する。またHMD200には左目用、右目用の2つの接眼レンズ(魚眼レンズ)が設けられており、これによりユーザの視界の全周囲に亘って広がるVR空間が表現される。そして接眼レンズ等の光学系で生じる歪みを補正するための補正処理が、左目用画像、右目用画像に対して行われる。この補正処理は表示処理部120が行う。 The display unit 220 of the HMD 200 can be realized by, for example, an organic EL display (OEL) or a liquid crystal display (LCD). For example, the display unit 220 of the HMD 200 is provided with a first display or a first display area set in front of the user's left eye and a second display or a second display area set in front of the right eye. It is possible to display stereoscopically. In the case of stereoscopic display, for example, an image for the left eye and an image for the right eye having different parallax are generated, the image for the left eye is displayed on the first display, and the image for the right eye is displayed on the second display. Alternatively, the image for the left eye is displayed in the first display area of one display, and the image for the right eye is displayed in the second display area. Further, the HMD 200 is provided with two eyepieces (fisheye lenses) for the left eye and the right eye, thereby expressing a VR space that extends over the entire circumference of the user's field of view. Then, a correction process for correcting the distortion generated in the optical system such as the eyepiece is performed on the image for the left eye and the image for the right eye. This correction process is performed by the display processing unit 120.

HMD200の処理部240は、HMD200において必要な各種の処理を行う。例えば処理部240は、センサ部210の制御処理や表示部220の表示制御処理などを行う。また処理部240が、3次元音響(立体音響)処理を行って、3次元的な音の方向や距離や広がりの再現を実現してもよい。 The processing unit 240 of the HMD 200 performs various processes necessary for the HMD 200. For example, the processing unit 240 performs control processing of the sensor unit 210, display control processing of the display unit 220, and the like. Further, the processing unit 240 may perform three-dimensional sound (stereophonic sound) processing to reproduce the three-dimensional sound direction, distance, and spread.

音出力部192は、本実施形態により生成された音を出力するものであり、例えばスピーカ又はヘッドホン等により実現できる。 The sound output unit 192 outputs the sound generated by the present embodiment, and can be realized by, for example, a speaker or headphones.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。 The I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and the function can be realized by an ASIC or the like for I / F processing. The portable information storage medium 195 is for the user to store various information, and is a storage device that retains the storage of such information even when the power is not supplied. The portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.

通信部196(通信インターフェース)は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。 The communication unit 196 (communication interface) communicates with an external device (other device) via a wired or wireless network, and its function is hardware such as a communication ASIC or a communication processor. , Can be realized by communication firmware.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。 The program (data) for operating the computer as each part of the present embodiment is distributed from the information storage medium of the server (host device) to the information storage medium 180 (or the storage unit 170) via the network and the communication unit 196. You may. The use of information storage media by such a server (host device) can also be included within the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作情報や、HMD200でのトラッキング情報(HMDの位置及び方向の少なくとも一方の情報。視点位置及び視線方向の少なくとも一方の情報)や、プログラムなどに基づいて、ゲーム処理(シミュレーション処理)、仮想空間設定処理、移動体処理、仮想カメラ制御処理、表示処理、或いは音処理などを行う。 The processing unit 100 (processor) can be used for operation information from the operation unit 160, tracking information in the HMD 200 (information on at least one of the position and direction of the HMD, information on at least one of the viewpoint position and the line-of-sight direction), a program, and the like. Based on this, game processing (simulation processing), virtual space setting processing, moving object processing, virtual camera control processing, display processing, sound processing, and the like are performed.

処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。 Each process (each function) of the present embodiment performed by each unit of the processing unit 100 can be realized by a processor (processor including hardware). For example, each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program. In the processor, for example, the functions of each part may be realized by individual hardware, or the functions of each part may be realized by integrated hardware. For example, the processor includes hardware, which hardware can include at least one of a circuit that processes a digital signal and a circuit that processes an analog signal. For example, the processor may be composed of one or more circuit devices (eg, ICs, etc.) mounted on a circuit board, or one or more circuit elements (eg, resistors, capacitors, etc.). The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Signal Processor) can be used. Further, the processor may be a hardware circuit by ASIC. Further, the processor may include an amplifier circuit, a filter circuit, and the like for processing an analog signal. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD), or an optical storage device such as an optical disk device. For example, the memory stores instructions that can be read by a computer, and when the instructions are executed by the processor, the processing (function) of each part of the processing unit 100 is realized. The instruction here may be an instruction set constituting the program, or may be an instruction instructing the hardware circuit of the processor to operate.

処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。演算処理部110は、情報取得部111、仮想空間設定部112、移動体処理部113、仮想カメラ制御部114、ゲーム処理部115、制御部118、表示処理部120、音処理部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。 The processing unit 100 includes an input processing unit 102, an arithmetic processing unit 110, and an output processing unit 140. The arithmetic processing unit 110 includes an information acquisition unit 111, a virtual space setting unit 112, a moving body processing unit 113, a virtual camera control unit 114, a game processing unit 115, a control unit 118, a display processing unit 120, and a sound processing unit 130. As described above, each process of the present embodiment executed by each of these parts can be realized by a processor (or a processor and a memory). It is possible to carry out various modifications such as omitting a part of these components (each part) or adding other components.

入力処理部102は、操作情報やトラッキング情報を受け付ける処理や、記憶部170から情報を読み出す処理や、通信部196を介して情報を受信する処理を、入力処理として行う。例えば入力処理部102は、操作部160を用いてユーザが入力した操作情報やHMD200のセンサ部210等により検出されたトラッキング情報を取得する処理や、読み出し命令で指定された情報を、記憶部170から読み出す処理や、外部装置(サーバ等)からネットワークを介して情報を受信する処理を、入力処理として行う。ここで受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。 The input processing unit 102 performs processing for receiving operation information and tracking information, processing for reading information from the storage unit 170, and processing for receiving information via the communication unit 196 as input processing. For example, the input processing unit 102 stores the operation information input by the user using the operation unit 160, the processing for acquiring the tracking information detected by the sensor unit 210 of the HMD 200, and the information specified by the read command in the storage unit 170. The process of reading from the computer and the process of receiving information from an external device (server, etc.) via the network are performed as input processes. Here, the reception process is a process of instructing the communication unit 196 to receive information, a process of acquiring the received information by the communication unit 196 and writing it to the storage unit 170, and the like.

演算処理部110は、各種の演算処理を行う。例えば情報取得処理、仮想空間設定処理、移動体処理、仮想カメラ制御処理、ゲーム処理(シミュレーション処理)、制御処理、表示処理、或いは音処理などの演算処理を行う。 The arithmetic processing unit 110 performs various arithmetic processing. For example, arithmetic processing such as information acquisition processing, virtual space setting processing, moving object processing, virtual camera control processing, game processing (simulation processing), control processing, display processing, or sound processing is performed.

情報取得部111(情報取得処理のプログラムモジュール)は種々の情報の取得処理を行う。例えば情報取得部111は、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報(ユーザトラッキング情報)を取得する。 The information acquisition unit 111 (program module for information acquisition processing) performs various information acquisition processing. For example, the information acquisition unit 111 acquires user information (user tracking information) including at least one of the user's position information, direction information, and posture information.

仮想空間設定部112(仮想空間設定処理のプログラムモジュール)は、複数のオブジェクトが配置される仮想空間(オブジェクト空間)の設定処理を行う。例えば、移動体(人、ロボット、車、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)を仮想空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクト情報記憶部172には、仮想空間でのオブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報がオブジェクト番号に対応づけて記憶される。仮想空間設定部112は、例えば各フレーム毎にこのオブジェクト情報を更新する処理などを行う。 The virtual space setting unit 112 (program module for virtual space setting processing) performs setting processing for a virtual space (object space) in which a plurality of objects are arranged. For example, various display objects such as moving objects (people, robots, cars, trains, airplanes, ships, monsters or animals), maps (topography), buildings, spectator seats, courses (roads), trees, walls, water surfaces, etc. Performs a process of arranging and setting an object (an object composed of primitive surfaces such as polygons, free curved surfaces, or subdivision surfaces) in a virtual space. That is, the position and rotation angle (synonymous with direction and direction) of the object in the world coordinate system are determined, and the rotation angle (rotation angle around the X, Y, Z axis) is used at the position (X, Y, Z). Place the object. Specifically, in the object information storage unit 172 of the storage unit 170, object information which is information such as the position, rotation angle, movement speed, and movement direction of the object (part object) in the virtual space is associated with the object number. Is remembered. The virtual space setting unit 112 performs, for example, a process of updating this object information for each frame.

移動体処理部113(移動体処理のプログラムモジュール)は、仮想空間内で移動する移動体についての種々の処理を行う。例えば仮想空間(オブジェクト空間、ゲーム空間)において移動体を移動させる処理や、移動体を動作させる処理を行う。例えば移動体処理部113は、操作部160によりユーザが入力した操作情報や、取得されたトラッキング情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(モデルオブジェクト)を仮想空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。移動体は、例えば実空間のユーザ(プレーヤ)に対応する仮想空間の仮想ユーザ(仮想プレーヤ、アバター)や、或いは当該仮想ユーザが搭乗(操作)する搭乗移動体(操作移動体)などである。 The moving body processing unit 113 (program module for moving body processing) performs various processing on the moving body moving in the virtual space. For example, it performs a process of moving a moving body in a virtual space (object space, a game space) and a process of operating a moving body. For example, the moving object processing unit 113 is based on the operation information input by the user by the operation unit 160, the tracking information acquired, the program (movement / motion algorithm), various data (motion data), and the like. Performs control processing to move a model object) in a virtual space or to move a moving object (motion, animation). Specifically, a simulation in which movement information (position, rotation angle, velocity, or acceleration) and motion information (position or rotation angle of a part object) of a moving body are sequentially obtained for each frame (for example, 1/60 second). Perform processing. A frame is a unit of time for performing movement / motion processing (simulation processing) and image generation processing of a moving object. The moving body is, for example, a virtual user (virtual player, avatar) in a virtual space corresponding to a user (player) in the real space, or a boarding moving body (operation moving body) on which the virtual user is boarded (operated).

ゲーム処理部115(ゲーム処理のプログラムモジュール)はユーザがゲームをプレイするための種々のゲーム処理を行う。別の言い方をすれば、ゲーム処理部115(シミュレーション処理部)は、ユーザが仮想現実(バーチャルリアリティ)を体験するための種々のシミュレーション処理を実行する。ゲーム処理は、例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、開始したゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、或いはゲーム成績を演算する処理などである。ゲーム処理部115はヒット演算処理部116を含む。ヒット演算処理部116は、ヒット判定処理などのヒット演算処理を実行する。 The game processing unit 115 (game processing program module) performs various game processing for the user to play a game. In other words, the game processing unit 115 (simulation processing unit) executes various simulation processes for the user to experience virtual reality (virtual reality). The game process calculates, for example, a process of starting a game when the game start condition is satisfied, a process of advancing the started game, a process of ending the game when the game end condition is satisfied, or a game result. Processing etc. The game processing unit 115 includes a hit calculation processing unit 116. The hit calculation processing unit 116 executes a hit calculation process such as a hit determination process.

制御部118(制御処理のプログラムモジュール)は、装着体50の複数の振動部V1~VNの制御処理を行う。制御部118の詳細については後述する。 The control unit 118 (program module for control processing) performs control processing for a plurality of vibration units V1 to VN of the mounting body 50. The details of the control unit 118 will be described later.

表示処理部120(表示処理のプログラムモジュール)は、ゲーム画像(シミュレーション画像)の表示処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、HMD200の表示部220に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間(仮想空間)において仮想カメラ(所与の視点。左目用、右目用の第1、第2の視点)から見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。 The display processing unit 120 (display processing program module) performs display processing of a game image (simulation image). For example, drawing processing is performed based on the results of various processing (game processing, simulation processing) performed by the processing unit 100, and an image is generated by this, and is displayed on the display unit 220 of the HMD 200. Specifically, geometry processing such as coordinate conversion (world coordinate conversion, camera coordinate conversion), clipping processing, fluoroscopic conversion, or light source processing is performed, and drawing data (positions of vertices on the primitive surface) are performed based on the processing results. Coordinates, texture coordinates, color data, normal vector or α value, etc.) are created. Then, based on this drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after fluoroscopic transformation (after geometry processing) is subjected to image information in pixel units such as a drawing buffer 178 (frame buffer, work buffer, etc.). Draw in a memorable buffer). As a result, an image seen from a virtual camera (given viewpoint. First and second viewpoints for the left eye and the right eye) is generated in the object space (virtual space). The drawing process performed by the display processing unit 120 can be realized by a vertex shader process, a pixel shader process, or the like.

音処理部130(音処理のプログラムモジュール)は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。なお音処理部130の音処理の一部(例えば3次元音響処理)を、HMD200の処理部240により実現してもよい。 The sound processing unit 130 (sound processing program module) performs sound processing based on the results of various processing performed by the processing unit 100. Specifically, a game sound such as a musical piece (music, BGM), a sound effect, or a voice is generated, and the game sound is output to the sound output unit 192. A part of the sound processing of the sound processing unit 130 (for example, three-dimensional sound processing) may be realized by the processing unit 240 of the HMD 200.

出力処理部140は各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理や、通信部196を介して情報を送信する処理を、出力処理として行う。例えば出力処理部140は、書き込み命令で指定された情報を、記憶部170に書き込む処理や、外部の装置(サーバ等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。 The output processing unit 140 performs output processing of various information. For example, the output processing unit 140 performs a process of writing information to the storage unit 170 and a process of transmitting information via the communication unit 196 as an output process. For example, the output processing unit 140 performs a process of writing the information specified by the write command to the storage unit 170 and a process of transmitting the information to an external device (server or the like) via the network. The transmission process is a process of instructing the communication unit 196 to transmit information, instructing the communication unit 196 to transmit information, and the like.

そして本実施形態のシミュレーションシステムは、図1に示すようにゲーム処理部115と制御部118を含む。 The simulation system of the present embodiment includes a game processing unit 115 and a control unit 118 as shown in FIG.

ゲーム処理部115は、ユーザが身体に装着体50を装着してプレイするゲームのゲーム処理を行う。ゲーム処理部115は、例えばゲームを開始する処理、ゲームを進行させる処理、ゲームを終了する処理、或いはゲーム成績を演算する処理などのゲーム処理を行う。例えばゲーム処理部115は、振動イベントが発生したか否かを判断する処理や、振動イベントが発生した場合に、装着体50の振動制御を制御部118に指示する処理などを行うことができる。例えばゲーム画像をユーザに表示するシミュレーションシステムにおいては、ゲーム処理部115は、ゲーム画像を表示部220に表示するためのゲーム処理を行う。例えば仮想空間でのゲームの処理を行う。但し本実施形態のシミュレーションシステムは、ユーザに対してゲーム画像を表示しないようなシステムであってもよい。この場合にゲーム処理部115は、例えばユーザのゲーム成績を演算したり、ゲームを開始、進行又は終了するための各種のゲーム制御処理を行うことになる。 The game processing unit 115 performs game processing for a game in which the user wears the wearing body 50 on the body and plays the game. The game processing unit 115 performs game processing such as a process of starting a game, a process of advancing a game, a process of ending a game, or a process of calculating a game result. For example, the game processing unit 115 can perform a process of determining whether or not a vibration event has occurred, a process of instructing the control unit 118 to control the vibration of the mounting body 50 when the vibration event occurs, and the like. For example, in a simulation system for displaying a game image to a user, the game processing unit 115 performs game processing for displaying the game image on the display unit 220. For example, processing a game in a virtual space. However, the simulation system of the present embodiment may be a system that does not display the game image to the user. In this case, the game processing unit 115 will, for example, calculate the game results of the user and perform various game control processes for starting, progressing, or ending the game.

そして本実施形態では、ユーザが身体(胴体等)に装着する装着体50には複数の振動部V1~VNが設けられている。装着体50は、ユーザが身体(例えば首より下方の身体)に装着するものである。具体的には、後述するジャケット(ベスト)やジャンパーなどの上着、或いはズボンなどの衣服である。但し装着体は剣ゲームにおける鎧のようなものであってもよいし、自然体験ゲームにおける身体の装備品であってもよい。 Further, in the present embodiment, the wearable body 50 to be worn by the user on the body (body or the like) is provided with a plurality of vibrating portions V1 to VN. The wearing body 50 is worn by the user on a body (for example, a body below the neck). Specifically, it is a jacket (vest), a jacket such as a jumper, or clothing such as trousers, which will be described later. However, the wearing body may be something like armor in a sword game, or may be a body equipment in a nature experience game.

そして制御部118は、装着体50の複数の振動部V1~VNの振動制御を行う。例えばゲーム処理部115はゲーム処理を行い、制御部118は、ゲーム状況に応じて、装着体50の複数の振動部V1~VNの振動制御を行う。 Then, the control unit 118 controls the vibration of the plurality of vibration units V1 to VN of the mounting body 50. For example, the game processing unit 115 performs game processing, and the control unit 118 performs vibration control of a plurality of vibration units V1 to VN of the mounting body 50 according to the game situation.

具体的には制御部118は、ゲームにおいて発生する振動イベントの種類又は内容に応じて、振動させる振動部の個数又は振動させる振動部の範囲である振動範囲を変化させる制御を行う。例えば被ヒット物がユーザ又はユーザ移動体にヒットすることによる振動イベント、被ヒット物が岩等の物体である場合の振動イベント、被ヒット物が弾などのオブジェクトである場合の振動イベント、爆発の発生による振動イベントというように、振動イベントのカテゴリーがグループ分けされる場合に、どのカテゴリーのグループに属するかが、振動イベントの種類になる。また振動イベントの内容は、例えば振動の強さパラメータ、振動の速さパラメータ、又は振動の属性パラメータなど、振動イベント処理のパラメータにより表されるものである。例えば同じ種類(カテゴリーのグループ)の振動イベントであっても、振動イベント処理のパラメータが異なれば、振動イベントの内容が異なることになる。 Specifically, the control unit 118 controls to change the number of vibrating parts or the vibration range which is the range of the vibrating parts according to the type or content of the vibration event generated in the game. For example, a vibration event when the hit object hits the user or a user moving object, a vibration event when the hit object is an object such as a rock, a vibration event when the hit object is an object such as a bullet, or an explosion. When the categories of vibration events are grouped, such as vibration events due to occurrence, the type of vibration event is which category the group belongs to. The content of the vibration event is represented by vibration event processing parameters such as a vibration intensity parameter, a vibration speed parameter, or a vibration attribute parameter. For example, even if the vibration events are of the same type (category group), if the parameters of the vibration event processing are different, the contents of the vibration event will be different.

なお振動イベントの内容は、振動イベントにおける経過時間であってもよい。この場合には振動イベント処理のパラメータは、振動イベント処理における経過時間(例えばイベントの発生からの経過時間)のパラメータになる。また振動イベントの種類の情報や振動イベントの内容を表す情報(振動処理のパラメータ)は、例えば各振動イベントに対応づけて記憶部170に記憶される。制御部118は、記憶部170に記憶されるこれらの情報に基づいて、装着体50の振動部V1~VNの振動制御の処理を行うことになる。 The content of the vibration event may be the elapsed time in the vibration event. In this case, the parameter of the vibration event processing becomes the parameter of the elapsed time (for example, the elapsed time from the occurrence of the event) in the vibration event processing. Further, information on the type of vibration event and information representing the content of the vibration event (vibration processing parameter) are stored in the storage unit 170 in association with each vibration event, for example. The control unit 118 will perform vibration control processing of the vibration units V1 to VN of the mounting body 50 based on these information stored in the storage unit 170.

そして制御部118は、振動イベントの種類又は内容に応じて、振動させる振動部の個数又は振動範囲を変化させる制御を行う。例えば振動イベントの種類が第1の種類である場合、或いは振動イベントの内容が第1の内容である場合には、振動部V1~VNのうちの第1の個数の振動部又は第1の振動範囲の振動部を振動させる制御を行う。また振動イベントの種類が第2の種類である場合、或いは振動イベントの内容が第2の内容である場合には、振動部V1~VNのうちの第2の個数の振動部又は第2の振動範囲の振動部を振動させる制御を行う。例えば少ない個数の振動部を振動させたり、狭い振動範囲の振動部を振動させるような種類又は内容の振動イベントが発生した場合には、制御部118は、少ない第1の個数の振動部又は狭い第1の振動範囲の振動部を振動させる制御を行う。一方、多い個数の振動部を振動させたり、広い振動範囲の振動部を振動させるような種類又は内容の振動イベントが発生した場合には、制御部118は、第1の個数よりも多い第2の個数の振動部又は第1の振動範囲よりも広い第2の振動範囲の振動部を振動させる制御を行う。例えば強い振動をユーザに感じさせたり、広い面積での振動をユーザに感じさせるような振動イベントが発生した場合には、第1の個数よりも多い第2の個数の振動部又は第1の振動範囲よりも広い第2の振動範囲の振動部を振動させる制御を行う。このようにすることで、振動イベントの種類や内容を反映させた装着体50の振動部の振動制御を実現できるようになる。 Then, the control unit 118 controls to change the number or the vibration range of the vibrating units to be vibrated according to the type or content of the vibration event. For example, when the type of the vibration event is the first type, or when the content of the vibration event is the first content, the first number of vibration units or the first vibration among the vibration units V1 to VN Controls to vibrate the vibrating part in the range. When the type of the vibration event is the second type, or when the content of the vibration event is the second content, the second number of vibration units or the second vibration among the vibration units V1 to VN Controls to vibrate the vibrating part in the range. For example, when a vibration event of a type or content that vibrates a small number of vibrating parts or vibrates a vibrating part in a narrow vibration range occurs, the control unit 118 has a small number of first vibrating parts or a narrow vibration part. Control is performed to vibrate the vibrating portion in the first vibration range. On the other hand, when a vibration event of a type or content that vibrates a large number of vibrating parts or vibrates a vibrating part having a wide vibration range occurs, the control unit 118 has a second number larger than that of the first number. Control is performed to vibrate the number of vibrating parts or the vibrating parts having a second vibrating range wider than the first vibrating range. For example, when a vibration event occurs that makes the user feel strong vibration or vibration in a wide area, the second number of vibration parts or the first vibration is larger than the first number. Control is performed to vibrate the vibrating portion of the second vibration range wider than the range. By doing so, it becomes possible to realize vibration control of the vibration portion of the mounting body 50 that reflects the type and content of the vibration event.

また振動イベントは、例えばユーザ又はユーザに対応するユーザ移動体と被ヒット物とのヒットイベントである。この場合に制御部118は、ヒットイベントの種類又は内容に応じて、振動させる振動部の個数又は振動範囲を変化させる制御を行う。例えばユーザに対してゲーム画像を表示しないシミュレーションシステムにおいては、振動イベントは、実空間でのユーザと被ヒット物とのヒットイベントである。この場合の被ヒット物(実空間の物体)は、例えば銃等が発射する弾等であってもよいし、光線(赤外線等)のようなものであってもよい。或いは被ヒット物は、剣、槍又は投げ石などの武器や攻撃物であってもよい。一方、ユーザに対してゲーム画像を表示するシミュレーションシステムにおいては、振動イベントは、仮想空間(ゲーム空間)でのユーザ移動体と他のオブジェクトとのヒットイベントである。ユーザ移動体は、仮想空間(ゲーム空間)においてユーザに対応して移動する移動体であり、例えばキャラクタやアバターと呼ばれるものである。他のオブジェクトは、例えば銃等が発射する弾や光線を模したオブジェクトであってもよいし、剣、槍又は投げ石などの武器や攻撃物を模したオブジェクトであってもよい。なおオブジェクトは例えば3次元画像のゲームにおける3次元オブジェクトであるが、2次元画像のゲームにおける2次元のオブジェクトであってもよい。またユーザ又はユーザ移動体と被ヒット物とのヒット判定処理は、ゲーム処理部115が行う。具体的にはゲーム処理部115のヒット演算処理部116が行う。 Further, the vibration event is, for example, a hit event between a user or a user moving body corresponding to the user and a hit object. In this case, the control unit 118 controls to change the number or the vibration range of the vibrating units to be vibrated according to the type or content of the hit event. For example, in a simulation system that does not display a game image to the user, the vibration event is a hit event between the user and the hit object in the real space. The hit object (object in real space) in this case may be, for example, a bullet fired by a gun or the like, or a light ray (infrared ray or the like). Alternatively, the hit object may be a weapon such as a sword, a spear, or a throwing stone, or an attacking object. On the other hand, in a simulation system that displays a game image to a user, a vibration event is a hit event between a user moving object and another object in a virtual space (game space). The user moving body is a moving body that moves in response to the user in a virtual space (game space), and is called, for example, a character or an avatar. The other object may be, for example, an object that imitates a bullet or a light beam fired by a gun or the like, or an object that imitates a weapon or an attacking object such as a sword, a spear, or a throwing stone. The object is, for example, a three-dimensional object in a three-dimensional image game, but may be a two-dimensional object in a two-dimensional image game. Further, the game processing unit 115 performs the hit determination processing between the user or the user moving body and the hit object. Specifically, the hit calculation processing unit 116 of the game processing unit 115 performs the operation.

そして制御部118は、ヒットイベントの種類又は内容に応じて、振動させる振動部の個数又は振動範囲を変化させる制御を行う。例えば、ピストルの弾がヒットするイベント、ライフルの弾がヒットするイベント、バズーカの弾がヒットするイベント、ミサイルがヒットするイベント、剣がヒットするイベントというように、ヒットイベントのカテゴリーがグループ分けされる場合に、どのカテゴリーのグループに属するかが、ヒットイベントの種類になる。またヒットイベントの内容は、例えばヒットの強さパラメータ、ヒットの攻撃力パラメータ、ヒットの速さパラメータ、又はヒットの属性パラメータなど、ヒット演算処理のパラメータにより表されるものである。例えば同じ種類(カテゴリーのグループ)のヒットイベント(ピストル、ライフル、バズーカ、ミサイル、剣)であっても、ヒット演算処理のパラメータが異なれば、ヒットイベントの内容が異なることになる。 Then, the control unit 118 controls to change the number or the vibration range of the vibrating units to be vibrated according to the type or content of the hit event. For example, hit event categories are grouped into pistol bullet hit events, rifle bullet hit events, bazooka bullet hit events, missile hit events, sword hit events, and so on. In this case, the type of hit event depends on which category the group belongs to. Further, the content of the hit event is represented by the parameters of the hit calculation process such as the hit strength parameter, the hit attack power parameter, the hit speed parameter, or the hit attribute parameter. For example, even for hit events (pistol, rifle, bazooka, missile, sword) of the same type (category group), if the parameters of the hit calculation process are different, the contents of the hit event will be different.

そして制御部118は、ピストルの弾がヒットするイベントでは、振動部の振動個数を少なくしたり、振動範囲を狭くする。振動個数は、振動させる振動部の個数である。一方、バズーカやミサイルがヒットするイベントでは、振動部の振動個数を多くしたり、振動範囲を広くする。即ち、ヒットイベントの種類に応じて、振動部の振動個数又は振動範囲を変化させる。またヒットの強さパラメータや攻撃力パラメータや速さパラメータが低いヒットイベントでは、振動部の振動個数を少なくしたり、振動範囲を狭くする。一方、ヒットの強さパラメータや攻撃力パラメータや速さパラメータが高いヒットイベントでは、振動部の振動個数を多くしたり、振動範囲を広くする。即ち、ヒットイベントの内容に応じて、振動させる振動部の個数又は振動範囲を変化させる。 Then, the control unit 118 reduces the number of vibrations of the vibrating unit or narrows the vibration range in the event where the pistol bullet hits. The number of vibrations is the number of vibrating parts to be vibrated. On the other hand, in an event where a bazooka or a missile hits, the number of vibrations of the vibrating part is increased or the vibration range is widened. That is, the number of vibrations or the vibration range of the vibrating portion is changed according to the type of hit event. In a hit event where the hit strength parameter, attack power parameter, and speed parameter are low, the number of vibrations of the vibrating part is reduced or the vibration range is narrowed. On the other hand, in a hit event where the hit strength parameter, attack power parameter, and speed parameter are high, the number of vibrations of the vibrating part is increased or the vibration range is widened. That is, the number of vibrating parts or the vibration range to be vibrated is changed according to the content of the hit event.

また制御部118は、被ヒット物の種類又は攻撃内容に応じて、振動させる振動部の個数又は振動範囲を変化させる制御を行う。例えば制御部118は、被ヒット物がピストルの弾、ライフルの弾、バズーカの弾、或いはミサイルであるかに応じて、振動させる振動部の個数又は振動範囲を変化させる。また制御部118は、攻撃内容が、弱い攻撃力の攻撃であるか、中ぐらいの攻撃力の攻撃であるか、或いは強い攻撃力の攻撃であるかに応じて、振動させる振動部の個数又は振動範囲を変化させる。このようにすることで、被ヒット物の種類や攻撃内容を反映させた装着体50の振動部の振動制御を実現できるようになる。 Further, the control unit 118 controls to change the number of vibrating units or the vibration range to be vibrated according to the type of the hit object or the content of the attack. For example, the control unit 118 changes the number or vibration range of the vibrating unit to vibrate depending on whether the hit object is a pistol bullet, a rifle bullet, a bazooka bullet, or a missile. Further, the control unit 118 vibrates the number of vibrating units or the number of vibrating units depending on whether the attack content is a weak attack power attack, a medium attack power attack, or a strong attack power attack. Change the vibration range. By doing so, it becomes possible to realize vibration control of the vibrating portion of the mounting body 50 that reflects the type of the hit object and the content of the attack.

例えば制御部118は、被ヒット物の種類が、高い攻撃能力を有する種類の被ヒット物であるほど、或いは被ヒット物の攻撃が、攻撃力の高い攻撃内容であるほど、振動させる振動部の個数を多くする、又は振動範囲を広くする。例えば高い攻撃能力を有するバズーカやミサイルなどの被ヒット物である場合には、振動部の振動個数を多くしたり、振動範囲を広くする。或いは、同じ被ヒット物であっても、その被ヒット物による攻撃が、攻撃力が高い攻撃内容である場合には、振動部の振動個数を多くしたり、振動範囲を広くする。例えば、ヒットの強さパラメータ、攻撃力パラメータ或いはヒットの速さパラメータが高い場合には、振動部の振動個数を多くしたり、振動範囲を広くする。こうすることで、より多くの個数の振動部が振動したり、より広い振動範囲で振動部が振動するようになるため、高い攻撃能力を有する種類の被ヒット物がヒットしたことや、高い攻撃内容で被ヒット物がヒットしたことを、ユーザに仮想体験させることが可能になり、ユーザの仮想現実感を向上できる。 For example, the control unit 118 vibrates as the type of the hit object is the type of the hit object having a high attack ability, or the attack of the hit object is the attack content having a high attack power. Increase the number or widen the vibration range. For example, in the case of a hit object such as a bazooka or a missile having a high attack capability, the number of vibrations of the vibrating part is increased or the vibration range is widened. Alternatively, even if the hit object is the same, if the attack by the hit object has a high attack power, the number of vibrations of the vibrating portion is increased or the vibration range is widened. For example, when the hit strength parameter, the attack force parameter, or the hit speed parameter is high, the number of vibrations of the vibrating portion is increased or the vibration range is widened. By doing this, a larger number of vibrating parts will vibrate, and the vibrating parts will vibrate in a wider vibration range. It is possible to let the user experience a virtual experience that the hit object is hit by the content, and it is possible to improve the virtual reality of the user.

また制御部118は、被ヒット物のヒットタイミングにおいて、複数の振動部V1~VNのうちの第1の振動部を振動させ、ヒットタイミングから所与の時間が経過した後に、第1の振動部の周囲の第2の振動部を振動させる。このようにすれば、第1の振動部が振動した後、所与の時間が経過すると、その周囲の第2の振動部等が振動するようになる。これにより、第1の振動部からその周囲へと振動範囲が時間経過に伴い広がって行くような振動制御が可能になる。例えば振動部の振動個数が時間経過に伴い増加して行くような振動制御が可能になる。なお第1の振動部の個数は、1個であっても複数個であってもよく、第1の振動部の周囲の第2の振動部の個数も、1個であっても複数個であってもよい。また第1の振動部の周囲は、第1の振動部の上方向、下方向、左方向、右方向などの周囲であってよいし、これらの方向の少なくとも1つの方向での周囲であってもよい。また時間経過は、タイマーを用いたカウント処理により計時できる。 Further, the control unit 118 vibrates the first vibrating unit among the plurality of vibrating units V1 to VN at the hit timing of the hit object, and after a given time has elapsed from the hit timing, the first vibrating unit The second vibrating part around the is vibrated. By doing so, after a given time elapses after the first vibrating portion vibrates, the second vibrating portion and the like around the vibrating portion will vibrate. This enables vibration control in which the vibration range expands with the passage of time from the first vibrating portion to its surroundings. For example, it becomes possible to control the vibration so that the number of vibrations of the vibrating part increases with the passage of time. The number of the first vibrating part may be one or a plurality, and the number of the second vibrating parts around the first vibrating part may be one or a plurality. There may be. Further, the periphery of the first vibrating portion may be the periphery of the first vibrating portion in the upward direction, the downward direction, the left direction, the right direction, or the like, or may be the circumference in at least one of these directions. May be good. In addition, the passage of time can be timed by counting processing using a timer.

また制御部118は、被ヒット物のヒットタイミングにおいて、複数の振動部V1~VNのうちの第1の振動部を振動させ、次に、第1の振動部の周囲の第2の振動部を振動させる。即ち、第1の振動部を振動させた後、次の順番において、第1の振動部の周囲の第2の振動部を振動させる。例えばタイマーを用いたカウント処理による時間経過の計時処理を行うことなく、振動させる振動部の順番だけを設定して、設定された順番で振動部を振動させる。このようにすることでも、第1の振動部からその周囲へと振動範囲が広がって行くような振動制御や、振動させる振動部の個数が時間経過に伴い増加して行くような振動制御が可能になる。この場合にも、第1、第2の振動部の個数は、1個であっても複数個であってもよく、第1の振動部の周囲は、第1の振動部の上方向、下方向、左方向、右方向の少なくとも1つの方向での周囲であればよい。 Further, the control unit 118 vibrates the first vibrating unit among the plurality of vibrating units V1 to VN at the hit timing of the hit object, and then vibrates the second vibrating unit around the first vibrating unit. Vibrate. That is, after vibrating the first vibrating portion, the second vibrating portion around the first vibrating portion is vibrated in the following order. For example, only the order of the vibrating parts to be vibrated is set and the vibrating parts are vibrated in the set order without performing the time-lapse timekeeping processing by the counting processing using the timer. By doing so, it is possible to control the vibration so that the vibration range expands from the first vibrating part to the surroundings, and the number of vibrating parts increases with the passage of time. become. Also in this case, the number of the first and second vibrating portions may be one or a plurality, and the periphery of the first vibrating portion is upward and downward of the first vibrating portion. It may be around in at least one direction, a direction, a left direction, and a right direction.

また本実施形態のシミュレーションシステムは、ユーザが身体に装着体を装着してプレイするゲームについてのゲーム処理を行うゲーム処理部115と、複数の振動部V1~VNが設けられる装着体50についての制御を行う制御部118を含み、制御部118は、振動イベントが発生した際に、複数の振動部V1~VNの中から振動させる振動部をランダムに選択する。例えば乱数情報等を発生し、複数の振動部V1~VNの中から振動させる振動部を、乱数情報等に基づいて選択する。ランダムな振動部の選択は、同じ振動部が選択されないようにする選択処理である。例えばランダム選択では、振動イベントが発生した場合に、ユーザの身体が振動に慣れないようにするために、以前とは異なった振動部を振動させる。例えば振動イベントにより第1の振動部が振動した後、次に例えば同じ種類又は内容等の振動イベントが発生した場合に、第1の振動部とは異なる第2の振動部を振動させる。振動させる振動部の選択は、完全なランダム選択である必要はなく、ある程度、ランダム性のあるものであればよい。 Further, the simulation system of the present embodiment controls the game processing unit 115 that performs game processing for a game in which the user wears the wearable body on the body and plays the game, and the wearable body 50 provided with a plurality of vibration units V1 to VN. The control unit 118 randomly selects a vibration unit to be vibrated from a plurality of vibration units V1 to VN when a vibration event occurs. For example, a vibrating unit that generates random number information and vibrates from a plurality of vibrating units V1 to VN is selected based on the random number information and the like. Random selection of vibrating parts is a selection process that prevents the same vibrating parts from being selected. For example, in random selection, when a vibration event occurs, a vibration unit different from the previous one is vibrated in order to prevent the user's body from becoming accustomed to the vibration. For example, when the first vibrating portion vibrates due to a vibration event and then a vibration event of the same type or content occurs, the second vibrating portion different from the first vibrating portion is vibrated. The selection of the vibrating part to be vibrated does not have to be a completely random selection, but may be random to some extent.

例えば制御部118は、振動イベントが発生した場合に、複数の振動部V1~VNのうちの第1の振動部を振動させる。そして次に振動イベントが発生した場合に、複数の振動部V1~VNのうちの第1の振動部とは異なる第2の振動部をランダムに選択して振動させる。即ち、振動イベントが発生して第1の振動部を振動させた後、次に例えば同じ種類又は内容等の振動イベントが発生した場合に、第1の振動部とは異なる第2の振動部が選択されるように、振動部のランダム選択を行う。このようにすれば、同じ種類又は内容の振動イベントであっても、その発生タイミングなどに応じて、異なる振動部が振動するようになる。これにより、ユーザの身体が振動に慣れてしまい、振動部の振動により実現される仮想現実感が低下してしまう事態を防止できるようになる。 For example, the control unit 118 vibrates the first vibration unit among the plurality of vibration units V1 to VN when a vibration event occurs. Then, when a vibration event occurs next, a second vibrating portion different from the first vibrating portion among the plurality of vibrating portions V1 to VN is randomly selected and vibrated. That is, when a vibration event occurs to vibrate the first vibrating portion and then a vibration event of the same type or content occurs, a second vibrating portion different from the first vibrating portion is generated. Random selection of the vibrating part is performed so that it is selected. By doing so, even if the vibration event has the same type or content, different vibration portions will vibrate according to the timing of occurrence or the like. This makes it possible to prevent the user's body from becoming accustomed to the vibration and reducing the virtual reality realized by the vibration of the vibrating portion.

ここで振動イベントは、ユーザ又はユーザに対応するユーザ移動体と被ヒット物とのヒットイベントである。そしてゲーム処理部115は、ユーザ又はユーザ移動体と被ヒット物とのヒット演算処理を行って、ヒット方向及びヒット位置の少なくとも一方を含むヒット情報を求める。例えばヒット演算処理部116がヒット演算処理を行って、ヒット情報を求める。そして制御部118は、ヒットイベントが発生した場合に、ヒット情報に応じて、複数の振動部V1~VNの中から振動させる振動部を選択する。そして振動イベントの種類又は内容に応じて、振動させる振動部の個数又は振動範囲を変化させる。例えば制御部118は、ヒット情報に基づいて第1の振動部を選択し、振動イベントの種類又は内容に応じて、振動させる振動部の個数又は振動範囲が変化するように、第1の振動部の周囲の第2の振動部を選択する。また制御部118は、ヒット情報に基づいて、振動させる振動部の候補を選択する。そして例えば候補となる振動部の中から、振動させる振動部を例えばランダムに選択する。振動部の候補からの選択は、第1の振動部についての選択であってもよいし、第1の振動部の次に振動させる第2の振動部についての選択であってもよい。 Here, the vibration event is a hit event between the user or the user moving body corresponding to the user and the hit object. Then, the game processing unit 115 performs hit calculation processing between the user or the user moving body and the hit object, and obtains hit information including at least one of the hit direction and the hit position. For example, the hit calculation processing unit 116 performs hit calculation processing to obtain hit information. Then, when a hit event occurs, the control unit 118 selects a vibrating unit to vibrate from the plurality of vibrating units V1 to VN according to the hit information. Then, the number or vibration range of the vibrating parts to be vibrated is changed according to the type or content of the vibration event. For example, the control unit 118 selects the first vibration unit based on the hit information, and the first vibration unit changes the number or vibration range of the vibration units to be vibrated according to the type or content of the vibration event. Select a second vibrating part around. Further, the control unit 118 selects a candidate for a vibrating unit to vibrate based on the hit information. Then, for example, the vibrating part to be vibrated is randomly selected from, for example, the candidate vibrating parts. The selection from the candidates for the vibrating portion may be the selection for the first vibrating portion or the selection for the second vibrating portion to be vibrated next to the first vibrating portion.

例えばゲーム処理部115は、ユーザ又はユーザ移動体と被ヒット物とのヒット演算処理を行う。そしてヒット演算処理により、ヒット方向及びヒット位置の少なくとも一方を含むヒット情報を求める。このヒット演算処理はヒット演算処理部116が実行する。被ヒット物は、実空間での被ヒット物(弾、光線等)であってもよい。或いは被ヒット物は、仮想空間において表示されるオブジェクトであってもよいし、仮想空間において非表示の仮想的なオブジェクトであってもよい。被ヒット物は、弾や剣等の攻撃用の被ヒット物であってもよいし、自然体験シミュレーションにおける落石等の被ヒット物であってもよい。また被ヒット物は、実空間に配置される障害物、壁等の配置物や、仮想空間に配置される障害物、壁等の配置オブジェクトであってもよい。 For example, the game processing unit 115 performs hit calculation processing between a user or a user moving body and a hit object. Then, the hit information including at least one of the hit direction and the hit position is obtained by the hit calculation process. This hit calculation process is executed by the hit calculation processing unit 116. The hit object may be a hit object (bullet, ray, etc.) in real space. Alternatively, the hit object may be an object displayed in the virtual space, or may be a virtual object hidden in the virtual space. The hit object may be a hit object for attack such as a bullet or a sword, or may be a hit object such as a rock fall in a nature experience simulation. Further, the hit object may be an obstacle arranged in the real space, an arrangement such as a wall, or an arrangement object such as an obstacle or a wall arranged in the virtual space.

またヒット方向(ヒットベクトル、攻撃方向、攻撃ベクトル)は、例えばユーザ又はユーザ移動体に被ヒット物(他のオブジェクト)がヒットしたときの被ヒット物の移動方向である。例えばヒット方向は、ユーザ又はユーザ移動体に向かって飛翔する被ヒット物の軌道に基づいて特定できる。ヒット位置は、ユーザ又はユーザ移動体に対して被ヒット物がヒットした位置(当たった位置、衝突位置)である。例えばヒット判定処理における交差判定処理での交差位置に基づいてヒット位置を特定できる。またヒット情報は、このようなヒット方向、ヒット位置以外に、ヒット速度、ヒットの強さ又はヒットの属性などの情報を含むことができる。 Further, the hit direction (hit vector, attack direction, attack vector) is, for example, the movement direction of the hit object when the hit object (another object) hits the user or the user moving object. For example, the hit direction can be specified based on the trajectory of the hit object flying toward the user or the user moving object. The hit position is a position (hit position, collision position) at which the hit object hits the user or the user moving object. For example, the hit position can be specified based on the intersection position in the intersection determination process in the hit determination process. In addition to the hit direction and hit position, the hit information can include information such as a hit speed, a hit strength, or a hit attribute.

そして制御部118は、ユーザ又はユーザ移動体と被ヒット物とのヒットイベントが発生した場合に、ヒット情報に基づいて、装着体50の振動部の振動制御を行う。即ちゲーム処理部115(ヒット演算処理部116)が、被ヒット物のヒット方向及びヒット位置の少なくとも一方を含むヒット情報を求め、制御部118は、このヒット情報に基づいて、装着体50の振動部の振動制御を行う。例えばヒット情報に応じて、複数の振動部V1~VNの中から振動させる振動部(振動部の候補等)を決定する。このようにすれば、ヒット演算処理でのヒット情報(ヒット方向、ヒット位置等)を反映させた振動制御を実現できるようになる。 Then, when a hit event occurs between the user or the user moving body and the hit object, the control unit 118 controls the vibration of the vibrating unit of the mounting body 50 based on the hit information. That is, the game processing unit 115 (hit calculation processing unit 116) obtains hit information including at least one of the hit direction and the hit position of the hit object, and the control unit 118 vibrates the mounting body 50 based on this hit information. Controls the vibration of the unit. For example, a vibrating part (candidate for a vibrating part, etc.) to be vibrated is determined from a plurality of vibrating parts V1 to VN according to the hit information. By doing so, it becomes possible to realize vibration control that reflects the hit information (hit direction, hit position, etc.) in the hit calculation process.

なお、ヒット情報を、ヒットイベントが発生した後に求め、求められたヒット情報に基づいて振動制御を行ってもよい。或いは、ヒットイベントが発生する前に、ヒット情報(予測ヒット情報)を事前に求めておいて、ヒットイベントが発生した場合に、事前に求められたヒット情報(予測ヒット情報)に基づいて、振動制御を行ってもよい。 The hit information may be obtained after the hit event has occurred, and vibration control may be performed based on the obtained hit information. Alternatively, hit information (predicted hit information) is obtained in advance before a hit event occurs, and when a hit event occurs, vibration is performed based on the hit information (predicted hit information) obtained in advance. Control may be performed.

また本実施形態では、装着体50の前面部に、少なくとも1つの前面側振動部が設けられ、装着体50の後面部に、少なくとも1つの後面側振動部が設けられる。前面部は、装着体50を装着するユーザの例えば正面側であり、後面部は、装着体50を装着するユーザの例えば背面側である。 Further, in the present embodiment, at least one front side vibrating portion is provided on the front surface portion of the mounting body 50, and at least one rear surface side vibrating portion is provided on the rear surface portion of the mounting body 50. The front surface portion is, for example, the front side of the user who wears the wearing body 50, and the rear surface portion is, for example, the back side of the user who wears the mounting body 50.

そして制御部118は、ヒットイベントが発生した場合に、ヒット情報に基づいて、前面側振動部及び後面側振動部の一方の振動部を振動させた後、前面側振動部及び後面側振動部の他方の振動部を振動させる振動制御を行う。 Then, when a hit event occurs, the control unit 118 vibrates one of the front side vibrating part and the rear side vibrating part based on the hit information, and then the front side vibrating part and the rear side vibrating part. Vibration control is performed to vibrate the other vibrating part.

具体的には制御部118は、ヒット情報に基づいて、被ヒット物がユーザ又はユーザ移動体(装着体)の前面部にヒットしたと判断した場合には、前面側振動部を振動させ、所与の振動間隔の期間経過後に、後面側振動部を振動させる。一方、制御部118は、ヒット情報に基づいて、被ヒット物がユーザ又はユーザ移動体(装着体)の後面部にヒットしたと判断した場合には、後面側振動部を振動させ、所与の振動間隔の期間経過後に、前面側振動部を振動させる。このようにすれば、弾や剣等の他のオブジェクトが、あたかもユーザの身体を貫通したかのような仮想現実感をユーザに与えることが可能になる。 Specifically, when the control unit 118 determines that the hit object has hit the front portion of the user or the user moving body (mounting body) based on the hit information, the control unit 118 vibrates the front side vibrating portion. After the period of the given vibration interval elapses, the rear side vibrating part is vibrated. On the other hand, when the control unit 118 determines that the hit object has hit the rear surface portion of the user or the user moving body (wearing body) based on the hit information, the control unit 118 vibrates the rear surface side vibrating unit to give a given object. After the period of the vibration interval elapses, the front side vibrating part is vibrated. In this way, it is possible to give the user a virtual reality feeling as if other objects such as bullets and swords penetrated the user's body.

また本実施形態のシミュレーションシステムは図1に示すように、仮想空間設定部112と移動体処理部113を更に含むことができる。 Further, as shown in FIG. 1, the simulation system of the present embodiment can further include a virtual space setting unit 112 and a moving body processing unit 113.

仮想空間設定部112は仮想空間の設定処理を行う。例えば、移動体、障害物、背景又はマップのオブジェクトを仮想空間に配置設定する処理を行う。例えば実空間でのユーザの位置情報、方向情報が取得された場合に、取得された位置情報、方向情報に基づいて、ユーザに対応するユーザ移動体(ユーザキャラクタ等)の位置、方向を設定して、仮想空間に配置する処理を行う。オブジェクトであるユーザ移動体の位置、方向等の情報は、例えばオブジェクト情報記憶部172に記憶される。ユーザ移動体は、例えば実空間でユーザの移動に追従して仮想空間(オブジェクト空間)において移動するオブジェクト(表示物)である。ユーザ移動体としては、ユーザに対応するアバター移動体(ユーザキャラクタ、仮想ユーザ)や、アバター移動体が搭乗する搭乗移動体や、アバター移動体が装着する外殻移動体などがある。外殻移動体は、アバター移動体(ゴースト)に重なるように配置されて仮想空間を移動する。外殻移動体は、アバター移動体を内包する移動体であり、ユーザの義体として表現されるものある。 The virtual space setting unit 112 performs a virtual space setting process. For example, a process of arranging and setting a moving object, an obstacle, a background, or a map object in a virtual space is performed. For example, when the user's position information and direction information in real space are acquired, the position and direction of the user moving body (user character, etc.) corresponding to the user are set based on the acquired position information and direction information. Then, the process of arranging in the virtual space is performed. Information such as the position and direction of the user moving object, which is an object, is stored in, for example, the object information storage unit 172. The user moving object is, for example, an object (display object) that moves in a virtual space (object space) following the movement of the user in the real space. Examples of the user moving body include an avatar moving body (user character, virtual user) corresponding to the user, a boarding moving body on which the avatar moving body is boarded, an outer shell moving body worn by the avatar moving body, and the like. The outer shell moving body is arranged so as to overlap the avatar moving body (ghost) and moves in the virtual space. The outer shell moving body is a moving body including an avatar moving body, and is expressed as a user's artificial body.

なお、ゲーム処理に基づく画像が表示される表示部としてHMD200を用いない場合等において、ユーザ移動体は、操作部160からの操作情報に基づいてゲーム空間(仮想空間)を移動するものであってもよい。例えば現実世界のユーザは、表示部の画像を見ながら操作部160を操作してゲームをプレイする。そしてユーザ移動体は、操作部160の操作に応じてゲーム空間を移動する。 When the HMD200 is not used as the display unit on which the image based on the game processing is displayed, the user moving body moves in the game space (virtual space) based on the operation information from the operation unit 160. May be good. For example, a user in the real world operates the operation unit 160 while looking at an image of the display unit to play a game. Then, the user moving body moves in the game space according to the operation of the operation unit 160.

移動体処理部113は、仮想空間を移動するユーザ移動体の移動処理を行う。例えば移動体処理部113は、ユーザに対応するユーザ移動体(アバター移動体、搭乗移動体、外殻移動体)を、情報取得部111により取得されたユーザ情報(位置情報、方向情報)に基づいて、仮想空間において移動させる処理を行う。例えば実空間でのユーザの移動に追従して移動するように、仮想空間でユーザ移動体を移動させる。例えばユーザ移動体の移動速度や移動加速度に基づいて、ユーザ移動体の位置等をフレーム毎に更新する処理を行って、ユーザ移動体を仮想空間(仮想フィールド)において移動させる。また移動体処理部113は、情報取得部111により取得されたユーザ情報(姿勢情報)に基づいて、ユーザ移動体を動作させる処理を行う。例えばモーションデータに基づいて、ユーザ移動体の姿勢等を変化させるモーション処理を行う。 The moving body processing unit 113 performs moving processing of the user moving body moving in the virtual space. For example, the moving body processing unit 113 bases the user moving body (avatar moving body, boarding moving body, outer shell moving body) corresponding to the user based on the user information (position information, direction information) acquired by the information acquisition unit 111. Then, the process of moving in the virtual space is performed. For example, the user moving body is moved in the virtual space so as to follow the movement of the user in the real space. For example, the position of the user moving body is updated for each frame based on the moving speed and the moving acceleration of the user moving body, and the user moving body is moved in the virtual space (virtual field). Further, the moving body processing unit 113 performs a process of operating the user moving body based on the user information (posture information) acquired by the information acquisition unit 111. For example, based on the motion data, motion processing for changing the posture of the user moving body or the like is performed.

表示処理部120は、ゲーム処理の結果に基づいて表示画像を生成する。例えばユーザが装着するHMD200の表示画像を生成する。例えば仮想空間において仮想カメラから見える画像を、表示画像として生成する。例えば仮想カメラ制御部114は、ユーザの視点に対応する仮想カメラの制御処理を行う。例えば仮想カメラ制御部114は、ユーザの一人称視点として設定される仮想カメラの制御を行う。例えば仮想空間において移動する移動体(仮想プレーヤ等)の視点に対応する位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置(位置座標)や姿勢(回転軸回りでの回転角度)を制御する。そして表示処理部120は、HMD200等の表示画像(表示映像)として、仮想空間において仮想カメラ(ユーザ視点)から見える画像を生成する。例えば仮想空間であるオブジェクト空間において所与の視点から見える画像を生成する。生成される画像は例えば立体視用の画像である。 The display processing unit 120 generates a display image based on the result of the game processing. For example, a display image of the HMD 200 worn by the user is generated. For example, an image seen from a virtual camera in a virtual space is generated as a display image. For example, the virtual camera control unit 114 performs control processing of the virtual camera corresponding to the user's viewpoint. For example, the virtual camera control unit 114 controls the virtual camera set as the user's first-person viewpoint. For example, by setting a virtual camera at a position corresponding to the viewpoint of a moving object (virtual player, etc.) moving in a virtual space, and setting the viewpoint position and line-of-sight direction of the virtual camera, the position (position coordinates) of the virtual camera can be set. And posture (rotation angle around the axis of rotation). Then, the display processing unit 120 generates an image that can be seen from a virtual camera (user's viewpoint) in the virtual space as a display image (display image) of the HMD 200 or the like. For example, it generates an image that can be seen from a given viewpoint in an object space that is a virtual space. The generated image is, for example, an image for stereoscopic viewing.

なお以上では、振動イベントが、ユーザ又はユーザ移動体と被ヒット物(他のオブジェクト)とのヒットイベントである場合について説明したが、本実施形態はこれに限定されず、振動イベントは、ヒットイベント以外のイベントであってもよい。振動イベントは、被ヒット物がユーザ又はユーザ移動体にヒットするイベントだけではなく、例えばユーザ又はユーザ移動体から離れた場所で発生する爆発イベント、ユーザ又はユーザ移動体の身体の状態(例えば震える、身体が破壊される等)から発生するイベントなどの種々のイベントを想定できる。 In the above, the case where the vibration event is a hit event between the user or the user moving object and the hit object (another object) has been described, but the present embodiment is not limited to this, and the vibration event is a hit event. It may be an event other than. The vibration event is not only an event in which the hit object hits the user or the user moving body, but also an explosion event occurring at a place away from the user or the user moving body, and a physical condition of the user or the user moving body (for example, trembling). Various events such as events that occur from (such as the destruction of the body) can be assumed.

また本実施形態では、表示処理部120は、ユーザが視界を覆うように装着するHMD200の表示画像を生成している。このように、ユーザが視界を覆うようにHMD200を装着する場合には、装着体の振動部を振動させるような体感装置は、ユーザの仮想現実感の向上のために有効である。 Further, in the present embodiment, the display processing unit 120 generates a display image of the HMD 200 that the user wears so as to cover the field of view. As described above, when the user wears the HMD 200 so as to cover the field of view, a sensory device that vibrates the vibrating portion of the wearer is effective for improving the virtual reality of the user.

但し、表示処理部120は、HMD200以外の表示部の表示画像を生成してもよい。例えば家庭用ゲーム装置におけるテレビ、パーソナルコンピュータや業務用ゲーム装置におけるモニターディプレイなどの表示部の表示画像を生成してもよい。 However, the display processing unit 120 may generate a display image of a display unit other than the HMD 200. For example, a display image of a display unit such as a television in a home-use game device, a monitor display in a personal computer or an arcade game machine may be generated.

また制御部118は、装着体50の振動制御に応じた演出処理を行う。例えば装着体50の振動部の振動制御に連動して、ゲーム音での効果音の演出処理を行ったり、ゲーム画像での演出画像の生成処理を行う。例えば振動させる振動部の個数、振動させる振動部の範囲、或いは振動のタイミングに合わせて、効果音を出力したり、演出画像を表示する。例えば振動部の個数が多いほど、或いは振動部の範囲が広いほど、振動に伴い出力される効果音の音量を大きくしたり、より演出効果の高い演出画像を表示する。また第1の振動部を第1のタイミングで振動させた後、第2のタイミングで第2の振動部を振動させる場合に、これらの第1、第2のタイミングにおいて、対応する効果音を出力したり、演出画像を表示する。例えば振動部の各振動制御に対して、効果音や演出画像を対応づけて記憶部170に記憶しておき、制御部118は、各振動制御に対応づけた効果音を出力したり、演出画像を表示する制御を行うようにする。このようにすることで、振動部の振動制御に連動した効果音の出力や演出画像の表示が可能になり、より演出効果の高い振動制御を実現できるようになる。 Further, the control unit 118 performs an effect process according to the vibration control of the mounting body 50. For example, in conjunction with the vibration control of the vibrating portion of the mounting body 50, the effect sound effect processing of the game sound is performed, or the effect image generation process of the game image is performed. For example, a sound effect is output or an effect image is displayed according to the number of vibrating parts to be vibrated, the range of vibrating parts to be vibrated, or the timing of vibration. For example, the larger the number of vibrating portions or the wider the range of vibrating portions, the louder the volume of the sound effect output due to the vibration, or the higher the staging effect is displayed. Further, when the first vibrating portion is vibrated at the first timing and then the second vibrating portion is vibrated at the second timing, the corresponding sound effects are output at these first and second timings. Or display a sound effect image. For example, a sound effect and an effect image are associated with each vibration control of the vibration unit and stored in the storage unit 170, and the control unit 118 outputs a sound effect associated with each vibration control or an effect image. To control the display of. By doing so, it becomes possible to output a sound effect linked to the vibration control of the vibrating portion and display a staging image, and it becomes possible to realize a vibration control having a higher staging effect.

また本実施形態では情報取得部111は、例えば視界を覆うようにHMD200を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する。例えば情報取得部111は、HMD200のトラッキング情報などに基づいて、実空間でのユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報(ユーザトラッキング情報)を取得する。位置情報は、実空間でのユーザの視点の位置情報であってもよく、方向情報は、実空間でのユーザの視線の方向情報であってもよい。位置情報、方向情報は、ユーザが実空間(現実世界)のフィールド(プレイフィールド、シミュレーションフィールド、プレイエリア)に位置する場合に、そのフィールドでの位置情報、方向情報(所与の位置を原点とする座標系での位置座標、各座標軸回りでの回転角度)であってもよい。姿勢情報は、ユーザの各姿勢(立ち姿勢、しゃがみ姿勢又は座り姿勢等)を特定したり、或いはユーザの各部位(胴体、頭、手又は足等)の位置、方向を特定するための情報である。例えば情報取得部111は、HMD200の位置情報、方向情報を、当該HMD200を装着するユーザの位置情報、方向情報として取得してもよい。 Further, in the present embodiment, the information acquisition unit 111 acquires user information including at least one of position information, direction information, and posture information of a user who wears the HMD 200 so as to cover the field of view, for example. For example, the information acquisition unit 111 acquires user information (user tracking information) including at least one of the user's position information, direction information, and posture information in the real space based on the tracking information of the HMD 200 and the like. The position information may be the position information of the user's viewpoint in the real space, and the direction information may be the direction information of the user's line of sight in the real space. When the user is located in a field (play field, simulation field, play area) in the real space (real world), the position information and the direction information are the position information and the direction information (with the given position as the origin) in the field. It may be the position coordinates in the coordinate system to be used, the rotation angle around each coordinate axis). Posture information is information for specifying each posture of the user (standing posture, crouching posture, sitting posture, etc.), or specifying the position and direction of each part (torso, head, hands, feet, etc.) of the user. be. For example, the information acquisition unit 111 may acquire the position information and direction information of the HMD 200 as the position information and direction information of the user who wears the HMD 200.

また仮想カメラ制御部114は、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御する。 Further, the virtual camera control unit 114 controls the virtual camera so as to follow the change in the viewpoint of the user based on the tracking information of the viewpoint information of the user.

例えば入力処理部102(入力受け付け部)は、HMD200を装着するユーザの視点情報のトラッキング情報を取得する。例えばユーザの視点位置、視線方向の少なくとも1つである視点情報のトラッキング情報(視点トラッキング情報)を取得する。このトラッキング情報は、例えばHMD200のトラッキング処理を行うことで取得できる。なおトラッキング処理によりユーザの視点位置、視線方向を直接に取得するようにしてもよい。一例としては、トラッキング情報は、ユーザの初期視点位置からの視点位置の変化情報(視点位置の座標の変化値)、及び、ユーザの初期視線方向からの視線方向の変化情報(視線方向の回転軸回りでの回転角度の変化値)の少なくとも一方を含むことができる。このようなトラッキング情報が含む視点情報の変化情報に基づいて、ユーザの視点位置や視線方向(ユーザの頭部の位置、姿勢の情報)を特定できる。 For example, the input processing unit 102 (input receiving unit) acquires tracking information of the viewpoint information of the user who wears the HMD 200. For example, the tracking information (viewpoint tracking information) of the viewpoint information which is at least one of the viewpoint position and the line-of-sight direction of the user is acquired. This tracking information can be acquired, for example, by performing tracking processing of the HMD200. It should be noted that the user's viewpoint position and line-of-sight direction may be directly acquired by the tracking process. As an example, the tracking information includes change information of the viewpoint position from the initial viewpoint position of the user (change value of the coordinates of the viewpoint position) and change information of the line-of-sight direction from the initial line-of-sight direction of the user (rotation axis in the line-of-sight direction). It can include at least one of (changes in rotation angle around). The user's viewpoint position and line-of-sight direction (information on the position of the user's head and posture) can be specified based on the change information of the viewpoint information included in such tracking information.

そして仮想カメラ制御部114は、取得されたトラッキング情報(ユーザの視点位置及び視線方向の少なくとも一方の情報)に基づいて仮想カメラの視点位置、視線方向を変化させる。例えば、仮想カメラ制御部114は、実空間でのユーザの視点位置、視線方向の変化に応じて、仮想空間での仮想カメラの視点位置、視線方向(位置、姿勢)が変化するように、仮想カメラを設定する。このようにすることで、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御できる。 Then, the virtual camera control unit 114 changes the viewpoint position and the line-of-sight direction of the virtual camera based on the acquired tracking information (information on at least one of the user's viewpoint position and the line-of-sight direction). For example, the virtual camera control unit 114 virtually changes the viewpoint position and the line-of-sight direction (position, posture) of the virtual camera in the virtual space according to the change in the viewpoint position and the line-of-sight direction of the user in the real space. Set the camera. By doing so, it is possible to control the virtual camera so as to follow the change in the viewpoint of the user based on the tracking information of the viewpoint information of the user.

また本実施形態では、ユーザがプレイするゲームのゲーム処理として、仮想現実のシミュレーション処理を行う。仮想現実のシミュレーション処理は、実空間での事象を仮想空間で模擬するためのシミュレーション処理であり、当該事象をユーザに仮想体験させるための処理である。例えば実空間のユーザに対応するアバター移動体(仮想ユーザ)やその搭乗移動体などのユーザ移動体を、仮想空間で移動させたり、移動に伴う環境や周囲の変化をユーザに体感させるための処理を行う。 Further, in the present embodiment, virtual reality simulation processing is performed as game processing of the game played by the user. The virtual reality simulation process is a simulation process for simulating an event in a real space in a virtual space, and is a process for allowing a user to experience the event virtually. For example, a process for moving a user moving body such as an avatar moving body (virtual user) corresponding to a user in the real space or a boarding moving body in the virtual space, and for the user to experience changes in the environment and surroundings due to the movement. I do.

なお図1の本実施形態のシミュレーションシステムの処理は、施設に設置されるPC等の処理装置、ユーザが装着する処理装置、或いはこれらの処理装置の分散処理などにより実現できる。或いは、本実施形態のシミュレーションシステムの処理を、サーバシステムと端末装置により実現してもよい。例えばサーバシステムと端末装置の分散処理などにより実現してもよい。 The processing of the simulation system of the present embodiment of FIG. 1 can be realized by a processing device such as a PC installed in a facility, a processing device worn by a user, or distributed processing of these processing devices. Alternatively, the processing of the simulation system of the present embodiment may be realized by the server system and the terminal device. For example, it may be realized by distributed processing of a server system and a terminal device.

2.トラッキング処理
次にトラッキング処理の例について説明する。図2(A)に本実施形態のシミュレーションシステムに用いられるHMD200の一例を示す。図2(A)に示すようにHMD200には複数の受光素子201、202、203(フォトダイオード)が設けられている。受光素子201、202はHMD200の前面部に設けられ、受光素子203はHMD200の左側面に設けられている。またHMDの右側面、上面等にも不図示の受光素子が設けられている。
2. 2. Tracking process Next, an example of tracking process will be described. FIG. 2A shows an example of the HMD200 used in the simulation system of the present embodiment. As shown in FIG. 2A, the HMD 200 is provided with a plurality of light receiving elements 201, 202, 203 (photodiodes). The light receiving elements 201 and 202 are provided on the front surface of the HMD 200, and the light receiving elements 203 are provided on the left side surface of the HMD 200. Further, a light receiving element (not shown) is also provided on the right side surface, the upper surface, and the like of the HMD.

またユーザUSは、現実世界の銃を模したガン型コントローラ290を所持しており、このガン型コントローラ290にも、受光素子204、205(フォトダイオード)が設けられている。これらの受光素子204、205を用いることで、ガン型コントローラ290の位置や方向を特定できる。またガン型コントローラ290には、銃の引き金のスイッチが設けられており、このスイッチを操作することで、仮想空間の移動体が銃を発砲する。なおガン型コントローラ290には少なくとも1つの受光素子が設けられていればよい。 Further, the user US possesses a gun-type controller 290 that imitates a gun in the real world, and the gun-type controller 290 is also provided with light receiving elements 204 and 205 (photodiodes). By using these light receiving elements 204 and 205, the position and direction of the gun type controller 290 can be specified. Further, the gun type controller 290 is provided with a switch for triggering a gun, and by operating this switch, a moving body in a virtual space fires a gun. The gun type controller 290 may be provided with at least one light receiving element.

またHMD200には、ヘッドバンド260等が設けられており、ユーザUSは、より良い装着感で安定的に頭部にHMD200を装着できるようになっている。また、HMD200には、不図示のヘッドホン端子が設けられており、このヘッドホン端子にヘッドホン270(音出力部192)を接続することで、例えば3次元音響(3次元オーディオ)の処理が施されたゲーム音を、ユーザUSは聴くことが可能になる。なお、ユーザUSの頭部の頷き動作や首振り動作をHMD200のセンサ部210等により検出することで、ユーザUSの操作情報を入力できるようにしてもよい。 Further, the HMD200 is provided with a headband 260 and the like so that the user US can stably attach the HMD200 to the head with a better wearing feeling. Further, the HMD 200 is provided with a headphone terminal (not shown), and by connecting the headphone 270 (sound output unit 192) to the headphone terminal, for example, 3D sound (3D audio) processing is performed. The user US can listen to the game sound. It should be noted that the operation information of the user US may be input by detecting the nodding motion and the swinging motion of the head of the user US by the sensor unit 210 or the like of the HMD 200.

またユーザUSは、処理装置250を例えば背中に装着している。例えばユーザUSはジャケット(ベスト)を着ており、このジャケットの背面側に処理装置250が取り付けられている。処理装置250は例えばノート型PC等の情報処理装置により実現される。そしてこの処理装置250とHMD200はケーブル252により接続されている。例えば処理装置250は、HMD200に表示される画像(ゲーム画像等)の生成処理を行い、生成された画像のデータがケーブル252を介してHMD200に送られ、HMD200に表示される。この処理装置250は、このような画像の生成処理以外にも、本実施形態の各処理(情報取得処理、仮想空間設定処理、移動体処理、仮想カメラ制御処理、ゲーム処理、制御処理、表示処理又は音処理等)を行うことが可能になっている。なお、本実施形態の各処理を、施設に設置されたPC等の処理装置(不図示)により実現したり、当該処理装置と、ユーザUSが装着する処理装置250の分散処理により実現してもよい。 The user US also wears the processing device 250, for example, on his back. For example, the user US wears a jacket (vest), and a processing device 250 is attached to the back side of the jacket. The processing device 250 is realized by an information processing device such as a notebook PC. The processing device 250 and the HMD 200 are connected by a cable 252. For example, the processing device 250 performs a generation process of an image (game image or the like) displayed on the HMD 200, and the data of the generated image is sent to the HMD 200 via the cable 252 and displayed on the HMD 200. In addition to such image generation processing, the processing device 250 has each processing (information acquisition processing, virtual space setting processing, moving object processing, virtual camera control processing, game processing, control processing, display processing) of the present embodiment. Or sound processing, etc.) can be performed. Even if each process of the present embodiment is realized by a processing device (not shown) such as a PC installed in the facility, or by distributed processing of the processing device and the processing device 250 mounted by the user US. good.

図2(B)に示すように、ユーザUSの周辺には、ベースステーション280、284が設置されている。ベースステーション280には発光素子281、282が設けられ、ベースステーション284には発光素子285、286が設けられている。発光素子281、282、285、286は、例えばレーザー(赤外線レーザー等)を出射するLEDにより実現される。ベースステーション280、284は、これら発光素子281、282、285、286を用いて、例えばレーザーを放射状に出射する。そして図2(A)のHMD200に設けられた受光素子201~203等が、ベースステーション280、284からのレーザーを受光することで、HMD200のトラッキングが実現され、ユーザUSの頭の位置や向く方向(視点位置、視線方向)を検出できるようになる。またガン型コントローラ290に設けられる受光素子204、205が、ベースステーション280、284からのレーザーを受光することで、ガン型コントローラ290の位置及び方向の少なくとも一方を検出できるようになる。 As shown in FIG. 2B, base stations 280 and 284 are installed around the user US. The base station 280 is provided with light emitting elements 281 and 282, and the base station 284 is provided with light emitting elements 285 and 286. The light emitting elements 281, 282, 285, and 286 are realized by, for example, an LED that emits a laser (infrared laser or the like). The base stations 280 and 284 use these light emitting elements 281, 282, 285, and 286 to emit, for example, a laser radially. Then, the light receiving elements 201 to 203 and the like provided in the HMD200 of FIG. 2A receive the laser from the base stations 280 and 284, thereby realizing the tracking of the HMD200, and the position and the direction of the head of the user US. (Viewpoint position, line-of-sight direction) can be detected. Further, the light receiving elements 204 and 205 provided in the gun type controller 290 can detect at least one of the position and the direction of the gun type controller 290 by receiving the laser from the base stations 280 and 284.

図3(A)にHMD200の他の例を示す。図3(A)では、HMD200に対して複数の発光素子231~236が設けられている。これらの発光素子231~236は例えばLEDなどにより実現される。発光素子231~234は、HMD200の前面部に設けられ、発光素子235や不図示の発光素子236は、背面側に設けられる。これらの発光素子231~236は、例えば可視光の帯域の光を出射(発光)する。具体的には発光素子231~236は、互いに異なる色の光を出射する。またユーザUSが所持するガン型コントローラ290にも、発光素子237、238(LED)が設けられている。なおガン型コントローラ290には少なくとも1つの発光素子が設けられていればよい。 FIG. 3A shows another example of the HMD200. In FIG. 3A, a plurality of light emitting elements 231 to 236 are provided for the HMD 200. These light emitting elements 231 to 236 are realized by, for example, LEDs. The light emitting elements 231 to 234 are provided on the front surface of the HMD 200, and the light emitting element 235 and the light emitting element 236 (not shown) are provided on the back surface side. These light emitting elements 231 to 236 emit (emit) light in the visible light band, for example. Specifically, the light emitting elements 231 to 236 emit light of different colors from each other. Further, the gun type controller 290 owned by the user US is also provided with light emitting elements 237 and 238 (LED). The gun type controller 290 may be provided with at least one light emitting element.

そして図3(B)に示す撮像部150を、ユーザUSの周囲の少なくとも1つの場所(例えば前方側、或いは前方側及び後方側など)に設置し、この撮像部150により、HMD200の発光素子231~236の光を撮像する。即ち、撮像部150の撮像画像には、これらの発光素子231~236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、ユーザUSの頭部(HMD)のトラッキングを実現する。即ちユーザUSの頭部の3次元位置や向く方向(視点位置、視線方向)を検出する。 Then, the image pickup unit 150 shown in FIG. 3B is installed at at least one place around the user US (for example, the front side or the front side and the rear side), and the light emitting element 231 of the HMD 200 is provided by the image pickup unit 150. The light of ~ 236 is imaged. That is, the spot light of these light emitting elements 231 to 236 is reflected in the image captured by the image pickup unit 150. Then, by performing image processing of this captured image, tracking of the head (HMD) of the user US is realized. That is, the three-dimensional position and the facing direction (viewpoint position, line-of-sight direction) of the head of the user US are detected.

例えば図3(B)に示すように撮像部150には第1、第2のカメラ151、152が設けられており、これらの第1、第2のカメラ151、152の第1、第2の撮像画像を用いることで、ユーザUSの頭部の奥行き方向での位置等が検出可能になる。またHMD200に設けられたモーションセンサのモーション検出情報に基づいて、ユーザUSの頭部の回転角度(視線)も検出可能になっている。従って、このようなHMD200を用いることで、ユーザUSが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想空間(仮想3次元空間)での画像(ユーザの視点に対応する仮想カメラから見える画像)を、HMD200の表示部220に表示することが可能になる。 For example, as shown in FIG. 3B, the image pickup unit 150 is provided with the first and second cameras 151 and 152, and the first and second cameras 151 and 152 of these first and second cameras 151 and 152 are provided. By using the captured image, the position of the head of the user US in the depth direction and the like can be detected. Further, the rotation angle (line of sight) of the head of the user US can be detected based on the motion detection information of the motion sensor provided in the HMD 200. Therefore, by using such an HMD200, no matter which direction the user US faces in all directions of 360 degrees around it, an image (of the user) in the corresponding virtual space (virtual three-dimensional space) is used. The image seen from the virtual camera corresponding to the viewpoint) can be displayed on the display unit 220 of the HMD 200.

また撮像部150により、ガン型コントローラ290の発光素子237、238の光を撮像する。即ち、撮像部150の撮像画像には、発光素子237、238のスポット光が映り、この撮像画像の画像処理を行うことで、HMD200の場合と同様に、ガン型コントローラ290の位置及び方向の少なくとも一方を検出できる。 Further, the image pickup unit 150 captures the light of the light emitting elements 237 and 238 of the gun type controller 290. That is, the spot light of the light emitting element 237 and 238 is reflected in the image captured by the image pickup unit 150, and by performing the image processing of this image, at least the position and direction of the gun type controller 290 are as in the case of the HMD 200. One can be detected.

なお、発光素子231~238として、可視光ではなく赤外線のLEDを用いてもよい。また、例えばデプスカメラ等を用いるなどの他の手法で、ユーザの頭部の位置や動き等を検出するようにしてもよい。 Infrared LEDs may be used as the light emitting elements 231 to 238 instead of visible light. Further, the position and movement of the user's head may be detected by another method such as using a depth camera or the like.

また、ユーザの視点位置、視線方向(ユーザの位置、方向)を検出するトラッキング処理の手法は、図2(A)~図3(B)で説明した手法には限定されない。例えばHMD200に設けられたモーションセンサ等を用いて、HMD200の単体でトラッキング処理を実現してもよい。即ち、図2(B)のベースステーション280、284、図3(B)の撮像部150などの外部装置を設けることなく、トラッキング処理を実現する。或いは、公知のアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの種々の視点トラッキング手法により、ユーザの視点位置、視線方向などの視点情報等を検出してもよい。またガン型コントローラ290の位置、方向の検出を、ガン型コントローラ290に設けられたモーションセンサを用いて実現してもよい。 Further, the tracking processing method for detecting the user's viewpoint position and line-of-sight direction (user's position and direction) is not limited to the methods described in FIGS. 2A to 3B. For example, the tracking process may be realized by the HMD 200 alone by using a motion sensor or the like provided in the HMD 200. That is, the tracking process is realized without providing an external device such as the base station 280 and 284 of FIG. 2 (B) and the image pickup unit 150 of FIG. 3 (B). Alternatively, viewpoint information such as the user's viewpoint position and line-of-sight direction may be detected by various viewpoint tracking methods such as known eye tracking, face tracking, or head tracking. Further, the position and direction of the gun type controller 290 may be detected by using the motion sensor provided in the gun type controller 290.

また図2(A)、図3(A)では、ユーザUSは、図1の装着体50の一例であるジャケット52を身体に装着している。後述の図9(A)、図9(B)に示すようにジャケット52(広義には装着体)には複数の振動部(VF1~VF9、VB1~VB9)が設けられている。 Further, in FIGS. 2A and 3A, the user US wears the jacket 52, which is an example of the wearing body 50 of FIG. 1, on the body. As shown in FIGS. 9 (A) and 9 (B) described later, the jacket 52 (mounted body in a broad sense) is provided with a plurality of vibrating portions (VF1 to VF9, VB1 to VB9).

3.本実施形態の手法
次に本実施形態の手法について詳細に説明する。なお、以下では本実施形態の手法を、対戦ゲームに適用した場合を主に例にとり説明する。但し、本実施形態はこれに限定されず、種々のゲーム(RPG、アクションゲーム、競争ゲーム、スポーツゲーム、ホラー体験ゲーム、電車や飛行機等の乗り物のシミュレーションゲーム、パズルゲーム、コミュニケーションゲーム、或いは音楽ゲーム等)に適用でき、ゲーム以外にも適用可能である。また以下では、HMDにゲーム画像が表示されるシミュレーションシステムに本実施形態の手法を適用した場合を主に例にとり説明するが、HMD以外の表示部にゲーム画像が表示されるシミュレーションシステムに対して本実施形態の手法は適用可能である。また後述の図22に示すように、ユーザに対してゲーム画像を表示しないタイプのシミュレーションシステムに対しても本実施形態の手法は適用可能である。例えば以下では、仮想空間(ゲーム空間)のユーザ移動体に対して被ヒット物がヒットする場合について説明するが、図22のように実空間のユーザに対して弾等の被ヒット物がヒットするようなゲームにおいても本実施形態の手法は適用可能である。また以下では、ユーザ移動体が、ユーザのアバター移動体(仮想ユーザ、ユーザキャラクタ)である場合を例にとり説明するが、ユーザ移動体は、ユーザが搭乗する搭乗移動体(例えばロボット、戦車、戦闘機又は車等)などであってもよい。
3. 3. The method of the present embodiment Next, the method of the present embodiment will be described in detail. In the following, the case where the method of this embodiment is applied to a battle game will be mainly described as an example. However, this embodiment is not limited to this, and various games (RPG, action game, competition game, sports game, horror experience game, vehicle simulation game such as train and airplane, puzzle game, communication game, or music game. Etc.), and can be applied to other than games. Further, in the following, the case where the method of the present embodiment is applied to the simulation system in which the game image is displayed on the HMD will be mainly described as an example, but for the simulation system in which the game image is displayed on the display unit other than the HMD. The method of this embodiment is applicable. Further, as shown in FIG. 22 described later, the method of the present embodiment can be applied to a simulation system of a type that does not display a game image to a user. For example, in the following, a case where a hit object hits a user moving object in a virtual space (game space) will be described, but as shown in FIG. 22, a hit object such as a bullet hits a user in the real space. The method of this embodiment can be applied to such a game. Further, in the following, the case where the user moving body is a user's avatar moving body (virtual user, user character) will be described as an example, but the user moving body is a boarding moving body (for example, a robot, a tank, a battle) on which the user is boarded. It may be a machine, a car, etc.).

3.1 ゲームの説明
まず本実施形態により実現されるゲームについて説明する。図4~図6は本実施形態により実現されるガンシューティングゲーム(FPSゲーム)の説明図である。
3.1 Description of the game First, the game realized by the present embodiment will be described. 4 to 6 are explanatory views of a gun shooting game (FPS game) realized by the present embodiment.

図4は、本実施形態のシミュレーションシステムで用いられるフィールドの説明図である。このシミュレーションシステムでは、現実世界の施設等にフィールドFL(プレイフィールド、プレイエリア、プレイ空間)が用意され、ユーザUS1~US4はこのフィールドFLにおいて移動する。フィールドFLには、壁等により実現される仕切りWLが設けられている。 FIG. 4 is an explanatory diagram of a field used in the simulation system of the present embodiment. In this simulation system, a field FL (play field, play area, play space) is prepared in a facility or the like in the real world, and users US1 to US4 move in this field FL. The field FL is provided with a partition WL realized by a wall or the like.

ユーザUS1~US4は、HMD1~HMD4を装着すると共にガン型コントローラGN1~GN4(広義にはコントローラ)を所持している。またユーザUS1~US4は、図2(A)で説明したような処理装置250(不図示)を例えば背中に装着している。これらのユーザUS1~US4は、例えばチーム対戦ゲームのためにチーム(広義にはグループ)を組んでいる。HMD1~HMD4には仮想空間での映像が映し出されており、ユーザUS1~US4は、この映像を見ながら対戦ゲーム等のゲームをプレイする。例えばHMD1~HMD4が非透過型のHMDである場合には、ユーザUS1~US4の視界がHMD1~HMD4により覆われるため、現実世界の様子を見ることが困難になる。このため、例えばユーザUS1の背後に位置するユーザUS2がユーザUS1にぶつかってしまうなどの問題が生じる。 Users US1 to US4 are equipped with HMD1 to HMD4 and possess gun-type controllers GN1 to GN4 (controllers in a broad sense). Further, the users US1 to US4 are equipped with a processing device 250 (not shown) as described with reference to FIG. 2A, for example, on their backs. These users US1 to US4 form a team (group in a broad sense) for, for example, a team battle game. An image in a virtual space is projected on HMD1 to HMD4, and users US1 to US4 play a game such as a battle game while watching this image. For example, when the HMD1 to HMD4 are opaque HMDs, the field of view of the users US1 to US4 is covered by the HMD1 to HMD4, which makes it difficult to see the state of the real world. For this reason, there arises a problem that, for example, the user US2 located behind the user US1 collides with the user US1.

ゲームプレイの開始前に、ユーザは、自身の分身となるユーザ移動体(アバター)を選択する。例えば図5(A)は、実空間(現実世界)のユーザUS1、US2を示しており、ユーザUS1、US2は、HMD1、HMD2を装着すると共にガン型コントローラGN1、GN2を所持している。 Prior to the start of gameplay, the user selects a user moving object (avatar) to be his or her alter ego. For example, FIG. 5A shows users US1 and US2 in real space (real world), and users US1 and US2 are equipped with HMD1 and HMD2 and possess gun type controllers GN1 and GN2.

またユーザUS1、US2は、後述の図9(A)、図9(B)に示すようなジャケット52(装着体)を身体に装着している。 Further, the users US1 and US2 wear a jacket 52 (wearing body) as shown in FIGS. 9A and 9B described later on their bodies.

これに対して仮想空間においては、ユーザUS1、US2の分身となるユーザ移動体MV1、MV2が登場する。これらのユーザ移動体MV1、MV2は、ゲームのキャラクタの装備品や着衣を装着している。例えば義体と呼ばれる外殻移動体を装備している。またユーザ移動体MV1、MV2は、実空間のガン型コントローラGN1、GN2に対応する銃GV1、GV2(銃の表示物)を所持している。実空間のユーザUS1、US2が、ガン型コントローラGN1、GN2を上下左右に動かすと、仮想空間(仮想世界)のユーザ移動体MV1、MV2が、銃GV1、GV2を上下左右に動かすことになる。 On the other hand, in the virtual space, the user moving bodies MV1 and MV2, which are the alter ego of the users US1 and US2, appear. These user moving objects MV1 and MV2 are equipped with equipment and clothes of the character of the game. For example, it is equipped with an outer shell moving body called a prosthetic body. Further, the user moving objects MV1 and MV2 possess guns GV1 and GV2 (gun displays) corresponding to the gun type controllers GN1 and GN2 in the real space. When the users US1 and US2 in the real space move the gun type controllers GN1 and GN2 up and down and left and right, the user moving bodies MV1 and MV2 in the virtual space (virtual world) move the guns GV1 and GV2 up and down and left and right.

図6は本実施形態により生成されるゲーム画像の例である。このゲーム画像は各ユーザが装着するHMDに表示される。例えば図6は、図5(A)のユーザUS1のHMD1に表示されるゲーム画像の例であり、ユーザUS1のユーザ移動体MV1の手や所持する銃GV1(銃オブジェクト)が表示されている。また味方チームのユーザUS2、US3に対応するユーザ移動体MV2、MV3や、敵チームのユーザに対応する敵移動体MB1、MB2、MB3が表示されている。味方チームのユーザ移動体MV1、MV2、MV3は、所持する銃GV1、GV2、GV3により敵側に対して攻撃を行い、敵チームの敵移動体MB1、MB2、MB3は、所持する銃GB1、GB2、GB3により攻撃を行う。 FIG. 6 is an example of a game image generated by this embodiment. This game image is displayed on the HMD worn by each user. For example, FIG. 6 is an example of a game image displayed on the HMD1 of the user US1 of FIG. 5A, and the hand of the user mobile body MV1 of the user US1 and the gun GV1 (gun object) possessed by the user US1 are displayed. Further, the user moving bodies MV2 and MV3 corresponding to the users US2 and US3 of the ally team and the enemy moving bodies MB1, MB2 and MB3 corresponding to the users of the enemy team are displayed. The user mobile bodies MV1, MV2, MV3 of the ally team attack the enemy side with the possessed guns GV1, GV2, GV3, and the enemy mobile bodies MB1, MB2, MB3 of the enemy team possess the guns GB1, GB2. , Attack with GB3.

図7、図8は本実施形態により実現される剣ゲームの説明図である。図7に示すようにユーザUSは、視界を覆うようにHMD200を装着する。そして例えば右手で剣型コントローラ10を持ち、左手でコントローラ80を持つ。具体的にはユーザUSは、右手で把持部20(持ち手)を持つことで、剣のように剣型コントローラ10を持つことになる。 7 and 8 are explanatory views of the sword game realized by the present embodiment. As shown in FIG. 7, the user US wears the HMD 200 so as to cover the field of view. Then, for example, the sword-shaped controller 10 is held in the right hand and the controller 80 is held in the left hand. Specifically, the user US holds the sword-shaped controller 10 like a sword by holding the grip portion 20 (handle) with the right hand.

剣型コントローラ10には、先端部と把持部20との間に、反動及び振動の少なくとも一方を発生する発生機構30が設けられている。また後端部と把持部20の間に、振動を発生する発生機構60が設けられている。また剣型コントローラ10の先端部には、剣型コントローラ10の位置情報や姿勢情報を検出するためのコントローラ70が取り付けられている。 The sword-shaped controller 10 is provided with a generation mechanism 30 that generates at least one of recoil and vibration between the tip portion and the grip portion 20. Further, a generation mechanism 60 for generating vibration is provided between the rear end portion and the grip portion 20. Further, a controller 70 for detecting the position information and the posture information of the sword-shaped controller 10 is attached to the tip of the sword-shaped controller 10.

発生機構30は、錘32と受け部34を含む。そして発生機構30は、錘32を受け部34に衝突させることで、反動(反力)を発生する。またこの反動の発生に伴い、振動も発生させることができる。反動は、例えば他に力や作用を及ぼしたときにその反作用で押し返されることである。例えば本実施形態では、ユーザが実空間において剣型コントローラ10を持って、剣で振る動作を行う。そして仮想空間において、その剣に対応する剣のオブジェクトが敵移動体等の他のオブジェクトにヒットすると、そのヒットについての仮想的な反動が、発生機構30により実現される。例えば剣がヒットした方向とは反対方向の反力が働いたかのようにユーザが感じることができる反動を、発生機構30が発生する。これにより反力があたかも生じたかのようにユーザは感じることができ、剣のヒットによる仮想的な反動の発生を実現できる。 The generation mechanism 30 includes a weight 32 and a receiving portion 34. Then, the generation mechanism 30 generates a reaction (reaction force) by colliding the weight 32 with the receiving portion 34. In addition, vibration can be generated along with the occurrence of this reaction. Reaction is, for example, being pushed back by the reaction when another force or action is applied. For example, in the present embodiment, the user holds the sword-shaped controller 10 in a real space and swings it with a sword. Then, in the virtual space, when the object of the sword corresponding to the sword hits another object such as an enemy moving object, a virtual recoil about the hit is realized by the generation mechanism 30. For example, the generation mechanism 30 generates a reaction that the user can feel as if a reaction force in the direction opposite to the direction in which the sword hits is applied. As a result, the user can feel as if the reaction force was generated, and the virtual reaction generated by the hit of the sword can be realized.

なお振動を発生する発生機構60は、トランスデューサーを有しており、発生機構30の反動の発生に時間的に遅れて、発生機構60による振動が発生する。また剣型コントローラ10、コントローラ80の位置情報や姿勢情報は、図2(A)~図3(B)等で説明したトラッキング処理などにより取得される。またユーザUSは後述の図9(A)、図9(B)で説明するようなジャケット52(装着体)を身体に装着している。 The generation mechanism 60 that generates vibration has a transducer, and vibration by the generation mechanism 60 is generated with a time delay from the generation of the reaction of the generation mechanism 30. Further, the position information and the posture information of the sword-shaped controller 10 and the controller 80 are acquired by the tracking process described with reference to FIGS. 2 (A) to 3 (B) and the like. Further, the user US wears a jacket 52 (wearing body) as described with reference to FIGS. 9 (A) and 9 (B) described later on the body.

図8はHMD200の表示されるゲーム画像の例である。ゲーム画像には敵移動体OBE(敵キャラクタ)や、敵移動体OBEが持つ剣SWE、盾SLEや、背景などのオブジェクトが表示されている。またユーザUSに対応するユーザ移動体(ユーザキャラクタ、アバタ)の右の手HR、左の手HLや、右の手HRが持つ剣SWや、左の手HLが持つ盾SLなどのオブジェクトも表示されている。 FIG. 8 is an example of a displayed game image of the HMD200. Objects such as the enemy moving object OBE (enemy character), the sword SWE, the shield SLE, and the background of the enemy moving object OBE are displayed in the game image. In addition, objects such as the right hand HR and left hand HL of the user moving object (user character, avatar) corresponding to the user US, the sword SW of the right hand HR, and the shield SL of the left hand HL are also displayed. Has been done.

例えば図7の実空間においてユーザUSが右の手で持っている剣型コントローラ10を動かすと、その動きに連動して、図8の仮想空間での右の手HRや剣SWも動くようになる。また図7の実空間においてユーザUSが左の手で持っているコントローラ80を動かすと、その動きに連動して、図8の仮想空間での左の手HLや盾SLも動くようになる。即ち、実空間の剣型コントローラ10は仮想空間の剣SWに対応し、実空間のコントローラ80は仮想空間の盾SLに対応することになる。 For example, when the user US moves the sword-shaped controller 10 held by the right hand in the real space of FIG. 7, the right hand HR and the sword SW in the virtual space of FIG. 8 also move in conjunction with the movement. Become. Further, when the user US moves the controller 80 held by the left hand in the real space of FIG. 7, the left hand HL and the shield SL in the virtual space of FIG. 8 also move in conjunction with the movement. That is, the sword-shaped controller 10 in the real space corresponds to the sword SW in the virtual space, and the controller 80 in the real space corresponds to the shield SL in the virtual space.

図8は、一人称視点のゲーム画像であり、実空間のユーザUSに対応する仮想空間のユーザ移動体(ユーザキャラクタ)の視点での画像が表示されている。なお実際には、HMD200によりユーザUSに対して、視界の全周囲に亘って広がるVR空間の画像が表示される。 FIG. 8 is a game image from a first-person viewpoint, and an image from the viewpoint of a user moving body (user character) in a virtual space corresponding to a user US in the real space is displayed. In reality, the HMD 200 displays an image of the VR space that extends over the entire circumference of the field of view to the user US.

3.2 振動ジャケット、振動部
本実施形態のシミュレーションシステムでは、ユーザが身体に装着体50を装着してゲームをプレイする。図5(A)、図7では、装着体50としてジャケット52を着衣している。なお、以下では、装着体50がジャケット52である場合を例に説明するが、装着体50はジャケット52には限定されず、ジャケット以外のジャンパー等の上着や、ズボンや、鎧や、或いは胸、腰、腕等に装着するベルトなどの種々の身体の装着物を考えることができる。
3.2 Vibration jacket, vibration unit In the simulation system of the present embodiment, the user wears the wearing body 50 on the body and plays a game. In FIGS. 5A and 7, the jacket 52 is worn as the wearing body 50. In the following, the case where the wearing body 50 is the jacket 52 will be described as an example, but the wearing body 50 is not limited to the jacket 52, and the wearing body 50 is not limited to the jacket 52, and is a jacket such as a jumper other than the jacket, trousers, armor, or. Various body wears such as belts to be worn on the chest, waist, arms, etc. can be considered.

ジャケット52には複数の振動部が設けられている。図9(A)は、ジャケット52の前面側振動部として振動部VF1~VF9が設けられ、後面側振動部として振動部VB1~VB9が設けられている。なお振動部の個数は任意であり、例えば前面側振動部として1~8個又は10個以上の振動部を設けたり、後面側振動部として1~8個又は10個以上の振動部を設けてもよい。またジャケット52の前面部と後面部の一方にだけに複数の振動部を設けてもよいし、ジャケット52の右側面や左側面などの側面に1又は複数の振動部を設けてもよい。また図9(A)、図9(B)では、複数の振動部が格子状に配置されているが、振動部の配置態様はこれに限定されず、格子状ではない2次元マトリクス状の配置や、1次元マトリクス状の配置などの種々の配置態様を想定できる。 The jacket 52 is provided with a plurality of vibrating portions. In FIG. 9A, the vibrating portions VF1 to VF9 are provided as the front side vibrating portion of the jacket 52, and the vibrating portions VB1 to VB9 are provided as the rear surface side vibrating portion. The number of vibrating parts is arbitrary. For example, 1 to 8 or 10 or more vibrating parts are provided as the front side vibrating part, or 1 to 8 or 10 or more vibrating parts are provided as the rear side vibrating part. May be good. Further, a plurality of vibrating portions may be provided only on one of the front surface portion and the rear surface portion of the jacket 52, or one or a plurality of vibrating portions may be provided on the side surfaces such as the right side surface and the left side surface of the jacket 52. Further, in FIGS. 9 (A) and 9 (B), a plurality of vibrating portions are arranged in a grid pattern, but the arrangement mode of the vibrating portions is not limited to this, and the arrangement is not a grid pattern but a two-dimensional matrix. And various arrangement modes such as one-dimensional matrix arrangement can be assumed.

図10は振動部(VF1~VF9、VB1~VB9)の実現構成の一例である。図10の振動部はソレノイド90により実現されている。ソレノイド90の一端側にはバネ94の一端が取り付けられ、このバネ94により、通常状態ではソレノイド90は方向DR1側に引っ張られている。なおバネ94の他端PJは例えばジャケット52の裏側面等に固定される。またソレノイド90は取付具96によりジャケット52に取り付けられている。 FIG. 10 is an example of the realized configuration of the vibrating unit (VF1 to VF9, VB1 to VB9). The vibrating portion of FIG. 10 is realized by the solenoid 90. One end of the spring 94 is attached to one end side of the solenoid 90, and the solenoid 90 is pulled toward the direction DR1 side in a normal state by the spring 94. The other end PJ of the spring 94 is fixed to, for example, the back side surface of the jacket 52. Further, the solenoid 90 is attached to the jacket 52 by the attachment 96.

そしてソレノイド90に対して駆動信号が入力されて通電が行われると、ソレノイド90のプランジャー92が方向DR2側に移動して、ユーザの体98に当たる。これによりユーザは、弾や剣のヒット時における振動を体感できる。 Then, when a drive signal is input to the solenoid 90 and energization is performed, the plunger 92 of the solenoid 90 moves to the direction DR2 side and hits the user's body 98. This allows the user to experience the vibration when a bullet or sword hits.

なお振動部は、ソレノイド以外にも、トランスデューサー、振動モータ、バネ&振動モータ、空圧又は電動のシリンダ、リニアモータなどの種々の振動デバイスにより実現できる。 The vibrating unit can be realized by various vibrating devices such as a transducer, a vibrating motor, a spring & vibrating motor, a pneumatic or electric cylinder, and a linear motor, in addition to the solenoid.

トランスデューサーは、音信号を変換するものであり、ハイパワーのサブウーハーに相当するものである。例えば図1の制御部118が音ファイルの再生処理を行うと、それによる音信号がトランスデューサーに入力される。そして例えば音信号の低域成分に基づいて振動が発生する。振動モータは、例えば、偏芯した錘を回転させることで振動を発生する。具体的には駆動軸(ローター軸)の両端に偏心した錘を取り付けてモータ自体が揺れるようにする。バネ&振動モータの組合わせでは、モータをロック解除に使用して振動を発生する。シリンダでは、空圧又は電動で図10の方向DR1、DR2に沿ってシリンダのロッド部を直線運動させる。リニアモータでも、図10の方向DR1、DR2に沿った直線運動を行わせる。 The transducer converts a sound signal and is equivalent to a high-power subwoofer. For example, when the control unit 118 of FIG. 1 performs a sound file reproduction process, the sound signal generated by the sound file is input to the transducer. Then, for example, vibration is generated based on the low frequency component of the sound signal. The vibration motor generates vibration by rotating an eccentric weight, for example. Specifically, eccentric weights are attached to both ends of the drive shaft (rotor shaft) so that the motor itself swings. In the spring & vibration motor combination, the motor is used to unlock and generate vibration. In the cylinder, the rod portion of the cylinder is linearly moved along the directions DR1 and DR2 in FIG. 10 by pneumatic pressure or electric power. Even with a linear motor, linear motion is performed along the directions DR1 and DR2 in FIG.

本実施形態では、ジャケット(装着体)に振動部を装着して、ゲーム状況(ヒットイベント、振動イベント)に応じて振動部の振動制御を行う手法を採用している。この振動制御手法としては種々の実現態様を想定できる。 In this embodiment, a method is adopted in which a vibrating portion is attached to a jacket (mounting body) and vibration control of the vibrating portion is performed according to a game situation (hit event, vibration event). Various implementation modes can be assumed as this vibration control method.

例えばジャケット(ベスト)の前面部のみに1つの振動部を取り付けて、ゲームでのヒットイベント(広義には振動イベント)が発生した場合(制御部から被弾信号を受けた場合)に、当該振動部を振動させる。 For example, if one vibrating part is attached only to the front part of the jacket (vest) and a hit event (vibration event in a broad sense) occurs in the game (when a hit signal is received from the control part), the vibrating part is concerned. To vibrate.

或いはジャケットの例えば前面部等に複数の振動部を取り付けて、ゲームでのヒットイベントが発生した場合に、複数の振動部のうち選択された振動部を振動させる。例えば、ヒット位置(攻撃を受けた位置)の情報に基づいて、複数の振動部のうちのどの振動部を振動させるかを選定して振動させる。 Alternatively, a plurality of vibrating parts are attached to, for example, the front portion of the jacket, and when a hit event in the game occurs, the vibrating part selected from the plurality of vibrating parts is vibrated. For example, based on the information of the hit position (the position where the attack is received), which of the plurality of vibrating parts is vibrated is selected and vibrated.

或いは、ジャケットの前面部と後面部の各々に1個の振動部を取り付けて、ヒットイベントが発生した場合(制御部から被弾信号を受けた場合)に、前面部の振動部と後面部の振動部を時間差を設けて振動させて、弾が貫通したかのような体感をユーザに与える。 Alternatively, one vibrating part is attached to each of the front part and the rear part of the jacket, and when a hit event occurs (when a hit signal is received from the control part), the vibration part of the front part and the vibration part of the rear part are vibrated. The part is vibrated with a time lag to give the user the feeling that the bullet has penetrated.

或いは、ジャケットの前面部と後面部の各々に複数の振動部を取り付けて、ヒット位置(攻撃位置)の情報やヒット方向(攻撃方向)の情報に基づいて、まず前面部の振動部のうちの、どれを振動させるかを決定し、続いて、後面部の振動部のうちのどれを振動させるかを決定する。また前面部の振動部の振動と後面部の振動部の振動の発生間隔(振動間隔)を、どのくらいの間隔にするかを、ヒット速度(攻撃速度)に応じて決定する。例えば弾丸の攻撃ならばヒット速度は速く、剣が突き刺さる攻撃ならばヒット速度が遅いと判断する。また、剣の攻撃などでは、剣を突き刺した後、剣先を円運動させるような攻撃表現を実現してもよい。具体的には前面部で振動させる振動部は同じままにして、後面部において振動させる振動部を、剣先の円運動に応じて選択する。以上のように装着体に設けられた振動部を用いた振動制御手法としては種々の実施態様を考えることができる。 Alternatively, a plurality of vibrating parts are attached to each of the front part and the rear part of the jacket, and based on the information of the hit position (attack position) and the information of the hit direction (attack direction), first of the vibrating parts of the front part. , Which is to be vibrated, and then which of the vibrating parts of the rear surface is to be vibrated. In addition, the interval (vibration interval) between the vibration of the vibrating part on the front surface and the vibration of the vibrating part on the rear surface is determined according to the hit speed (attack speed). For example, a bullet attack has a high hit speed, and a sword-piercing attack has a slow hit speed. Further, in the case of a sword attack, an attack expression such as piercing the sword and then moving the tip of the sword in a circular motion may be realized. Specifically, the vibrating part vibrating in the front part is left the same, and the vibrating part vibrating in the rear part is selected according to the circular motion of the sword tip. As described above, various embodiments can be considered as a vibration control method using the vibration unit provided on the mounting body.

図11(A)、図11(B)は実空間を移動するユーザUSと仮想空間を移動するユーザ移動体MVの関係を示す図である。 11 (A) and 11 (B) are diagrams showing the relationship between the user US moving in the real space and the user moving body MV moving in the virtual space.

図11(A)では、実空間においてユーザUSがA1に示すように移動している。ユーザUSは、視界を覆うようにHMD200を装着し、手にはガン型コントローラGNを所持している。そして図4に示すような実空間のフィールドFLを移動する。すると、実空間において移動するユーザUSの位置情報が取得され、取得された位置情報に基づいて、図11(B)のA2に示すように、ユーザ移動体MVが仮想空間において移動する。また実空間でのユーザUSの方向情報が取得され、仮想空間のユーザ移動体MVもその方向情報に対応する方向を向くようになる。また実空間でのユーザUSの姿勢情報が取得され、仮想空間のユーザ移動体MVもその姿勢情報に対応する姿勢を取るようになる。例えば実空間においてユーザUSが、手や足を動かせば、仮想空間でのユーザ移動体MVもそれに応じて手や足を動かすようになる。 In FIG. 11A, the user US is moving as shown in A1 in the real space. The user US wears the HMD200 so as to cover the field of view, and holds a gun-type controller GN in his hand. Then, the field FL in the real space as shown in FIG. 4 is moved. Then, the position information of the user US moving in the real space is acquired, and based on the acquired position information, the user moving body MV moves in the virtual space as shown in A2 of FIG. 11B. Further, the direction information of the user US in the real space is acquired, and the user moving body MV in the virtual space also faces the direction corresponding to the direction information. Further, the posture information of the user US in the real space is acquired, and the user moving body MV in the virtual space also takes a posture corresponding to the posture information. For example, if the user US moves his / her hand or foot in the real space, the user moving body MV in the virtual space also moves his / her hand or foot accordingly.

このように図11(A)、図11(B)では、ユーザの位置、方向、姿勢の変化に応じて、ユーザに対応する仮想空間のユーザ移動体の位置、方向、姿勢も変化するようになる。そしてHMDを用いるシステムでは、ユーザの視界の全周囲に亘って広大なVR空間が広がるような画像がHMDに表示されるため、ユーザの仮想現実感を格段に向上できる。 As described above, in FIGS. 11A and 11B, the position, direction, and posture of the user moving body in the virtual space corresponding to the user also change according to the change in the position, direction, and posture of the user. Become. In a system using an HMD, an image in which a vast VR space spreads over the entire circumference of the user's field of view is displayed on the HMD, so that the virtual reality of the user can be significantly improved.

一方、ガンシューティングゲームにおいては、図6に示すように敵からの攻撃がユーザ移動体にヒットするヒットイベント(被弾イベント)が発生する。この場合にHMDの表示画像やヘッドホンへの出力音だけでは、このようなヒットイベントをユーザにリアルに体感させることは難しい。即ち、弾がヒットするような画像がHMDに表示されたり、弾のヒットを表す効果音がヘッドホンから出力されても、弾のヒットによる振動等の体感がなければ、弾がヒットしたことの仮想現実感をユーザに対して十分に与えることができない。 On the other hand, in a gun shooting game, as shown in FIG. 6, a hit event (shot event) occurs in which an attack from an enemy hits a user moving object. In this case, it is difficult for the user to experience such a hit event realistically only by the display image of the HMD and the output sound to the headphones. That is, even if an image that hits the bullet is displayed on the HMD or a sound effect that indicates the hit of the bullet is output from the headphones, if there is no experience such as vibration due to the hit of the bullet, it is a virtual that the bullet hit. It is not possible to give a sufficient sense of reality to the user.

そこで本実施形態では、このような弾等のヒットイベント(振動イベント)などのゲーム状況に応じて、装着体に設けられた振動部を振動させる手法を採用している。 Therefore, in the present embodiment, a method of vibrating a vibrating portion provided on the mounting body is adopted according to a game situation such as a hit event (vibration event) such as a bullet.

例えば図12(A)では、仮想空間において、敵からの弾SH(広義には他のオブジェクト)がユーザ移動体MVにヒットするヒットイベントが発生している。このようなヒットイベントが発生した場合に、図12(B)に示すように、実空間において、ユーザUSが装着するジャケット52の振動部VFを振動させる。 For example, in FIG. 12A, a hit event occurs in the virtual space where a bullet SH (in a broad sense, another object) from an enemy hits a user moving object MV. When such a hit event occurs, as shown in FIG. 12B, the vibrating portion VF of the jacket 52 worn by the user US is vibrated in the real space.

具体的には本実施形態では、仮想空間の設定処理が行われ、図11(A)、図11(B)で説明したように、仮想空間を移動するユーザ移動体MVの移動処理が行われる。またユーザUSが身体にジャケット52(装着体)を装着してプレイするゲームのゲーム処理が行われ、図6、図8に示すように、ゲーム処理の結果に基づいて、表示画像が生成される。例えば本実施形態ではこの表示画像はHMDに表示される。 Specifically, in the present embodiment, the virtual space setting process is performed, and as described with reference to FIGS. 11A and 11B, the user moving body MV moving in the virtual space is moved. .. Further, a game process of a game in which the user US wears the jacket 52 (wearing body) on the body is performed, and as shown in FIGS. 6 and 8, a display image is generated based on the result of the game processing. .. For example, in this embodiment, this display image is displayed on the HMD.

そして本実施形態では図9(A)、図9(B)に示すように、装着体であるジャケット52には複数の振動部(VF1~VF9、VB1~VB9)が設けられる。また図12(A)に示すようにユーザ移動体MVと他のオブジェクトである弾SHとのヒット演算処理が行われる。そしてユーザ移動体MVと他のオブジェクトである弾SHとのヒットイベントが発生した場合に、装着体であるジャケット52の複数の振動部の振動制御が行われる。例えば複数の振動部の中から、弾SHのヒット方向やヒット位置などに応じて選択された振動部を振動させる振動制御が行われる。 In the present embodiment, as shown in FIGS. 9A and 9B, the jacket 52, which is a mounting body, is provided with a plurality of vibrating portions (VF1 to VF9, VB1 to VB9). Further, as shown in FIG. 12A, a hit calculation process between the user moving body MV and the bullet SH, which is another object, is performed. Then, when a hit event occurs between the user moving body MV and the bullet SH, which is another object, vibration control of a plurality of vibrating portions of the jacket 52, which is a mounting body, is performed. For example, vibration control is performed to vibrate a vibrating portion selected from a plurality of vibrating portions according to the hit direction and hit position of the bullet SH.

このようにすることでユーザUSは、HMDに表示される仮想空間において、ユーザUSに対応するユーザ移動体MVに対して弾SHがヒットするイベントが発生すると、そのヒットイベントに応じて、実世界において自身が装着するジャケット52において、ヒット方向やヒット位置に対応する振動部が振動するようになる。従って、HMDのリアルな映像による仮想現実感に加えて、ジャケット52の振動部の振動による体感をユーザに与えることが可能になり、ユーザの仮想現実感を格段に向上することが可能になる。 By doing so, when an event in which the bullet SH hits the user moving object MV corresponding to the user US occurs in the virtual space displayed on the HMD, the user US responds to the hit event in the real world. In the jacket 52 that he / she wears, the vibrating portion corresponding to the hit direction and the hit position vibrates. Therefore, in addition to the virtual reality of the HMD's realistic image, it is possible to give the user a feeling of vibration due to the vibration of the vibrating portion of the jacket 52, and it is possible to significantly improve the virtual reality of the user.

なお、本実施形態では、図6、図8のような画像を、HMDに表示するのではなく、家庭用ゲーム装置におけるテレビや、パーソナルコンピュータや業務用ゲーム装置におけるモニターディプレイなどの表示部に表示するような実施態様でもよい。この場合には、ユーザUSが身体に装着体を装着してプレイするゲームのゲーム処理が行われ、そのゲーム処理の結果に基づいて、表示画像が生成されて表示部に表示される。この場合に表示部には、ユーザの一人称視点での画像を表示してもよいし、ユーザ移動体(ユーザキャラクタ)を後方から見た三人称視点での画像を表示してもよい。そしてユーザがゲームのコントローラ(操作部)を操作することで、ゲーム空間においてユーザ移動体が移動するようになる。 In this embodiment, the images shown in FIGS. 6 and 8 are not displayed on the HMD, but on a display unit such as a television in a home-use game device or a monitor display in a personal computer or an arcade game machine. An embodiment as displayed may be used. In this case, a game process of a game in which the user US wears the wearable body on the body and plays the game is performed, and a display image is generated and displayed on the display unit based on the result of the game process. In this case, the display unit may display an image from the first-person viewpoint of the user, or may display an image from the third-person viewpoint when the user moving body (user character) is viewed from the rear. Then, when the user operates the controller (operation unit) of the game, the user moving body moves in the game space.

3.3 振動イベントの種類、内容に応じた振動制御
次に本実施形態の振動制御手法の具体例について説明する。本実施形態では、ユーザが身体に装着体50を装着してプレイするゲームについてのゲーム処理を行い、複数の振動部が設けられる装着体50についての制御を行う。この場合に、ゲームにおいて発生する振動イベントの種類又は内容に応じて、振動させる振動部の個数又は振動させる振動部の範囲である振動範囲を変化させる。具体的には振動イベントは、ユーザ又はユーザに対応するユーザ移動体と被ヒット物とのヒットイベントであり、ヒットイベントの種類又は内容に応じて、振動させる振動部の個数又は振動範囲を変化させる。
3.3 Vibration control according to the type and content of vibration event Next, a specific example of the vibration control method of the present embodiment will be described. In the present embodiment, game processing is performed for a game in which the user wears the wearable body 50 on the body and is played, and control is performed for the wearable body 50 provided with a plurality of vibrating portions. In this case, the number of vibrating parts or the vibration range, which is the range of the vibrating parts, is changed according to the type or content of the vibration event generated in the game. Specifically, the vibration event is a hit event between the user or the user moving body corresponding to the user and the hit object, and the number or vibration range of the vibrating part to be vibrated is changed according to the type or content of the hit event. ..

例えば図13(A)では、敵からのピストル攻撃によるヒットイベント(広義には振動イベント)が発生している。例えば図5(A)~図6で説明したユーザ移動体に対して敵からのピストルの弾(広義には被ヒット物、他のオブジェクト)がヒットしている。なお、ヒットイベントは、後述する図22において実空間のユーザに対して敵からの弾等の被ヒット物がヒットするヒットイベントであってもよい。以下の説明でも同様である。 For example, in FIG. 13A, a hit event (vibration event in a broad sense) due to a pistol attack from an enemy has occurred. For example, a pistol bullet (a hit object or another object in a broad sense) from an enemy hits a user moving object described with reference to FIGS. 5 (A) to 6 (A). The hit event may be a hit event in which a hit object such as a bullet from an enemy hits a user in the real space in FIG. 22, which will be described later. The same applies to the following description.

このようなピストルの弾によるヒットイベント(第1の種類のヒットイベント)の場合には、図13(A)に示すようにジャケット(装着体)の1個の振動部VF5が振動する。例えば振動させる振動部の範囲である振動範囲ARは狭い範囲になる。一方、鉄球によるヒットイベント(第2の種類のヒットイベント)の場合には、図13(B)に示すようにジャケットの5個の振動部VF2、VF4~VF6、VF8が振動する。例えば振動部の振動範囲ARは図13(A)よりも広い範囲になる。またバズーカによるヒットイベント(第3の種類のヒットイベント)の場合には、図13(C)に示すようにジャケットの9個の振動部VF1~VF9が振動する。例えば振動部の振動範囲ARは図13(A)、図13(B)よりも広い範囲になる。 In the case of such a hit event by a pistol bullet (a first type of hit event), one vibrating portion VF5 of the jacket (mounting body) vibrates as shown in FIG. 13 (A). For example, the vibration range AR, which is the range of the vibrating portion to be vibrated, is a narrow range. On the other hand, in the case of a hit event by an iron ball (a second type of hit event), the five vibrating portions VF2, VF4 to VF6, and VF8 of the jacket vibrate as shown in FIG. 13 (B). For example, the vibration range AR of the vibrating portion is wider than that in FIG. 13 (A). Further, in the case of a hit event by a bazooka (a third type of hit event), the nine vibrating portions VF1 to VF9 of the jacket vibrate as shown in FIG. 13 (C). For example, the vibration range AR of the vibrating portion has a wider range than those in FIGS. 13 (A) and 13 (B).

このように図13(A)~図13(C)では、ヒットイベントの種類に応じて、振動させる振動部の個数や振動範囲を変化させている。具体的には、被ヒット物の種類(ピストル、鉄球、バズーカ等)に応じて、振動させる振動部の個数又は振動範囲を変化させている。例えば被ヒット物の種類が、高い攻撃能力を有する種類の被ヒット物であるほど、振動部の振動個数を多くしたり、振動範囲を広くしている。例えば図13(C)のヒットイベントでのバズーカの弾は、図13(A)、図13(B)のヒットイベントでのピストルの弾や鉄球に比べて、高い攻撃能力を有する種類の被ヒット物となっているため、振動部の振動個数が多くなり、振動範囲が広くなっている。このようにすれば、ヒットイベントの種類に応じて、振動部の振動個数が少なくなったり、多くなったり、或いは振動範囲が狭くなったり、広くなったりする。従って、ユーザは、どのような種類のヒットイベントが発生したのかを、振動部の振動個数や振動範囲の広狭を、触覚により体感することで、認識できるようになる。またヒットイベントの種類と、振動部の振動個数や振動範囲とが対応するようになるため、ユーザの仮想現実感を向上できる。例えばピストルの弾がヒットした場合には、少ない個数の振動部が振動し、振動範囲も狭くなる一方で、バズーカがヒットした場合には、多い個数の振動部が振動し、振動範囲も広くなる。従って、多い個数の振動部が振動したり、振動範囲が広い場合には、バズーカのような攻撃がヒットしたとユーザは認識できるようになる。またバズーカのような攻撃がヒットしたときに、多い個数の振動部が振動し、振動範囲が広くなることで、あたかも本物のバズーカの攻撃を受けたかのような仮想現実感をユーザに与えることが可能になり、ユーザの仮想現実感の向上を図れる。 As described above, in FIGS. 13 (A) to 13 (C), the number of vibrating portions and the vibrating range are changed according to the type of hit event. Specifically, the number of vibrating parts or the vibrating range is changed according to the type of the hit object (pistol, iron ball, bazooka, etc.). For example, the more the type of the hit object is the type of the hit object having a high attack ability, the larger the number of vibrations of the vibrating part and the wider the vibration range. For example, the bazooka bullet in the hit event of FIG. 13 (C) has a higher attack ability than the pistol bullet and the iron ball in the hit event of FIGS. 13 (A) and 13 (B). Since it is a hit product, the number of vibrations of the vibrating part is large and the vibration range is wide. By doing so, the number of vibrations of the vibrating portion may be reduced or increased, or the vibration range may be narrowed or widened, depending on the type of hit event. Therefore, the user can recognize what kind of hit event has occurred by experiencing the number of vibrations of the vibrating portion and the width of the vibration range by tactile sensation. In addition, since the type of hit event corresponds to the number of vibrations and the vibration range of the vibrating part, the virtual reality of the user can be improved. For example, when a pistol bullet hits, a small number of vibrating parts vibrate and the vibration range becomes narrow, while when a bazooka hits, a large number of vibrating parts vibrate and the vibration range becomes wide. .. Therefore, when a large number of vibrating parts vibrate or the vibration range is wide, the user can recognize that an attack such as a bazooka has hit. Also, when an attack like a bazooka hits, a large number of vibrating parts vibrate and the vibration range becomes wider, so it is possible to give the user a virtual reality as if it was hit by a real bazooka. Therefore, it is possible to improve the virtual reality of the user.

また図14(A)では、攻撃力が低いヒットイベントが発生しており、図14(B)では、攻撃力が中ぐらいのヒットイベントが発生しており、図14(C)では、攻撃力が高いヒットイベントが発生している。例えばヒットイベントの種類は同じであるが、当該ヒットイベントでの攻撃力が高低が異なっており、ヒットイベントの内容が異なっている。具体的には、同じピストル、鉄球又はバズーカによる攻撃であっても、その攻撃力の高低が異なっている。 Further, in FIG. 14 (A), a hit event having a low attack power has occurred, in FIG. 14 (B), a hit event having a medium attack power has occurred, and in FIG. 14 (C), an attack power has occurred. There is a high hit event. For example, the types of hit events are the same, but the attack power in the hit event is different, and the content of the hit event is different. Specifically, even if the attack is made by the same pistol, iron ball or bazooka, the attack power is different.

そして攻撃力が低いヒットイベント(第1の内容のヒットイベント)の場合には、図14(A)に示すようにジャケットの1個の振動部VF5が振動する。例えば振動範囲ARは狭い範囲になる。一方、攻撃力が中ぐらいのヒットイベント(第2の内容のヒットイベント)の場合には、図14(B)に示すようにジャケットの5個の振動部VF2、VF4~VF6、VF8が振動する。例えば振動範囲ARは図14(A)よりも広い範囲になる。また攻撃力が高いヒットイベント(第3の内容のヒットイベント)の場合には、図14(C)に示すようにジャケットの9個の振動部VF1~VF9が振動する。例えば振動範囲ARは図14(A)、図14(B)よりも広い範囲になる。 Then, in the case of a hit event having a low attack power (a hit event having the first content), one vibrating portion VF5 of the jacket vibrates as shown in FIG. 14 (A). For example, the vibration range AR is a narrow range. On the other hand, in the case of a hit event with a medium attack power (a hit event with the second content), the five vibrating parts VF2, VF4 to VF6, and VF8 of the jacket vibrate as shown in FIG. 14 (B). .. For example, the vibration range AR is wider than that in FIG. 14 (A). Further, in the case of a hit event having a high attack power (a hit event having a third content), the nine vibrating portions VF1 to VF9 of the jacket vibrate as shown in FIG. 14 (C). For example, the vibration range AR has a wider range than those in FIGS. 14 (A) and 14 (B).

このように図14(A)~図14(C)では、ヒットイベントの内容に応じて、振動させる振動部の個数や振動範囲を変化させている。具体的には被ヒット物の攻撃内容(攻撃力が低い、中ぐらい、高い)に応じて、振動させる振動部の個数又は振動範囲を変化させている。例えば被ヒット物の攻撃が、攻撃力の高い攻撃内容であるほど、振動させる振動部の個数を多くしたり、振動範囲を広くしている。例えば図14(C)のヒットイベントでの攻撃は、図14(A)、図14(B)のヒットイベントでの攻撃に比べて、攻撃力の高い攻撃内容となっているため、振動部の振動個数を多くなり、振動範囲が広くなっている。このようにすれば、ヒットイベントの内容に応じて、振動部の振動個数が少なくなったり、多くなったり、或いは振動範囲が狭くなったり、広くなったりする。従って、ユーザは、発生したヒットイベントの内容がどのような内容なのかを、振動部の振動個数や振動範囲を、触覚により体感することで、認識できるようになる。またヒットイベントの内容と、振動部の振動個数や振動範囲とを対応するようになるため、ユーザの仮想現実感を向上できる。例えば低い攻撃力のヒットイベントの場合には、少ない個数の振動部が振動し、振動範囲も狭くなる一方で、高い攻撃力のヒットイベントの場合には、多い個数の振動部が振動し、振動範囲も広くなる。従って、多い個数の振動部が振動したり、振動範囲が広い場合には、攻撃力が高いヒットイベントであるとユーザは認識できるようになる。また攻撃力の高いヒットイベントでは、多い個数の振動部が振動し、振動範囲が広くなることで、あたかも本当に高い攻撃力の攻撃を受けたかのような仮想現実感をユーザに与えることが可能になり、ユーザの仮想現実感の向上を図れる。 As described above, in FIGS. 14A to 14C, the number of vibrating portions and the vibration range are changed according to the content of the hit event. Specifically, the number of vibrating parts or the vibrating range is changed according to the attack content (low, medium, high) of the hit object. For example, the higher the attack power of the attack of the hit object, the larger the number of vibrating parts and the wider the vibration range. For example, the attack in the hit event shown in FIG. 14 (C) has a higher attack power than the attack in the hit event shown in FIGS. 14 (A) and 14 (B). The number of vibrations has increased, and the vibration range has become wider. By doing so, the number of vibrations of the vibrating portion may be reduced or increased, or the vibration range may be narrowed or widened, depending on the content of the hit event. Therefore, the user can recognize what the content of the generated hit event is by tactilely experiencing the number of vibrations and the vibration range of the vibrating unit. In addition, since the content of the hit event corresponds to the number of vibrations and the vibration range of the vibrating part, the virtual reality of the user can be improved. For example, in the case of a hit event with a low attack power, a small number of vibrating parts vibrate and the vibration range becomes narrow, while in the case of a hit event with a high attack power, a large number of vibrating parts vibrate and vibrate. The range is also widened. Therefore, when a large number of vibrating parts vibrate or the vibration range is wide, the user can recognize that the hit event has a high attack power. Also, in a hit event with high attack power, a large number of vibrating parts vibrate and the vibration range becomes wide, so it is possible to give the user a virtual reality feeling as if they were attacked with really high attack power. , The user's virtual reality can be improved.

またヒットイベントの内容は、ヒットイベント(振動イベント)での時間経過についての内容であってもよい。例えばヒットイベントでの時間経過に応じて、ジャケット(装着体)の振動部を振動させる。具体的には、被ヒット物のヒットタイミングにおいて、複数の振動部のうちの第1の振動部を振動させる。そしてヒットタイミングから所与の時間が経過した後に、第1の振動部の周囲の第2の振動部を振動させる。 Further, the content of the hit event may be the content regarding the passage of time in the hit event (vibration event). For example, the vibrating part of the jacket (wearing body) is vibrated according to the passage of time in a hit event. Specifically, at the hit timing of the hit object, the first vibrating portion of the plurality of vibrating portions is vibrated. Then, after a given time has elapsed from the hit timing, the second vibrating portion around the first vibrating portion is vibrated.

例えば図15(A)では、弾等の被ヒット物がヒットしたヒットタイミングにおいて、振動部VF5(第1の振動部)が振動する。そして図15(B)に示すように、このヒットタイミングから所与の時間が経過した後に、振動部VF5の周囲の振動部VF4、VF6(第2の振動部)が振動する。また図15(C)に示すように、図15(B)から所与の時間が経過した後に、振動部VF5の周囲の振動部VF2、VF8(第3の振動部)が更に振動する。例えば、時間経過に応じて、振動部の振動個数が増加して行き、振動範囲ARが広くなって行く。従って、被ヒット物がヒットした後、被ヒット物が当たった位置からその周囲方向に向かって、振動が徐々に広がって行くような演出が可能になる。これにより、あたかも本物の被ヒット物が当たったかのような仮想現実感をユーザに与えることが可能になり、ユーザの仮想現実感の向上を図れる。 For example, in FIG. 15A, the vibrating portion VF5 (first vibrating portion) vibrates at the hit timing when a hit object such as a bullet hits. Then, as shown in FIG. 15B, after a given time has elapsed from this hit timing, the vibrating portions VF4 and VF6 (second vibrating portions) around the vibrating portion VF5 vibrate. Further, as shown in FIG. 15 (C), after a given time has elapsed from FIG. 15 (B), the vibrating portions VF2 and VF8 (third vibrating portion) around the vibrating portion VF5 further vibrate. For example, with the passage of time, the number of vibrations of the vibrating portion increases, and the vibration range AR becomes wider. Therefore, after the hit object is hit, it is possible to produce an effect in which the vibration gradually spreads from the position where the hit object hits toward the surrounding direction. This makes it possible to give the user a virtual reality feeling as if a real hit object hits the user, and it is possible to improve the virtual reality feeling of the user.

なお時間経過に応じた振動制御は、タイマーを用いたカウント処理などにより実現できる。但し、このようなタイマー等による時間経過による振動制御ではなく、例えば被ヒット物のヒットタイミングにおいて、複数の振動部のうちの第1の振動部を振動させ、次に、第1の振動部の周囲の第2の振動部を振動させるというような、振動させる振動部の順番を制御する手法を採用してもよい。 Vibration control according to the passage of time can be realized by counting processing using a timer or the like. However, instead of controlling the vibration by the passage of time by such a timer or the like, for example, at the hit timing of the hit object, the first vibrating portion of the plurality of vibrating portions is vibrated, and then the first vibrating portion is used. A method of controlling the order of the vibrating parts, such as vibrating the surrounding second vibrating part, may be adopted.

3.4 振動部のランダム選択
本実施形態では、ヒットイベントなどの振動イベントが発生した際に、複数の振動部の中から振動させる振動部をランダムに選択する振動制御を行っている。具体的には、振動イベントが発生した場合に、複数の振動部のうちの第1の振動部を振動させ、次に振動イベントが発生した場合に、複数の振動部のうちの第1の振動部とは異なる第2の振動部をランダムに選択して振動させる。
3.4 Random selection of vibrating part In this embodiment, vibration control is performed in which a vibrating part to be vibrated is randomly selected from a plurality of vibrating parts when a vibration event such as a hit event occurs. Specifically, when a vibration event occurs, the first vibration part of the plurality of vibration parts is vibrated, and when the vibration event occurs next, the first vibration of the plurality of vibration parts is vibrated. A second vibrating part different from the part is randomly selected and vibrated.

例えば図16(A)では、被ヒット物がヒットするヒットイベント(振動イベント)が発生した場合に、複数の振動部VF1~VF9のうちの振動部VF5(第1の振動部)を選択して振動させている。振動させる振動部として振動部VF5を選択する処理は、例えば後述するようなヒット方向及びヒット位置の少なくとも一方を含むヒット情報に基づき行うことが可能である。そして、次にヒットイベントが発生した場合には、図16(B)に示すように、複数の振動部VF1~VF9のうちの振動部VF6(第2の振動部)をランダムに選択して振動させる。また、更に次にヒットイベントが発生した場合には、図16(C)に示すように、複数の振動部VF1~VF9のうちの振動部VF8(第3の振動部)をランダムに選択して振動させる。ここで図16(A)、図16(B)、図16(C)でのヒットイベントは、例えばその種類や内容が同じヒットイベントである。例えば図16(A)では、ピストルの弾がヒットするヒットイベントが発生しており、図16(B)、図16(C)でも、ピストルの弾がヒットするヒットイベントが発生している。また例えば図16(A)では、攻撃力が低い攻撃内容のヒットイベントが発生しており、図16(B)、図16(C)でも、攻撃力が低い攻撃内容のヒットイベントが発生している。 For example, in FIG. 16A, when a hit event (vibration event) in which the hit object hits occurs, the vibration unit VF5 (first vibration unit) among the plurality of vibration units VF1 to VF9 is selected. It is vibrating. The process of selecting the vibrating unit VF5 as the vibrating unit to be vibrated can be performed based on hit information including at least one of the hit direction and the hit position, which will be described later, for example. Then, when a hit event occurs next time, as shown in FIG. 16B, the vibrating portion VF6 (second vibrating portion) among the plurality of vibrating portions VF1 to VF9 is randomly selected and vibrated. Let me. Further, when a hit event occurs next time, as shown in FIG. 16C, the vibrating portion VF8 (third vibrating portion) among the plurality of vibrating portions VF1 to VF9 is randomly selected. Vibrate. Here, the hit events in FIGS. 16 (A), 16 (B), and 16 (C) are, for example, hit events having the same type and content. For example, in FIG. 16A, a hit event in which a pistol bullet hits occurs, and in FIGS. 16B and 16C, a hit event in which a pistol bullet hits occurs. Further, for example, in FIG. 16A, a hit event with an attack content having a low attack power occurs, and in FIGS. 16B and 16C, a hit event with an attack content having a low attack power occurs. There is.

例えばヒットイベントが発生した場合に、常に同じ位置の振動部が振動してしまうと、ユーザの身体が振動部の振動に慣れてしまうという問題がある。例えば本実施形態では、弾がヒットするヒットイベントが発生した際に、弾のヒット位置に対応する振動部を振動させることで、あたかも本物の弾がヒットしたかのような仮想現実感をユーザに与えることに成功している。しかしながら、ヒットイベントの発生時に、同じ身体部分ばかりに対して振動による刺激を与えてしまうと、振動による刺激に対して麻痺してしまい、振動部の振動がユーザに与える仮想現実感が低下してしまうという問題が発生する。 For example, when a hit event occurs and the vibrating portion at the same position always vibrates, there is a problem that the user's body becomes accustomed to the vibration of the vibrating portion. For example, in the present embodiment, when a hit event in which a bullet hits occurs, the vibrating portion corresponding to the hit position of the bullet is vibrated to give the user a virtual reality as if a real bullet hit. You have succeeded in giving. However, if a vibration stimulus is applied only to the same body part when a hit event occurs, the vibration stimulus is paralyzed, and the virtual reality that the vibration of the vibrating part gives to the user is reduced. The problem of getting rid of it occurs.

この点、本実施形態では、ヒットイベントが発生した際に、複数の振動部の中から振動させる振動部をランダムに選択する手法を採用している。例えば弾がヒットするヒットイベントの発生時に、図16(A)では振動部VF5が振動し、図16(C)では振動部VF6が振動し、図16(C)では振動部VF8が振動するというように、振動する振動部がランダムに変化する。従って、同じ身体部分の振動部(例えばVF5)だけが常に振動することでユーザが振動による刺激に慣れてしまうというような事態の発生を防止できる。例えば同じヒットイベントが発生した場合にも、ユーザの異なる身体部分に対して振動による刺激が与えられるようになるため、ユーザが振動による刺激に慣れてしまうというような事態を回避できる。従って、振動部の振動がユーザに与える仮想現実感が低下してしまうのを防止できるようになり、あたかも本物の弾等の被ヒット物がヒットしたかのような仮想現実感をユーザに与えることが可能になる。 In this respect, in the present embodiment, when a hit event occurs, a method of randomly selecting a vibrating portion to vibrate from a plurality of vibrating portions is adopted. For example, when a hit event in which a bullet hits occurs, the vibrating section VF5 vibrates in FIG. 16A, the vibrating section VF6 vibrates in FIG. 16C, and the vibrating section VF8 vibrates in FIG. 16C. As such, the vibrating vibrating part changes randomly. Therefore, it is possible to prevent the occurrence of a situation in which the user becomes accustomed to the stimulus due to the vibration because only the vibrating portion (for example, VF5) of the same body part constantly vibrates. For example, even when the same hit event occurs, the stimulation by vibration is given to different body parts of the user, so that it is possible to avoid the situation where the user becomes accustomed to the stimulation by vibration. Therefore, it becomes possible to prevent the virtual reality feeling given to the user by the vibration of the vibrating part from being lowered, and to give the user a virtual reality feeling as if a hit object such as a real bullet was hit. Will be possible.

3.5 ヒット情報に応じた振動部の選択
本実施形態ではヒット情報に基づく振動部の選択を行っている。具体的には、ユーザ又はユーザ移動体と被ヒット物とのヒット演算処理を行って、ヒット方向及びヒット位置の少なくとも一方を含むヒット情報を求める。そしてヒットイベントが発生した場合に、ヒット情報に応じて、複数の振動部の中から振動させる振動部を選択する。例えば図13(A)~図14(C)のようにヒットイベントの種類又は内容に応じて振動させる振動部の個数や振動範囲を変化させる場合に、振動範囲の中央となる振動部VF5の選択を、ヒット情報に基づき行う。また図15(A)~図15(C)のようにヒットイベントでの時間経過に応じて振動させる振動部の個数や振動範囲を変化させる場合に、最初に振動させる振動部VF5(第1の振動部)の選択を、ヒット情報に基づき行う。また図16(A)~図16(C)のようにヒットイベントが発生した際に複数の振動部の中から振動させる振動部をランダムに選択する場合に、最初に選択する振動部VF5(第1の振動部)の選択を、ヒット情報に基づき行う。或いは、ヒット情報に基づいて、振動させる振動部の候補を決定し、決定された候補の中から振動させる振動部をランダムに選択する。
3.5 Selection of vibrating part according to hit information In this embodiment, the vibrating part is selected based on the hit information. Specifically, the hit calculation process of the user or the user moving body and the hit object is performed to obtain hit information including at least one of the hit direction and the hit position. Then, when a hit event occurs, a vibrating part to be vibrated is selected from a plurality of vibrating parts according to the hit information. For example, as shown in FIGS. 13 (A) to 14 (C), when the number or range of vibrating parts to be vibrated is changed according to the type or content of the hit event, the selection of the vibrating part VF5 which is the center of the vibration range is selected. Is performed based on the hit information. Further, as shown in FIGS. 15A to 15C, when the number of vibrating parts and the vibration range to be vibrated are changed according to the passage of time in the hit event, the vibrating part VF5 (first) to vibrate first. The vibration part) is selected based on the hit information. Further, as shown in FIGS. 16A to 16C, when a vibrating part to be vibrated is randomly selected from a plurality of vibrating parts when a hit event occurs, the vibrating part VF5 (No. 1) to be selected first. 1) is selected based on the hit information. Alternatively, the candidate of the vibrating part to be vibrated is determined based on the hit information, and the vibrating part to be vibrated is randomly selected from the determined candidates.

図17(A)~図18(B)はヒット情報に基づく振動部の振動制御手法の説明図である。本実施形態では、ヒット方向及びヒット位置の少なくとも一方を含むヒット情報に基づいて、複数の振動部の中から振動させる振動部を選択する処理を行う。このようにすれば、ヒット演算処理により求められたヒット情報を反映させた振動部の振動制御を実現できるようになり、ゲーム状況に対応したリアルな振動制御を実現できるようになる。 17 (A) to 18 (B) are explanatory views of the vibration control method of the vibrating portion based on the hit information. In the present embodiment, a process of selecting a vibrating portion to vibrate from a plurality of vibrating portions is performed based on hit information including at least one of a hit direction and a hit position. By doing so, it becomes possible to realize the vibration control of the vibrating part that reflects the hit information obtained by the hit calculation process, and it becomes possible to realize the realistic vibration control corresponding to the game situation.

具体的には図17(A)~図18(B)では、ジャケット52(装着体)の前面部に、前面側の振動部VF1~VF9が設けられ、ジャケット52の後面部に、後面側の振動部VB1~VB9が設けられている。このときに本実施形態では、ヒットイベント(振動イベント)が発生した場合に、ヒット情報に基づいて、前面側の振動部及び後面側の振動部の一方の振動部である第1の振動部を振動させた後、前面側の振動部及び後面側の振動部の他方の振動部である第2の振動部を振動させる振動制御を行う。ここでヒット情報は、ヒット方向及びヒット位置の少なくとも一方を含む情報である。 Specifically, in FIGS. 17A to 18B, vibration portions VF1 to VF9 on the front side are provided on the front portion of the jacket 52 (mounting body), and vibration portions VF1 to VF9 on the front side are provided on the rear surface portion of the jacket 52 on the rear surface side. Vibration units VB1 to VB9 are provided. At this time, in the present embodiment, when a hit event (vibration event) occurs, the first vibrating portion, which is one of the vibrating portion on the front side and the vibrating portion on the rear surface side, is generated based on the hit information. After vibrating, vibration control is performed to vibrate the second vibrating portion, which is the other vibrating portion of the vibrating portion on the front surface side and the vibrating portion on the rear surface side. Here, the hit information is information including at least one of the hit direction and the hit position.

即ち本実施形態では、2つの振動部の振動間隔に時間差を設けることで、あたかも弾が自身の身体を貫通したかのような仮想現実をユーザに対して与えている。そして本実施形態では、このように時間差を設けた振動において、先に振動する方の振動部を第1の振動部とし、後に振動する方の振動部を第2の振動部としている。 That is, in the present embodiment, by providing a time difference between the vibration intervals of the two vibrating portions, a virtual reality is given to the user as if the bullet penetrated his / her own body. In the present embodiment, in the vibration provided with the time difference as described above, the vibrating portion that vibrates first is referred to as the first vibrating portion, and the vibrating portion that vibrates later is referred to as the second vibrating portion.

そして図17(A)、図17(B)は、先に振動する第1の振動部が、前面側の振動部であり、後に振動する第2の振動部が、後面側の振動部である場合の例である。例えば図17(A)では、第1の振動部である前面側の振動部VF6を振動させた後、第2の振動部である後面側の振動部VB4を振動させている。図17(B)では、第1の振動部である前面側の振動部VF2を振動させた後、第2の振動部である後面側の振動部VB5を振動させている。 In FIGS. 17A and 17B, the first vibrating portion that vibrates first is the vibrating portion on the front surface side, and the second vibrating portion that vibrates later is the vibrating portion on the rear surface side. This is an example of the case. For example, in FIG. 17A, the vibration unit VF6 on the front surface side, which is the first vibration unit, is vibrated, and then the vibration unit VB4 on the rear surface side, which is the second vibration unit, is vibrated. In FIG. 17B, the vibration unit VF2 on the front surface side, which is the first vibration unit, is vibrated, and then the vibration unit VB5 on the rear surface side, which is the second vibration unit, is vibrated.

一方、図18(A)、図18(B)は、先に振動する第1の振動部が、後面側の振動部であり、後に振動する第2の振動部が、前面側の振動部である場合の例である。例えば図18(A)では、第1の振動部である後面側の振動部VB4を振動させた後、第2の振動部である前面側の振動部VF6を振動させている。図18(B)では、第1の振動部である後面側の振動部VB5を振動させた後、第2の振動部である前面側の振動部VF2を振動させている。 On the other hand, in FIGS. 18A and 18B, the first vibrating portion that vibrates first is the vibrating portion on the rear surface side, and the second vibrating portion that vibrates later is the vibrating portion on the front surface side. This is an example of a certain case. For example, in FIG. 18A, the vibrating portion VB4 on the rear surface side, which is the first vibrating portion, is vibrated, and then the vibrating portion VF6 on the front surface side, which is the second vibrating portion, is vibrated. In FIG. 18B, the vibrating portion VB5 on the rear surface side, which is the first vibrating portion, is vibrated, and then the vibrating portion VF2 on the front surface side, which is the second vibrating portion, is vibrated.

このように本実施形態では、第1の振動部を振動させた後、第2の振動部を振動させるというように、2つの振動部の振動間隔に時間差を設ける振動制御を行うことで、あたかも弾が自身の身体を貫通したかのような仮想現実をユーザに対して与えている。これにより、弾等のヒットイベントの発生時にユーザに与える仮想現実感を大幅に向上できるようになる。 As described above, in the present embodiment, vibration control is performed to set a time difference between the vibrations of the two vibrating parts, such as vibrating the first vibrating part and then vibrating the second vibrating part, as if it were. It gives the user a virtual reality as if the bullet had penetrated its body. This makes it possible to greatly improve the virtual reality given to the user when a hit event such as a bullet occurs.

そして、このような振動制御を行うためには、まず、図12(A)のユーザ移動体MVの前面部に弾SHがヒットしたのか、或いはユーザ移動体MVの後面部に弾SHがヒットしたのかを判定する必要がある。 Then, in order to perform such vibration control, first, the bullet SH hits the front portion of the user moving body MV in FIG. 12A, or the bullet SH hits the rear portion of the user moving body MV. It is necessary to judge whether it is.

ユーザ移動体MVの前面部に弾SHがヒットした場合には、図17(A)、図17(B)に示すように、第1の振動部である前面側の振動部VF6、VF2を振動させた後、第2の振動部である後面側の振動部VB4、VB5を振動させればよい。 When the bullet SH hits the front portion of the user moving body MV, as shown in FIGS. 17 (A) and 17 (B), the vibration portions VF6 and VF2 on the front side, which are the first vibrating portions, are vibrated. After that, the vibrating portions VB4 and VB5 on the rear surface side, which are the second vibrating portions, may be vibrated.

一方、ユーザ移動体MVの後面部に弾SHがヒットした場合には、図18(A)、図18(B)に示すように、第1の振動部である後面側の振動部VB4、VB5を振動させた後、第2の振動部である前面側の振動部VF6、VF2を振動させればよい。 On the other hand, when the bullet SH hits the rear surface portion of the user moving body MV, as shown in FIGS. 18 (A) and 18 (B), the vibrating portions VB4 and VB5 on the rear surface side, which are the first vibrating portions. After vibrating, the second vibrating portion, the vibrating portions VF6 and VF2 on the front side, may be vibrated.

そして、ユーザ移動体MVの前面部に弾SHがヒットしたのか、或いはユーザ移動体MVの後面部に弾SHがヒットしたのかの判定には、ヒット方向DHT及びヒット位置PHTの少なくとも一方を含むヒット情報を用いることができる。 Then, in determining whether the bullet SH hits the front portion of the user moving body MV or the bullet SH hits the rear portion of the user moving body MV, a hit including at least one of the hit direction DHT and the hit position PHT is determined. Information can be used.

例えば図17(A)、図17(B)では、ヒット方向DHTに基づいて、弾SHが、ユーザ移動体MVの前方側から飛んで来たと判断できる。或いは、ヒット位置PHTに基づいて、弾SHがユーザ移動体MVの前面部にヒットしたと判断できる。従って、この場合には、図17(A)、図17(B)に示すように、前面側の振動部VF6、VF2を振動させた後、後面側の振動部VB4、VB5を振動させる振動制御を行う。 For example, in FIGS. 17A and 17B, it can be determined that the bullet SH has flown from the front side of the user moving body MV based on the hit direction DHT. Alternatively, it can be determined that the bullet SH has hit the front portion of the user moving body MV based on the hit position PHT. Therefore, in this case, as shown in FIGS. 17 (A) and 17 (B), vibration control that vibrates the vibrating portions VF6 and VF2 on the front surface side and then vibrates the vibrating portions VB4 and VB5 on the rear surface side. I do.

一方、図18(A)、図18(B)では、ヒット方向DHTに基づいて、弾SHが、ユーザ移動体MVの後方側から飛んで来たと判断できる。或いは、ヒット位置PHTに基づいて、弾SHがユーザ移動体MVの後面部にヒットしたと判断できる。従って、この場合には、図18(A)、図18(B)に示すように、後面側の振動部VB4、VB5を振動させた後、前面側の振動部VF6、VF2を振動させる振動制御を行う。 On the other hand, in FIGS. 18A and 18B, it can be determined that the bullet SH has flown from the rear side of the user moving body MV based on the hit direction DHT. Alternatively, it can be determined that the bullet SH has hit the rear surface portion of the user moving body MV based on the hit position PHT. Therefore, in this case, as shown in FIGS. 18A and 18B, vibration control for vibrating the vibrating portions VB4 and VB5 on the rear surface side and then vibrating the vibrating portions VF6 and VF2 on the front surface side. I do.

また図17(A)~図18(B)に示すように、前面側や後面側に複数の振動部がある場合に、複数の振動部の中から振動させる振動部を選択する処理が必要になる。そこで本実施形態では、複数の振動部の中から振動させる振動部を選択する処理を、ヒット情報に基づいて行う。 Further, as shown in FIGS. 17A to 18B, when there are a plurality of vibrating parts on the front side or the rear side, it is necessary to select a vibrating part from the plurality of vibrating parts. Become. Therefore, in the present embodiment, the process of selecting the vibrating portion to be vibrated from the plurality of vibrating portions is performed based on the hit information.

具体的には本実施形態では、先に振動させる第1の振動部として、複数の第1の振動部が設けられる場合に、複数の第1の振動部の中から振動させる振動部を選択する処理を、ヒット情報に基づいて行う。或いは、後に振動させる第2の振動部として、複数の第2の振動部が設けられる場合に、複数の第2の振動部の中から振動させる振動部を選択する処理を、ヒット情報に基づいて行う。 Specifically, in the present embodiment, when a plurality of first vibrating portions are provided as the first vibrating portion to be vibrated first, the vibrating portion to be vibrated is selected from the plurality of first vibrating portions. The process is performed based on the hit information. Alternatively, when a plurality of second vibrating parts are provided as the second vibrating part to be vibrated later, a process of selecting a vibrating part from the plurality of second vibrating parts is performed based on the hit information. conduct.

例えば図17(A)、図17(B)は、先に振動させる複数の第1の振動部が、前面側の振動部VF1~VF9であり、後に振動させる複数の第2の振動部が、後面側の振動部VB1~VB9である場合の例である。この場合に、複数の前面側の振動部VF1~VF9(複数の第1の振動部)の中から振動させる振動部を選択する処理と、複数の後面側の振動部VB1~VB9(複数の第2の振動部)の中から振動させる振動部を選択する処理を、ヒット情報であるヒット方向DHTに基づいて行う。 For example, in FIGS. 17 (A) and 17 (B), the plurality of first vibrating parts to be vibrated first are the front side vibrating parts VF1 to VF9, and the plurality of second vibrating parts to be vibrated later are the front side vibrating parts VF1 to VF9. This is an example of the case where the vibrating portions VB1 to VB9 on the rear surface side. In this case, a process of selecting a vibrating portion to vibrate from a plurality of front-side vibrating portions VF1 to VF9 (plural first vibrating portions) and a plurality of rear-side vibrating portions VB1 to VB9 (plural first vibrating portions). The process of selecting the vibrating part to be vibrated from the vibrating part of 2) is performed based on the hit direction DHT which is the hit information.

例えば図17(A)では、図12(A)の弾SHのヒット方向DHTは、ユーザ移動体MVの左前側から右後ろ側への方向になっている。この場合には、このヒット方向DHTの軌道に沿った前面側の振動部VF6と後面側の振動部VB4を選択して、振動させる。例えば前面側の振動部VF6を振動させた後、所与の振動間隔の期間経過後に、後面側の振動部VB4を振動させる。これによりユーザは、あたかも本物の弾が自身の身体の左前側から右後ろ側へと貫通したかのような仮想現実を感じることができる。 For example, in FIG. 17A, the hit direction DHT of the bullet SH in FIG. 12A is from the left front side to the right rear side of the user moving body MV. In this case, the vibration unit VF6 on the front surface side and the vibration unit VB4 on the rear surface side along the trajectory of the hit direction DHT are selected and vibrated. For example, after vibrating the vibrating portion VF6 on the front surface side, the vibrating portion VB4 on the rear surface side is vibrated after a period of a given vibration interval elapses. This allows the user to feel the virtual reality as if a real bullet penetrated from the left front side to the right rear side of his body.

図17(B)では、弾SHのヒット方向DHTは、ユーザ移動体MVの下方前側から上方後ろ側への方向になっている。この場合には、このヒット方向DHTの軌道に沿った前面側の振動部VF2と後面側の振動部VB5を選択して、振動させる。例えば前面側の振動部VF2を振動させた後、所与の振動間隔の期間経過後に、後面側の振動部VB5を振動させる。これによりユーザは、あたかも本物の弾が自身の身体の下方前側から上方後ろ側へと貫通したかのような仮想現実を感じることができる。 In FIG. 17B, the hit direction DHT of the bullet SH is in the direction from the lower front side to the upper rear side of the user moving body MV. In this case, the vibration unit VF2 on the front surface side and the vibration unit VB5 on the rear surface side along the trajectory of the hit direction DHT are selected and vibrated. For example, after vibrating the vibrating portion VF2 on the front surface side, the vibrating portion VB5 on the rear surface side is vibrated after a period of a given vibration interval elapses. This allows the user to feel the virtual reality as if a real bullet penetrated from the lower front side to the upper back side of his body.

一方、図18(A)、図18(B)は、先に振動させる複数の第1の振動部が、後面側の振動部VB1~VB9であり、後に振動させる複数の第2の振動部が、前面側の振動部VF1~VF9である場合の例である。この場合に、複数の後面側の振動部VB1~VB9(複数の第1の振動部)の中から振動させる振動部を選択する処理と、複数の前面側の振動部VF1~VF9(複数の第2の振動部)の中から振動させる振動部を選択する処理と、ヒット情報であるヒット方向DHTに基づいて行う。 On the other hand, in FIGS. 18A and 18B, the plurality of first vibrating portions to be vibrated first are the vibrating portions VB1 to VB9 on the rear surface side, and the plurality of second vibrating portions to be vibrated later are. This is an example of the case where the vibrating portions VF1 to VF9 on the front side are used. In this case, the process of selecting the vibrating portion to be vibrated from the plurality of vibrating portions VB1 to VB9 (plural first vibrating portions) on the rear surface side, and the processing of selecting the vibrating portions VF1 to VF9 (plural first vibrating portions) on the front surface side. It is performed based on the process of selecting the vibrating part to be vibrated from the vibrating part of 2) and the hit direction DHT which is the hit information.

例えば図18(A)では、弾SHのヒット方向DHTは、ユーザ移動体MVの右後ろ側から左前側への方向になっている。この場合には、このヒット方向DHTの軌道に沿った後面側の振動部VB4と前面側の振動部VF6を選択して、振動させる。例えば後面側の振動部VB4を振動させた後、所与の振動間隔の期間経過後に、前面側の振動部VF6を振動させる。これによりユーザは、あたかも本物の弾が自身の身体の右後ろ側から左前側へと貫通したかのような仮想現実を感じることができる。 For example, in FIG. 18A, the hit direction DHT of the bullet SH is in the direction from the right rear side to the left front side of the user moving body MV. In this case, the vibrating portion VB4 on the rear surface side and the vibrating portion VF6 on the front surface side along the trajectory of the hit direction DHT are selected and vibrated. For example, after vibrating the vibrating portion VB4 on the rear surface side, the vibrating portion VF6 on the front surface side is vibrated after a period of a given vibration interval elapses. This allows the user to feel the virtual reality as if a real bullet penetrated from the right rear side to the left front side of his body.

図18(B)では、弾SHのヒット方向DHTは、ユーザ移動体MVの上方後ろ側から下方前側への方向になっている。この場合には、このヒット方向DHTの軌道に沿った後面側の振動部VB5と前面側の振動部VF2を選択して、振動させる。例えば後面側の振動部VB5を振動させた後、所与の振動間隔の期間経過後に、前面側の振動部VF2を振動させる。これによりユーザは、あたかも本物の弾が自身の身体の上方後ろ側から下方前側へと貫通したかのような仮想現実を感じることができる。 In FIG. 18B, the hit direction DHT of the bullet SH is in the direction from the upper rear side to the lower front side of the user moving body MV. In this case, the vibrating portion VB5 on the rear surface side and the vibrating portion VF2 on the front surface side along the trajectory of the hit direction DHT are selected and vibrated. For example, after vibrating the vibrating portion VB5 on the rear surface side, the vibrating portion VF2 on the front surface side is vibrated after a period of a given vibration interval elapses. This allows the user to feel the virtual reality as if a real bullet penetrated from the upper back side to the lower front side of his body.

このように図17(A)~図18(B)では、所定個数(例えば9個)の振動部が、ユーザの前面部と後面部の各々に格子状に配置され、ヒット情報に基づき適切な振動部が選択されて振動する。従って、ヒット方向等のヒット情報を反映させた好適な仮想現実感をユーザに与えることが可能になる。 As described above, in FIGS. 17A to 18B, a predetermined number (for example, 9) of vibrating portions are arranged in a grid pattern on each of the front surface portion and the rear surface portion of the user, which is appropriate based on the hit information. The vibrating part is selected and vibrates. Therefore, it is possible to give the user a suitable virtual reality feeling that reflects the hit information such as the hit direction.

なお図17(A)~図18(B)では、ヒット方向DHTに基づいて振動部の選択処理を行っているが、ヒット位置PHTに基づいて振動部の選択処理を行ってもよい。 In FIGS. 17A to 18B, the vibrating portion is selected based on the hit direction DHT, but the vibrating portion may be selected based on the hit position PHT.

例えば図12(A)において、弾SHがユーザ移動体MVの身体の中央部にヒットしたと判定されたとする。この場合には図19(A)に示すように、身体の中央部のヒット位置PHTに対応する前面側の振動部VF5と後面側の振動部VB5を振動させる振動制御を行う。これによりユーザは、あたかも本物の弾が自身の身体の前側の中央部から後ろ側の中央部へと貫通したかのような仮想現実を感じることができる。 For example, in FIG. 12A, it is assumed that the bullet SH is determined to hit the central part of the body of the user moving body MV. In this case, as shown in FIG. 19A, vibration control is performed to vibrate the front vibrating portion VF5 and the rear vibrating portion VB5 corresponding to the hit position PHT in the central portion of the body. This allows the user to feel the virtual reality as if a real bullet penetrated from the front central part of his body to the rear central part.

一方、弾SHがユーザ移動体MVの身体の中央部の下側にヒットしたと判定されたとする。この場合には図19(B)に示すように、身体の中央部の下側のヒット位置PHTに対応する前面側の振動部VF2と後面側の振動部VB2を振動させる振動制御を行う。これによりユーザは、あたかも本物の弾が自身の身体の前側の中央部下側から後ろ側の中央部下側へと貫通したかのような仮想現実を感じることができる。弾のヒット位置PHTが中央部の右側、左側、上側、斜め側等である場合にも、同様の振動制御を行うことができる。また、ヒット情報のヒット方向DHTとヒット位置PHTの両方を用いて、前面側の振動部と後面側の振動部を振動させる振動制御を行ってもよい。このようにすれば、弾が身体を貫通する仮想現実の体感処理を、より正確に実現する振動制御が可能になる。 On the other hand, it is assumed that the bullet SH is determined to hit the lower side of the central part of the body of the user moving body MV. In this case, as shown in FIG. 19B, vibration control is performed to vibrate the front vibrating portion VF2 and the rear vibrating portion VB2 corresponding to the lower hit position PHT of the central portion of the body. This allows the user to feel the virtual reality as if a real bullet had penetrated from the lower center of the front of his body to the lower center of the back of his body. Similar vibration control can be performed even when the hit position PHT of the bullet is on the right side, left side, upper side, diagonal side, etc. of the central portion. Further, vibration control may be performed to vibrate the vibrating portion on the front surface side and the vibrating portion on the rear surface side by using both the hit direction DHT and the hit position PHT of the hit information. In this way, vibration control that more accurately realizes the virtual reality experience processing in which the bullet penetrates the body becomes possible.

また弾のヒット方向DHTやヒット位置PHTなどのヒット情報はユーザ移動体MVを標的として攻撃を行う敵の攻撃方向等の演算処理を行うことで特定できる。例えば図2(A)~図3(B)で説明したトラッキング手法などにより、敵のユーザが所持するガン型コントローラの位置情報、方向情報を取得し、これらの位置情報、方向情報に基づいて攻撃方向を求めるヒット演算処理を行い、ヒット方向DHTやヒット位置PHTを特定する。この場合に、例えばユーザ移動体と敵移動体の相対的な位置関係や方向関係を反映させて、ヒット方向DHTやヒット位置PHTを特定すればよい。 Further, the hit information such as the hit direction DHT and the hit position PHT of the bullet can be specified by performing arithmetic processing such as the attack direction of the enemy who attacks the user moving body MV as a target. For example, by the tracking method described in FIGS. 2 (A) to 3 (B), the position information and direction information of the gun type controller possessed by the enemy user are acquired, and an attack is made based on these position information and direction information. The hit calculation process for determining the direction is performed, and the hit direction DHT and the hit position PHT are specified. In this case, for example, the hit direction DHT and the hit position PHT may be specified by reflecting the relative positional relationship and the directional relationship between the user moving body and the enemy moving body.

また本実施形態では、第1の振動部を振動させる第1のタイミングから、第2の振動部を振動させる第2のタイミングまでの振動間隔の長さを、ヒットイベント(振動イベント)の種類又は内容に応じて変化させる。具体的には振動間隔の長さを、ヒット情報に含まれるヒット速度に基づいて変化させる。 Further, in the present embodiment, the length of the vibration interval from the first timing for vibrating the first vibrating portion to the second timing for vibrating the second vibrating portion is determined by the type of hit event (vibration event) or. Change according to the content. Specifically, the length of the vibration interval is changed based on the hit speed included in the hit information.

ここで、第1の振動部は、先に振動させる方の振動部であり、第2の振動部は、後に振動させる方の振動部である。前述したように図17(A)、図17(B)では、前面側の振動部(VF1~VF9)が第1の振動部になり、後面側の振動部(VB1~VB9)が第2の振動部になる。一方、図18(A)、図18(B)では、後面側の振動部(VB1~VB9)が第1の振動部になり、前面側の振動部(VF1~VF9)が第2の振動部になる。 Here, the first vibrating portion is the vibrating portion that vibrates first, and the second vibrating portion is the vibrating portion that vibrates later. As described above, in FIGS. 17A and 17B, the front vibrating portion (VF1 to VF9) becomes the first vibrating portion, and the rear vibrating portion (VB1 to VB9) becomes the second vibrating portion. It becomes a vibrating part. On the other hand, in FIGS. 18A and 18B, the vibrating portions (VB1 to VB9) on the rear surface side are the first vibrating portions, and the vibrating portions (VF1 to VF9) on the front surface side are the second vibrating portions. become.

例えば図20(A)では、第1の振動部である前面側の振動部VFがタイミングT1(第1のタイミング)で振動している。そしてタイミングT1から振動間隔TVの期間経過後のタイミングT2(第2のタイミング)で、第2の振動部である後面側の振動部VBが振動している。このような振動間隔TVによる振動の時間差を設けることで、弾が貫通しているかのように感じる仮想現実感を実現できる。なお、前述したように第1の振動部が後面側の振動部であり、第2の振動部が前面側の振動部であってもよい。 For example, in FIG. 20A, the vibration unit VF on the front side, which is the first vibration unit, vibrates at the timing T1 (first timing). Then, at the timing T2 (second timing) after the period of the vibration interval TV elapses from the timing T1, the vibration portion VB on the rear surface side, which is the second vibration portion, vibrates. By providing such a vibration interval TV with a time difference of vibration, it is possible to realize a virtual reality feeling as if a bullet penetrates. As described above, the first vibrating portion may be the vibrating portion on the rear surface side, and the second vibrating portion may be the vibrating portion on the front surface side.

そして図20(B)では、弾のヒット速度が遅いため、振動部VFを振動させるタイミングT1から振動部VBを振動させるタイミングT2までの振動間隔TVを長くする。一方、図20(C)では、弾のヒット速度が速いため、振動部VFを振動させるタイミングT1から振動部VBを振動させるタイミングT2までの振動間隔TVを短くする。このようにすれば、速度が遅い弾については、振動間隔TVが長くなることで、長い時間間隔で弾が身体を貫通するような仮想現実感をユーザに与えることができる。一方、速度が速い弾については、振動間隔TVが短くなることで、短い時間間隔で弾が身体を貫通するような仮想現実感をユーザが与えることができる。従って、弾のヒット速度を反映させた弾の貫通表現を実現でき、ユーザの仮想現実感を更に向上できる。 Then, in FIG. 20B, since the hit speed of the bullet is slow, the vibration interval TV from the timing T1 for vibrating the vibrating portion VF to the timing T2 for vibrating the vibrating portion VB is lengthened. On the other hand, in FIG. 20C, since the hit speed of the bullet is high, the vibration interval TV from the timing T1 for vibrating the vibrating portion VF to the timing T2 for vibrating the vibrating portion VB is shortened. By doing so, for a bullet with a slow speed, the vibration interval TV becomes long, so that the user can be given a virtual reality feeling that the bullet penetrates the body at a long time interval. On the other hand, for a bullet having a high speed, the vibration interval TV is shortened, so that the user can give a virtual reality feeling that the bullet penetrates the body at a short time interval. Therefore, it is possible to realize a bullet penetration expression that reflects the hit speed of the bullet, and it is possible to further improve the virtual reality of the user.

このように本実施形態では、振動間隔TVの長さを、ヒット速度に基づき変化させている。別の言い方をすれば、振動間隔TVの長さを、ヒットイベント(振動イベント)の種類や内容に応じて変化させている。例えばヒット速度が速い武器の攻撃が行われる第1の種類のイベントでは、振動間隔TVを短くする。一方、ヒット速度が遅い武器の攻撃が行われる第2の種類のイベントでは、振動間隔TVを長くする。即ち、振動間隔TVの長さを、ヒットイベントの種類に応じて変化させる。或いは、同じ武器を使用する同じ種類のイベントにおいて、例えば敵の攻撃速度のパラメータが高くなることで、当該武器による攻撃のヒット速度が速くなる場合には、振動間隔TVを短くする。また敵の攻撃速度のパラメータが低くなることで、当該武器による攻撃のヒット速度が遅くなる場合には、振動間隔TVを長くする。即ち、振動間隔TVの長さを、ヒットイベントの内容に応じて変化させる。 As described above, in the present embodiment, the length of the vibration interval TV is changed based on the hit speed. In other words, the length of the vibration interval TV is changed according to the type and content of the hit event (vibration event). For example, in the first type of event where a weapon with a high hit speed is attacked, the vibration interval TV is shortened. On the other hand, in the second type of event where a weapon with a slow hit speed is attacked, the vibration interval TV is lengthened. That is, the length of the vibration interval TV is changed according to the type of hit event. Alternatively, in the same type of event using the same weapon, for example, when the parameter of the enemy's attack speed is increased and the hit speed of the attack by the weapon is increased, the vibration interval TV is shortened. In addition, when the hit speed of the attack by the weapon becomes slow due to the lowering of the parameter of the attack speed of the enemy, the vibration interval TV is lengthened. That is, the length of the vibration interval TV is changed according to the content of the hit event.

以上のようにすることで、ヒットイベントの種類や内容に応じた長さの振動間隔で、振動部が振動するようになるため、ヒットイベントの種類や内容を反映させた振動制御を実現できるようになる。 By doing the above, the vibrating part will vibrate at the vibration interval of the length according to the type and content of the hit event, so it is possible to realize vibration control that reflects the type and content of the hit event. become.

以上のように本実施形態では、ジャケット52等の装着体に対して複数の振動部が設けられ、ゲーム処理に基づく画像が表示部に表示されると共に、ゲーム状況に応じて、装着体の複数の振動部の振動制御が行われる。このようにすれば、表示部に表示されるゲーム画像に連動させた振動部の振動制御が可能になり、ゲーム処理の結果に基づく表示画像を生成しながら、ユーザがプレイするゲームの状況を反映させた装着体の振動部の振動制御を実現できる。 As described above, in the present embodiment, a plurality of vibration units are provided for the wearing body such as the jacket 52, an image based on the game processing is displayed on the display unit, and the plurality of wearing bodies are displayed according to the game situation. The vibration of the vibrating part of is controlled. By doing so, it becomes possible to control the vibration of the vibrating part linked to the game image displayed on the display part, and while generating the display image based on the result of the game processing, the situation of the game played by the user is reflected. It is possible to realize the vibration control of the vibrating part of the mounted body.

特に表示部としてHMDを用いる場合には、ユーザの視界はHMDにより覆われるため、装着体の複数の振動部を用いた振動制御は、ユーザの仮想現実感の向上のために有効である。例えばHMDにより視界が覆われることで、ユーザは、装着体での複数の振動部の振動を、あたかも本物の弾等が自身に対してヒットしたかのように感じるようになり、ゲームの仮想現実感を大幅に向上できる。例えば図17(A)~図19(B)に示すように、ヒット方向やヒット位置等のヒット情報を反映させた振動制御を行えば、そのヒット方向やヒット位置等で弾等が実際にヒットしたかのような仮想現実感をユーザに与えることができる。また図20(A)~図20(C)に示すように振動間隔による振動の時間差を設けることで、ヒットした弾等が自身の身体を貫通したかのように感じる仮想現実感を実現できる。 In particular, when the HMD is used as the display unit, the user's field of view is covered by the HMD, so that vibration control using a plurality of vibration units of the wearer is effective for improving the virtual reality of the user. For example, by covering the field of view with the HMD, the user can feel the vibration of multiple vibrating parts in the wearing body as if a real bullet hits himself, and the virtual reality of the game. The feeling can be greatly improved. For example, as shown in FIGS. 17 (A) to 19 (B), if vibration control is performed that reflects hit information such as the hit direction and the hit position, the bullet or the like actually hits in the hit direction or the hit position. It is possible to give the user a feeling of virtual reality as if it were done. Further, by providing a vibration time difference due to the vibration interval as shown in FIGS. 20 (A) to 20 (C), it is possible to realize a virtual reality feeling as if a hit bullet or the like has penetrated its own body.

なお本実施形態でのヒットイベントとしては、図21(A)に示すような弾SH等の攻撃物がユーザ移動体MVにヒットするイベントが考えられるが、図21(B)に示すように敵移動体OBEの剣SWE等の武器がユーザ移動体にヒットするイベントであってもよい。このようにすれば図7、図8に示すような剣ゲームにおいて、ユーザが敵を斬ったという感触については、剣型コントローラ10の反動等の発生機構30により実現しながら、敵から斬られたことによる衝撃の感触については、ジャケット52等の装着体の振動部の振動制御により実現できるようになる。 As a hit event in this embodiment, an event in which an attacking object such as a bullet SH as shown in FIG. 21 (A) hits the user moving object MV can be considered, but as shown in FIG. 21 (B), an enemy. It may be an event in which a weapon such as the sword SWE of the moving body OBE hits the user moving body. In this way, in the sword game as shown in FIGS. 7 and 8, the feeling that the user has slashed the enemy is realized by the reaction generation mechanism 30 of the sword-shaped controller 10 and is slashed by the enemy. As a result, the feeling of impact can be realized by controlling the vibration of the vibrating portion of the mounting body such as the jacket 52.

またヒットイベントにおいてユーザ移動体MVにヒットするオブジェクトは、図21(A)、図21(B)のような弾SH等の攻撃物や剣SWE等の武器には限定されない。例えば図21(C)では、岩山等が崩れたことによる岩RKのオブジェクトがユーザ移動体MVにヒットしており、このような岩RKのヒットの際の衝撃の感覚についても、装着体の振動部の振動制御により実現できる。即ち本実施形態の手法は、弾や武器を用いた対戦ゲームのみならず、岩などの物体がぶつかって来るような自然体験のシミュレーションゲーム等にも適用できる。 Further, the object that hits the user moving object MV in the hit event is not limited to an attacking object such as a bullet SH as shown in FIGS. 21 (A) and 21 (B) and a weapon such as a sword SWE. For example, in FIG. 21 (C), the object of the rock RK due to the collapse of a rocky mountain or the like hits the user moving body MV, and the vibration of the wearing body also regarding the feeling of impact at the time of such a hit of the rock RK. This can be achieved by controlling the vibration of the unit. That is, the method of this embodiment can be applied not only to a battle game using bullets and weapons, but also to a simulation game of nature experience in which an object such as a rock collides.

また本実施形態の手法は、他のオブジェクトがヒットするヒットイベント以外の振動イベントにも適用可能である。例えば図21(D)では、ユーザ移動体MVの近くにおいて爆発EXPが発生しており、この爆発EXPによる振動イベントが発生した場合に、ユーザの装着体の振動部を振動させる振動制御を行ってもよい。このようにすれば、爆発EXPによる爆風等をユーザに体感させることができ、本当に爆発が起きたかのような仮想現実感をユーザに与えることが可能になる。 Further, the method of the present embodiment can be applied to a vibration event other than a hit event in which another object hits. For example, in FIG. 21D, an explosion EXP is generated near the user moving body MV, and when a vibration event due to this explosion EXP occurs, vibration control is performed to vibrate the vibrating portion of the user's wearing body. May be good. By doing so, the user can experience the blast caused by the explosion EXP, and the user can be given a virtual reality as if an explosion really occurred.

また本実施形態では、振動部の振動制御に応じた演出処理を行ってもよい。例えば振動部の振動制御に連動して、ユーザに出力される効果音の演出処理を行ったり、ゲーム画像での演出画像の生成処理を行う。例えば図21(A)、図21(B)で弾SHや剣SWEがヒットした場合に、そのヒットに連動した効果音を出力したり、エフェクト画像を生成する。また図21(C)のように岩RKがヒットするイベントでは、岩が崩れる際の効果音やエフェクト画像を生成する。また図21(D)に示すように爆発EXPの振動イベントが発生した場合には、爆発EXPに対応する効果音やエフェクト画像を生成する。そして例えば振動させる振動部の個数や範囲、或いは振動のタイミングに合わせて、効果音を出力したり、演出画像を表示する。このようにすることで、振動部の振動制御に連動した効果音の出力や演出画像の表示が可能になり、ユーザの仮想現実感を更に高めることが可能になる。 Further, in the present embodiment, the effect processing may be performed according to the vibration control of the vibrating portion. For example, in conjunction with the vibration control of the vibrating unit, the effect sound output to the user is produced, or the effect image is generated in the game image. For example, when the bullet SH or the sword SWE hits in FIGS. 21 (A) and 21 (B), a sound effect linked to the hit is output or an effect image is generated. Further, in the event where the rock RK hits as shown in FIG. 21C, a sound effect or an effect image when the rock collapses is generated. Further, as shown in FIG. 21 (D), when a vibration event of the explosion EXP occurs, a sound effect or an effect image corresponding to the explosion EXP is generated. Then, for example, a sound effect is output or an effect image is displayed according to the number and range of vibrating parts to be vibrated or the timing of vibration. By doing so, it becomes possible to output a sound effect linked to the vibration control of the vibrating portion and display an effect image, and it is possible to further enhance the virtual reality of the user.

また以上ではHMD等の表示部にゲーム画像を表示するタイプのシミュレーションシステムに本実施形態の手法を適用した場合について主に説明したが、本実施形態はこれに限定されない。例えば図22では、実空間においてユーザUS1は、複数の振動部が設けられたジャケット52-1(装着体)を着用し、その手に銃53-1を所持している。またユーザUS2は、複数の振動部が設けられたジャケット52-2を着用し、その手に銃53-2を所持している。そしてユーザUS1、US2は、実空間のゲームフィールドにおいて銃53-1、53-2を用いたサバイバルゲームなどのガンゲームをプレイする。銃53-1、53-2は例えば電動ガン(エアソフトガン)であり、BB弾などの弾を発射する。但し銃53-1、53-2は赤外線などの光線による弾を発射するものであってもよい。図22のシミュレーションシステム(ゲームシステム)では、例えば各ユーザの得点の演算処理や、或いは弾が相手のユーザにヒットしたか否かなどを判定するヒット判定処理がゲーム処理として行われる。そして、弾などの被ヒット物が相手のユーザにヒットすると、その相手のユーザのジャケットの振動部が振動する。この場合にヒットイベント(振動イベント)の種類又は内容に応じて、振動させる振動部の個数又は振動範囲が変化する。また被ヒット物がヒットするイベントが発生した際に、複数の振動部の中から振動させる振動部がランダムに選択される。またヒット演算処理により求められたヒット方向やヒット位置などのヒット情報に応じて、複数の振動部の中から振動させる振動部が選択される。なお図22では実空間でのガンゲームに本実施形態の振動制御手法を適用した場合について示しているが、例えばアトラクションゲームなどでの図21(D)に示すような爆発イベントの発生の際の振動部の振動制御に対して、本実施形態の手法を適用してもよい。 Further, although the case where the method of this embodiment is applied to a simulation system of a type that displays a game image on a display unit such as an HMD has been mainly described above, the present embodiment is not limited to this. For example, in FIG. 22, in real space, the user US1 wears a jacket 52-1 (wearing body) provided with a plurality of vibrating parts, and holds a gun 53-1 in his hand. Further, the user US2 wears a jacket 52-2 provided with a plurality of vibrating parts and holds a gun 53-2 in his / her hand. Then, the users US1 and US2 play a gun game such as a survival game using guns 53-1 and 53-2 in a real space game field. The guns 53-1 and 53-2 are, for example, electric guns (airsoft guns) and fire bullets such as BB bullets. However, the guns 53-1 and 53-2 may emit bullets by light rays such as infrared rays. In the simulation system (game system) of FIG. 22, for example, a calculation process of a score of each user or a hit determination process of determining whether or not a bullet hits an opponent user is performed as a game process. Then, when a hit object such as a bullet hits the other user, the vibrating portion of the jacket of the other user vibrates. In this case, the number or vibration range of the vibrating parts to be vibrated changes according to the type or content of the hit event (vibration event). Further, when an event in which a hit object hits occurs, a vibrating portion to be vibrated is randomly selected from a plurality of vibrating portions. Further, a vibrating portion to be vibrated is selected from a plurality of vibrating portions according to hit information such as a hit direction and a hit position obtained by a hit calculation process. Note that FIG. 22 shows a case where the vibration control method of the present embodiment is applied to a gun game in a real space. For example, when an explosion event occurs as shown in FIG. 21 (D) in an attraction game or the like. The method of this embodiment may be applied to the vibration control of the vibrating part.

4.詳細な処理
次に本実施形態の詳細な処理例について図23~図26のフローチャートを用いて説明する。
4. Detailed processing Next, a detailed processing example of the present embodiment will be described with reference to the flowcharts of FIGS. 23 to 26.

図23はヒットイベントの種類又は内容に応じた振動制御の処理例を示すフローチャートである。まずユーザ又はユーザ移動体に弾等の被ヒット物がヒットしたか否かを判定する(ステップS1)。例えば図22では実空間でのユーザと弾とのヒット判定処理が行われる。また図5(A)~図6等では仮想空間でのユーザ移動体と弾等のオブジェクトとのヒット判定処理が行われる。このヒット判定処理は、例えばユーザ移動体のヒットボリュームと弾等のオブジェクト又は軌道との交差判定処理などにより実現できる。 FIG. 23 is a flowchart showing a processing example of vibration control according to the type or content of the hit event. First, it is determined whether or not a hit object such as a bullet hits the user or the user moving object (step S1). For example, in FIG. 22, a hit determination process between a user and a bullet in real space is performed. Further, in FIGS. 5A to 6 and the like, hit determination processing is performed between the user moving object and an object such as a bullet in the virtual space. This hit determination process can be realized, for example, by an intersection determination process between a hit volume of a user moving object and an object such as a bullet or a trajectory.

ユーザ又はユーザ移動体に被ヒット物がヒットするヒットイベントが発生した場合には、発生したヒットイベントの種類又は内容を判断する(ステップS2)。例えばヒットイベントでヒットした被ヒット物の種類によりヒットイベントの種類を判断したり、ヒットの強さパラメータや攻撃力パラメータや速さパラメータなどによりヒットイベントの内容を判断する。そして、ヒットイベントの種類又は内容についての判断結果に基づいて、振動させる振動部の個数又は振動範囲を設定する(ステップS3)。そして、設定された個数又は振動範囲の振動部を振動させる(ステップS4)。これにより図13(A)~図14(C)に示すようなヒットイベントの種類や内容に応じた振動制御を実現できるようになる。 When a hit event in which the hit object hits the user or the user moving body occurs, the type or content of the generated hit event is determined (step S2). For example, the type of hit event is determined by the type of hit object hit in the hit event, and the content of the hit event is determined by the hit strength parameter, attack power parameter, speed parameter, and the like. Then, the number of vibrating parts or the vibrating range to be vibrated is set based on the judgment result about the type or content of the hit event (step S3). Then, the vibrating portions of the set number or vibration range are vibrated (step S4). This makes it possible to realize vibration control according to the type and content of the hit event as shown in FIGS. 13 (A) to 14 (C).

図24はヒットイベントでの時間経過に応じた振動制御の処理例を示すフローチャートである。まずユーザ又はユーザ移動体に弾等の被ヒット物がヒットしたか否かを判定する(ステップS11)。そして被ヒット物がヒットしてヒットイベントが発生した場合、複数の振動部のうちの第1の振動部を振動させる(ステップS12)。例えば図15(A)のように振動部VF5を振動させる。次に所与の時間が経過したか否かを判断し(ステップS13)、所与の時間が経過した場合には、第1の振動部の周囲の第2の振動部を振動させる(ステップS14)。例えば図15(B)のように振動部VF5の周囲の振動部VF4、VF6を振動させる。更に所与の時間が経過したら、振動部VF2、VF8を振動させる。このようにすれば、時間経過に応じて、振動部の振動個数が増えて行ったり、振動範囲が広がって行くような振動制御を実現できるようになる。 FIG. 24 is a flowchart showing a processing example of vibration control according to the passage of time in a hit event. First, it is determined whether or not a hit object such as a bullet hits the user or the user moving object (step S11). Then, when the hit object hits and a hit event occurs, the first vibrating portion of the plurality of vibrating portions is vibrated (step S12). For example, the vibrating unit VF5 is vibrated as shown in FIG. 15 (A). Next, it is determined whether or not a given time has elapsed (step S13), and if a given time has elapsed, the second vibrating portion around the first vibrating portion is vibrated (step S14). ). For example, as shown in FIG. 15B, the vibrating portions VF4 and VF6 around the vibrating portion VF5 are vibrated. After a given time has elapsed, the vibrating units VF2 and VF8 are vibrated. By doing so, it becomes possible to realize vibration control in which the number of vibrations of the vibrating portion increases or the vibration range expands with the passage of time.

図25は仮想空間においてユーザ移動体が移動するシミュレーションシステムにおける全体的な処理例を示すフローチャートである。まずユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する(ステップS21)。例えばHMDの位置情報、方向情報を取得することで、ユーザの位置情報、方向情報等を取得できる。そして、ユーザに対応するユーザ移動体の移動処理を行う(ステップS22)。例えば、取得された実空間でのユーザの位置情報や方向情報に基づいて、ユーザ移動体を仮想空間で移動させる処理を行う。またユーザの姿勢情報が取得される場合には、取得された姿勢情報に基づいて、ユーザ移動体を動作させるモーション処理を行う。 FIG. 25 is a flowchart showing an overall processing example in a simulation system in which a user moving object moves in a virtual space. First, user information including at least one of the user's position information, direction information, and posture information is acquired (step S21). For example, by acquiring the position information and direction information of the HMD, the user's position information, direction information, and the like can be acquired. Then, the movement process of the user moving body corresponding to the user is performed (step S22). For example, a process of moving a user moving body in a virtual space is performed based on the acquired position information and direction information of the user in the real space. When the user's posture information is acquired, motion processing for operating the user moving body is performed based on the acquired posture information.

次に、ヒット演算処理等のゲーム処理を実行する(ステップS23)。例えば他のオブジェクトがユーザ移動体にヒットしたか否かを判定するヒット演算処理や、ゲームを進行させるゲーム進行処理などを実行する。そして装着体の振動部の振動制御処理を行う(ステップS24)。例えばヒット演算処理等の結果に基づいて、ゲーム状況に応じた振動部の振動制御処理を行う。そしてゲーム処理の結果に基づいてHMDの表示画像を生成して、HMDに表示する(ステップS25)。 Next, game processing such as hit calculation processing is executed (step S23). For example, a hit calculation process for determining whether or not another object has hit the user moving object, a game progress process for advancing the game, and the like are executed. Then, the vibration control process of the vibrating portion of the mounted body is performed (step S24). For example, based on the result of the hit calculation process or the like, the vibration control process of the vibrating unit is performed according to the game situation. Then, a display image of the HMD is generated based on the result of the game processing and displayed on the HMD (step S25).

図26はヒット情報や振動部のランダム選択によるに振動制御の処理例を示すフローチャートである。まずユーザ移動体に弾のオブジェクトがヒットしたか否かを判定する(ステップS31)。そして弾のオブジェクトがユーザ移動体にヒットしてヒットイベントが発生した場合には、ヒット方向、ヒット位置、及びヒット速度の少なくとも1つを含むヒット情報を取得する(ステップS32)。例えばオブジェクトがユーザ移動体にヒットした際の弾のオブジェクトの移動方向、移動位置、移動速度を、各々、ヒット方向、ヒット位置、ヒット速度として取得できる。次にヒット情報に応じて、複数の振動部の中から振動させる振動部の候補を決定する(ステップS33)。そして、決定された候補の中からランダムに選択された振動部を振動させる(ステップS34)。例えばヒット情報に基づいて、ユーザ移動体の前面側に弾のオブジェクトがヒットしたと判定された場合には、候補となる前面側の振動部の中からランダムに選択された振動部を振動させる。一方、ヒット情報に基づいて、ユーザ移動体の後面側に弾のオブジェクトがヒットしたと判定された場合には、候補となる後面側の振動部の中からランダムに選択された振動部を振動させる。或いは、前面側や後面側において、ヒット位置を含む所与の範囲内の振動部を候補の振動部として決定し、これらの候補の振動部の中から振動させる振動部をランダムに選択してもよい。そして同様にして、次に、ユーザ移動体に弾のオブジェクトがヒットすることでヒットイベントが発生した場合には、ヒット情報を取得し、ヒット情報に基づき決定された候補の中からランダムに選択された振動部を振動させる(ステップS31~S34)。このようにすることで、ヒットイベントが発生した際に、複数の振動部の中から振動させる振動部をランダムに選択する振動制御を実現できるようになる。 FIG. 26 is a flowchart showing a processing example of vibration control based on hit information and random selection of a vibration unit. First, it is determined whether or not the bullet object hits the user moving object (step S31). Then, when the bullet object hits the user moving object and a hit event occurs, hit information including at least one of the hit direction, the hit position, and the hit speed is acquired (step S32). For example, the moving direction, moving position, and moving speed of the bullet object when the object hits the user moving object can be acquired as the hit direction, hit position, and hit speed, respectively. Next, a candidate for the vibrating portion to be vibrated is determined from the plurality of vibrating portions according to the hit information (step S33). Then, the vibrating portion randomly selected from the determined candidates is vibrated (step S34). For example, when it is determined that the bullet object hits the front side of the user moving body based on the hit information, the vibrating part randomly selected from the candidate front side vibrating parts is vibrated. On the other hand, when it is determined that the bullet object hits the rear surface side of the user moving object based on the hit information, the vibrating portion randomly selected from the candidate rear surface side vibrating portions is vibrated. .. Alternatively, on the front side or the rear side, a vibrating part within a given range including the hit position is determined as a candidate vibrating part, and a vibrating part to be vibrated is randomly selected from these candidate vibrating parts. good. Then, in the same manner, next, when a hit event occurs due to a bullet object hitting the user moving object, hit information is acquired and randomly selected from the candidates determined based on the hit information. The vibrating part is vibrated (steps S31 to S34). By doing so, when a hit event occurs, it becomes possible to realize vibration control in which a vibrating part to be vibrated is randomly selected from a plurality of vibrating parts.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(装着体、振動イベント、被ヒット物等)と共に記載された用語(ジャケット、ヒットイベント、オブジェクト等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またゲーム処理、振動制御処理、ヒット演算処理、ユーザ情報の取得処理、仮想空間の設定処理、移動体の移動処理、表示処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、又は多数のユーザが参加する大型アトラクションシステム等の種々のシミュレーションシステムに適用できる。 Although the present embodiment has been described in detail as described above, those skilled in the art will easily understand that many modifications that do not substantially deviate from the novel matters and effects of the present invention are possible. Therefore, all such modifications are included in the scope of the present invention. For example, in a specification or drawing, a term (jacket, hit event, object, etc.) described at least once with a different term (attachment, vibration event, hit object, etc.) in a broader sense or synonymous is a specification or drawing. Can be replaced with the different term anywhere in. Further, game processing, vibration control processing, hit calculation processing, user information acquisition processing, virtual space setting processing, moving body movement processing, display processing, etc. are not limited to those described in the present embodiment, and are equivalent to these. Methods, processes, and configurations are also included in the scope of the present invention. The present invention can also be applied to various games. Further, the present invention can be applied to various simulation systems such as a commercial game device, a home game device, or a large attraction system in which a large number of users participate.

V1~VN 振動部、VF、VF1~VF9 前面側の振動部、
VB、VB1~VB9 後面側の振動部、
AR 振動範囲、DHT ヒット方向、PHT ヒット位置、TV 振動間隔、
US、US1~US4 ユーザ、GN、GN1~GN4 ガン型コントローラ、
HMD、HMD1~HMD4 頭部装着型表示装置、
MV、MV1~MV3、ユーザ移動体、MB1~MB3 敵移動体、
FL フィールド、GV1~GV3、GB1~GB3 銃、
SH 弾、SWE 剣、RK 岩、EXP 爆発、
10 剣型コントローラ、20 把持部、30 発生機構、32 錘、
34 受け部、50 装着体、52、52-1、52-2 ジャケット、
53-1、53-2 銃、60 発生機構、70、80 コントローラ、
90 ソレノイド、92 プランジャー、94 バネ、96 取付具、98 体、
100 処理部、102 入力処理部、110 演算処理部、111 情報取得部、
112 仮想空間設定部、113 移動体処理部、114 仮想カメラ制御部、
115 ゲーム処理部、116 ヒット演算処理部、118 制御部、
118 制御部、120 表示処理部、130 音処理部、140 出力処理部、
150 撮像部、151、152 カメラ、160 操作部、
170 記憶部、172 オブジェクト情報記憶部、178 描画バッファ、
180 情報記憶媒体、192 音出力部、194 I/F部、
195 携帯型情報記憶媒体、196 通信部、
200 HMD(頭部装着型表示装置)、201~203 受光素子、210 センサ部、
220 表示部、231~236 発光素子、240 処理部、250 処理装置、
252 ケーブル、260 ヘッドバンド、270 ヘッドホン、
280、284 ベースステーション、281、282、285、286 発光素子、
290 ガン型コントローラ
V1 to VN vibrating part, VF, VF1 to VF9 front side vibrating part,
VB, VB1 to VB9 Vibrating part on the rear surface side,
AR vibration range, DHT hit direction, PHT hit position, TV vibration interval,
US, US1 to US4 users, GN, GN1 to GN4 gun type controllers,
HMD, HMD1 to HMD4 Head-mounted display device,
MV, MV1 to MV3, user moving body, MB1 to MB3 enemy moving body,
FL field, GV1 to GV3, GB1 to GB3 guns,
SH bullets, SWE swords, RK rocks, EXP explosions,
10 sword-shaped controller, 20 grip, 30 generator, 32 weight,
34 receiving part, 50 mounting body, 52, 52-1, 52-2 jacket,
53-1, 53-2 gun, 60 generator, 70, 80 controller,
90 solenoid, 92 plunger, 94 spring, 96 fixture, 98 body,
100 processing unit, 102 input processing unit, 110 arithmetic processing unit, 111 information acquisition unit,
112 virtual space setting unit, 113 moving object processing unit, 114 virtual camera control unit,
115 game processing unit, 116 hit calculation processing unit, 118 control unit,
118 control unit, 120 display processing unit, 130 sound processing unit, 140 output processing unit,
150 image pickup unit, 151, 152 camera, 160 operation unit,
170 storage unit, 172 object information storage unit, 178 drawing buffer,
180 Information storage medium, 192 sound output section, 194 I / F section,
195 Portable information storage medium, 196 Communication unit,
200 HMD (head-mounted display device), 201-203 light receiving element, 210 sensor unit,
220 Display unit, 231 to 236 light emitting element, 240 processing unit, 250 processing device,
252 cables, 260 headbands, 270 headphones,
280, 284 base stations, 281, 282, 285, 286 light emitting elements,
290 gun type controller

Claims (8)

ユーザが身体に装着体を装着してプレイするゲームについてのゲーム処理を行うゲーム処理部と、
複数の振動部が設けられる前記装着体についての制御を行う制御部と、
を含み、
前記制御部は、
前記ゲームにおいて発生する振動イベントの種類又は内容に応じて、振動させる前記振動部の個数又は振動させる前記振動部の範囲である振動範囲を変化させる制御を行い、
前記振動イベントは、前記ユーザ又は前記ユーザに対応するユーザ移動体と被ヒット物とのヒットイベントであり、
前記装着体の前面部に、前面側振動部が設けられ、前記装着体の後面部に、後面側振動部が設けられ、
前記ゲーム処理部は、
前記ユーザ又は前記ユーザ移動体と前記被ヒット物とのヒット演算処理を行って、ヒット方向を含むヒット情報を求め、
前記制御部は、
前記ユーザ又は前記ユーザ移動体と前記被ヒット物との前記ヒットイベントが発生した場合に、前記ヒット情報に基づいて、前記前面側振動部及び前記後面側振動部の一方の振動部である第1の振動部を振動させた後、前記前面側振動部及び前記後面側振動部の他方の振動部である第2の振動部を振動させる振動制御を行い、
前記制御部は、
前記第1の振動部として複数の第1の振動部が設けられ、前記第2の振動部として複数の第2の振動部が設けられる場合に、前記複数の第1の振動部の中から、振動させる振動部として前記ヒット方向の軌道に沿った振動部を選択する処理を行うと共に、前記複数の第2の振動部の中から、振動させる振動部として前記ヒット方向の前記軌道に沿った振動部を選択する処理を行うことを特徴とするシミュレーションシステム。
A game processing unit that performs game processing for a game that the user wears on the body and plays.
A control unit that controls the mounting body provided with a plurality of vibration units, and a control unit that controls the mounting body.
Including
The control unit
Control is performed to change the number of the vibrating parts to be vibrated or the vibration range which is the range of the vibrating parts to be vibrated according to the type or content of the vibration event generated in the game.
The vibration event is a hit event between the user or a user moving body corresponding to the user and a hit object.
A front side vibrating portion is provided on the front surface portion of the mounting body, and a rear surface side vibrating portion is provided on the rear surface portion of the mounting body.
The game processing unit
The hit calculation process of the user or the user moving body and the hit object is performed to obtain hit information including the hit direction.
The control unit
When the hit event between the user or the user moving body and the hit object occurs, the first vibration unit is one of the front side vibration unit and the rear surface side vibration unit based on the hit information. After vibrating the vibrating portion of the above, vibration control is performed to vibrate the second vibrating portion, which is the other vibrating portion of the front side vibrating portion and the rear surface side vibrating portion.
The control unit
When a plurality of first vibrating parts are provided as the first vibrating part and a plurality of second vibrating parts are provided as the second vibrating part, among the plurality of first vibrating parts, A process of selecting a vibrating portion along the trajectory in the hit direction is performed as the vibrating portion to vibrate, and vibration along the trajectory in the hit direction is performed as the vibrating portion to vibrate from the plurality of second vibrating portions. A simulation system characterized by performing a process of selecting a part .
請求項1において、
記制御部は、
前記ヒットイベントの種類又は内容に応じて、振動させる前記振動部の前記個数又は前記振動範囲を変化させる制御を行うことを特徴とするシミュレーションシステム。
In claim 1,
The control unit
A simulation system characterized in that control is performed to change the number of vibrating portions or the vibration range to be vibrated according to the type or content of the hit event.
請求項2において、
前記制御部は、
前記被ヒット物の種類又は攻撃内容に応じて、振動させる前記振動部の前記個数又は前記振動範囲を変化させる制御を行うことを特徴とするシミュレーションシステム。
In claim 2,
The control unit
A simulation system characterized in that control is performed to change the number of vibrating portions or the vibration range to be vibrated according to the type of the hit object or the content of an attack.
請求項3において、
前記制御部は、
前記被ヒット物の種類が、高い攻撃能力を有する種類の被ヒット物であるほど、或いは前記被ヒット物の攻撃が、攻撃力の高い攻撃内容であるほど、振動させる前記振動部の前記個数を多くする、又は前記振動範囲を広くすることを特徴とするシミュレーションシステム。
In claim 3,
The control unit
The more the type of the hit object is the type of hit object having a high attack ability, or the more the attack content of the hit object is the attack content with a high attack power, the more the number of the vibrating portions to vibrate. A simulation system characterized by increasing or widening the vibration range.
請求項3又は4において、
前記制御部は、
前記被ヒット物のットタイミングにおいて、前記第1の振動部を振動させ、前記ヒットタイミングから所与の時間が経過した後に、前記第2の振動部を振動させることを特徴とするシミュレーションシステム。
In claim 3 or 4,
The control unit
A simulation system characterized in that the first vibrating portion is vibrated at the hit timing of the hit object, and the second vibrating portion is vibrated after a given time has elapsed from the hit timing.
請求項1乃至のいずれかにおいて、
仮想空間の設定処理を行う仮想空間設定部と、
前記仮想空間を移動する前記ユーザ移動体の移動処理を行う移動体処理部と、
前記ゲーム処理の結果に基づいて、前記ユーザに表示する画像を生成する表示処理部と、
を含むことを特徴とするシミュレーションシステム。
In any of claims 1 to 5 ,
A virtual space setting unit that performs virtual space setting processing, and
A moving body processing unit that performs moving processing of the user moving body that moves in the virtual space,
A display processing unit that generates an image to be displayed to the user based on the result of the game processing.
A simulation system characterized by including.
請求項において、
前記表示処理部は、
前記ユーザが視界を覆うように装着する頭部装着型表示装置の表示画像を生成することを特徴とするシミュレーションシステム。
In claim 6 ,
The display processing unit is
A simulation system characterized by generating a display image of a head-mounted display device worn by the user so as to cover the field of view.
ユーザが身体に装着体を装着してプレイするゲームについてのゲーム処理を行うゲーム処理部と、
複数の振動部が設けられる前記装着体についての制御を行う制御部として、
コンピュータを機能させ、
前記制御部は、
前記ゲームにおいて発生する振動イベントの種類又は内容に応じて、振動させる前記振動部の個数又は振動させる前記振動部の範囲である振動範囲を変化させる制御を行い、
前記振動イベントは、前記ユーザ又は前記ユーザに対応するユーザ移動体と被ヒット物とのヒットイベントであり、
前記装着体の前面部に、前面側振動部が設けられ、前記装着体の後面部に、後面側振動部が設けられ、
前記ゲーム処理部は、
前記ユーザ又は前記ユーザ移動体と前記被ヒット物とのヒット演算処理を行って、ヒット方向を含むヒット情報を求め、
前記制御部は、
前記ユーザ又は前記ユーザ移動体と前記被ヒット物との前記ヒットイベントが発生した場合に、前記ヒット情報に基づいて、前記前面側振動部及び前記後面側振動部の一方の振動部である第1の振動部を振動させた後、前記前面側振動部及び前記後面側振動部の他方の振動部である第2の振動部を振動させる振動制御を行い、
前記制御部は、
前記第1の振動部として複数の第1の振動部が設けられ、前記第2の振動部として複数の第2の振動部が設けられる場合に、前記複数の第1の振動部の中から、振動させる振動部として前記ヒット方向の軌道に沿った振動部を選択する処理を行うと共に、前記複数の第2の振動部の中から、振動させる振動部として前記ヒット方向の前記軌道に沿った振動部を選択する処理を行うことを特徴とするプログラム。
A game processing unit that performs game processing for a game that the user wears on the body and plays.
As a control unit that controls the mounting body provided with a plurality of vibration units,
Make your computer work
The control unit
Control is performed to change the number of the vibrating parts to be vibrated or the vibration range which is the range of the vibrating parts to be vibrated according to the type or content of the vibration event generated in the game.
The vibration event is a hit event between the user or a user moving body corresponding to the user and a hit object.
A front side vibrating portion is provided on the front surface portion of the mounting body, and a rear surface side vibrating portion is provided on the rear surface portion of the mounting body.
The game processing unit
The hit calculation process of the user or the user moving body and the hit object is performed to obtain hit information including the hit direction.
The control unit
When the hit event between the user or the user moving body and the hit object occurs, the first vibration unit is one of the front side vibration unit and the rear surface side vibration unit based on the hit information. After vibrating the vibrating portion of the above, vibration control is performed to vibrate the second vibrating portion, which is the other vibrating portion of the front side vibrating portion and the rear surface side vibrating portion.
The control unit
When a plurality of first vibrating parts are provided as the first vibrating part and a plurality of second vibrating parts are provided as the second vibrating part, among the plurality of first vibrating parts, A process of selecting a vibrating portion along the trajectory in the hit direction is performed as the vibrating portion to vibrate, and vibration along the trajectory in the hit direction is performed as the vibrating portion to vibrate from the plurality of second vibrating portions. A program characterized by performing a process of selecting a part .
JP2017254079A 2017-12-28 2017-12-28 Simulation system and program Active JP7071823B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017254079A JP7071823B2 (en) 2017-12-28 2017-12-28 Simulation system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017254079A JP7071823B2 (en) 2017-12-28 2017-12-28 Simulation system and program

Publications (2)

Publication Number Publication Date
JP2019118493A JP2019118493A (en) 2019-07-22
JP7071823B2 true JP7071823B2 (en) 2022-05-19

Family

ID=67305566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017254079A Active JP7071823B2 (en) 2017-12-28 2017-12-28 Simulation system and program

Country Status (1)

Country Link
JP (1) JP7071823B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230259195A1 (en) * 2022-02-17 2023-08-17 James Gomez Three-dimensional virtual reality vest

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111045932B (en) * 2019-11-25 2023-06-16 杭州网易再顾科技有限公司 Business system simulation processing method and device, electronic equipment and storage medium
WO2021145023A1 (en) * 2020-01-16 2021-07-22 ソニーグループ株式会社 Information processing device and information processing terminal
JPWO2022118748A1 (en) * 2020-12-04 2022-06-09

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009070263A (en) 2007-09-14 2009-04-02 Japan Science & Technology Agency Sense of piercing tactile sensation presentation device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3391071B2 (en) * 1993-12-27 2003-03-31 株式会社セガ game machine

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009070263A (en) 2007-09-14 2009-04-02 Japan Science & Technology Agency Sense of piercing tactile sensation presentation device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230259195A1 (en) * 2022-02-17 2023-08-17 James Gomez Three-dimensional virtual reality vest
US11886630B2 (en) * 2022-02-17 2024-01-30 James Gomez Three-dimensional virtual reality vest

Also Published As

Publication number Publication date
JP2019118493A (en) 2019-07-22

Similar Documents

Publication Publication Date Title
US11014000B2 (en) Simulation system, processing method, and information storage medium
US9779633B2 (en) Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
KR101926178B1 (en) Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
WO2018012395A1 (en) Simulation system, processing method, and information storage medium
JP5161256B2 (en) Program, information storage medium, and image generation apparatus
JP7071823B2 (en) Simulation system and program
JP2019122496A (en) Simulation system and program
CN109568944B (en) Game processing method, game processing device, game processing system, and recording medium
US11090554B2 (en) Simulation system, image processing method, and information storage medium
US10928915B2 (en) Distributed storytelling environment
JP6774260B2 (en) Simulation system
JP6910809B2 (en) Simulation system, program and controller
JP2018171320A (en) Simulation system and program
JP6935218B2 (en) Simulation system and program
JP6580619B2 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP2018097517A (en) Information processing method, device, and program for causing computer to execute the information processing method
JP2018064836A (en) Virtual game device
JP6918189B2 (en) Simulation system and program
JP6290490B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP5597869B2 (en) Program, information storage medium, and image generation apparatus
JP2018171309A (en) Simulation system and program
JP7121518B2 (en) Program, information processing device, and information processing method
JP2011255114A (en) Program, information storage medium, and image generation system
JP2019176934A (en) Simulation system
JP2019211865A (en) Computer program, information processing device, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220509

R150 Certificate of patent or registration of utility model

Ref document number: 7071823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150