JP2018171320A - Simulation system and program - Google Patents

Simulation system and program Download PDF

Info

Publication number
JP2018171320A
JP2018171320A JP2017071997A JP2017071997A JP2018171320A JP 2018171320 A JP2018171320 A JP 2018171320A JP 2017071997 A JP2017071997 A JP 2017071997A JP 2017071997 A JP2017071997 A JP 2017071997A JP 2018171320 A JP2018171320 A JP 2018171320A
Authority
JP
Japan
Prior art keywords
vibration
hit
user
unit
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017071997A
Other languages
Japanese (ja)
Inventor
藤田 浩司
Koji Fujita
浩司 藤田
慎也 丹羽
Shinya Niwa
慎也 丹羽
小原 利也
Toshiya Obara
利也 小原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2017071997A priority Critical patent/JP2018171320A/en
Publication of JP2018171320A publication Critical patent/JP2018171320A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a simulation system capable of achieving vibration control of a vibration part of an installation body in which hit information or the like in a hit event is reflected.SOLUTION: A simulation system comprises: a virtual space setting part; a movable body processing part; a game processing part; a display processing part; and a control part. At least one front surface side vibration part is provided on a front surface part of an installation body which a user installs to his/her body, and at least one rear surface side vibration part is provided on a rear surface part of the installation body. The game processing part performs hit calculation processing of a user movable body and other object, and determines hit information including at least one of the hit direction and the hit position. When the hit event of the user movable body and other object occurs, the control part vibrates the first vibration part which is one vibration part out of the front surface side vibration part and the rear surface side vibration part, based on the hit information, then, vibrates the second vibration part which is the other vibration part out of the front surface side vibration part and the rear surface side vibration part.SELECTED DRAWING: Figure 19

Description

本発明は、シミュレーションシステム及びプログラム等に関する。   The present invention relates to a simulation system and a program.

従来より、ユーザの触覚を利用した直感的なマンマシーンインターフェースを実現する技術が知られている。例えば特許文献1には、接触検出器や動き検出器を含むセンサ回路と、触覚テキスタイル(haptic textile)と、センサ回路からの作動信号に基づいて触覚フィードバックを生成するように構成された作動面とを有する装置が開示されている。この特許文献1の従来技術では、触覚テキスタイルにより触覚フィードバックの衣服を実現する手法が提案されている。   Conventionally, a technique for realizing an intuitive man-machine interface using a user's sense of touch is known. For example, Patent Document 1 discloses a sensor circuit including a contact detector and a motion detector, a haptic textile, and an operation surface configured to generate haptic feedback based on an operation signal from the sensor circuit. An apparatus is disclosed. In the prior art of this patent document 1, a technique for realizing a haptic feedback garment using a haptic textile has been proposed.

特表2012−511781号公報Special table 2012-511781 gazette

しかしながら特許文献1では、ユーザ移動体に他のオブジェクトがヒットする際のヒット演算処理で求められたヒット情報を、ユーザが装着する装着体の振動制御に反映させる手法については提案されていなかった。また装着体の前面側の振動部と後面側の振動部の適切な振動制御手法についても提案されていなかった。   However, Patent Document 1 has not proposed a method for reflecting hit information obtained by hit calculation processing when another object hits the user moving body in vibration control of the wearing body worn by the user. In addition, an appropriate vibration control method for the vibration part on the front side and the vibration part on the rear side of the wearing body has not been proposed.

本発明の幾つかの態様によれば、ヒットイベントでのヒット情報等を反映させた装着体の振動部の振動制御を実現できるシミュレーションシステム及びプログラム等を提供できる。   According to some aspects of the present invention, it is possible to provide a simulation system, a program, and the like that can realize vibration control of the vibration part of the wearing body reflecting hit information in a hit event.

本発明の一態様は、仮想空間の設定処理を行う仮想空間設定部と、前記仮想空間を移動するユーザ移動体の移動処理を行う移動体処理部と、ユーザが身体に装着体を装着してプレイするゲームのゲーム処理を行うゲーム処理部と、前記ゲーム処理の結果に基づいて、表示画像を生成する表示処理部と、制御部とを含み、前記装着体の前面部に、少なくとも1つの前面側振動部が設けられ、前記装着体の後面部に、少なくとも1つの後面側振動部が設けられ、前記ゲーム処理部は、前記ユーザ移動体と他のオブジェクトとのヒット演算処理を行って、ヒット方向及びヒット位置の少なくとも一方を含むヒット情報を求め、前記制御部は、前記ユーザ移動体と前記他のオブジェクトとのヒットイベントが発生した場合に、前記ヒット情報に基づいて、前記前面側振動部及び前記後面側振動部の一方の振動部である第1の振動部を振動させた後、前記前面側振動部及び前記後面側振動部の他方の振動部である第2の振動部を振動させる振動制御を行うシミュレーションシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   One aspect of the present invention includes a virtual space setting unit that performs a setting process of a virtual space, a moving body processing unit that performs a moving process of a user moving body that moves in the virtual space, and a user wearing a mounting body on the body A game processing unit that performs a game process of a game to be played; a display processing unit that generates a display image based on a result of the game process; and a control unit; A side vibration unit is provided, and at least one rear surface vibration unit is provided on a rear surface portion of the wearing body, and the game processing unit performs hit calculation processing between the user moving body and another object, and hits The control unit obtains hit information including at least one of a direction and a hit position, and when the hit event between the user moving object and the other object occurs, the control unit is based on the hit information. After vibrating the first vibration part which is one of the front-side vibration part and the rear-side vibration part, the second vibration part is the other vibration part of the front-side vibration part and the rear-side vibration part. The present invention relates to a simulation system that performs vibration control to vibrate the vibration part of the. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、仮想空間においてユーザ移動体を移動させる移動処理が行われると共に、ユーザが身体に装着体を装着してプレイするゲームのゲーム処理が行われ、ゲーム処理の結果に基づいて表示画像を生成される。またユーザが装着する装着体は、前面部に前面側振動部が設けられ、後面部に後面側振動部が設けられる。また、ユーザ移動体と他のオブジェクトとのヒット演算処理が行われて、ヒット方向及びヒット位置の少なくとも一方を含むヒット情報が求められる。そしてユーザ移動体と他のオブジェクトとのヒットイベントが発生すると、ヒット情報に基づいて、前面側振動部及び後面側振動部の一方の振動部である第1の振動部を振動させた後、他方の振動部である第2の振動部を振動させる振動制御が行われる。このようにすれば、ヒットイベントが発生すると、ヒット情報に基づいて、前面側振動部及び後面側振動部の一方である第1の振動部が振動した後、他方である第2の振動部が振動するようになる。従って、あたかも他のオブジェクトが身体を貫通したかのような仮想現実を、ユーザに体感させることができ、ヒットイベントでのヒット情報等を反映させた装着体の振動部の振動制御を実現できるようになる。   According to one aspect of the present invention, a movement process for moving a user moving body in a virtual space is performed, and a game process for a game in which a user wears a mounting body on the body and plays is performed. Based on this, a display image is generated. Moreover, the mounting body which a user wears is provided with a front-side vibration part on the front part and a rear-side vibration part on the rear part. In addition, hit calculation processing between the user moving body and another object is performed, and hit information including at least one of the hit direction and the hit position is obtained. When a hit event occurs between the user moving body and another object, the first vibration unit, which is one of the front-side vibration unit and the rear-side vibration unit, is vibrated based on the hit information, Vibration control is performed to vibrate the second vibration part which is the vibration part. In this way, when a hit event occurs, based on the hit information, after the first vibrating part that is one of the front-side vibrating part and the rear-side vibrating part vibrates, the second vibrating part that is the other is It comes to vibrate. Therefore, it is possible to allow the user to experience virtual reality as if another object has penetrated the body, and to realize vibration control of the vibration part of the wearing body reflecting hit information in a hit event. become.

また本発明の一態様では、前記制御部は、前記第1の振動部として複数の第1の振動部が設けられる場合に、前記複数の第1の振動部の中から振動させる振動部を選択する処理を、前記ヒット情報に基づいて行ってもよい。   In one aspect of the present invention, the control unit selects a vibration unit to vibrate from the plurality of first vibration units when a plurality of first vibration units are provided as the first vibration unit. The processing to be performed may be performed based on the hit information.

このようにすれば、ヒットイベントが発生すると、装着体の前面側振動部及び後面側振動部の一方である複数の第1の振動部の中から、ヒット情報に応じた振動部が選択されて振動するようになり、ヒット情報を反映させた振動制御を実現できるようになる。   In this way, when a hit event occurs, the vibration unit corresponding to the hit information is selected from the plurality of first vibration units that are one of the front-side vibration unit and the rear-side vibration unit of the wearing body. It becomes possible to realize vibration control reflecting the hit information.

また本発明の一態様では、前記制御部は、前記第2の振動部として複数の第2の振動部が設けられる場合に、前記複数の第2の振動部の中から振動させる振動部を選択する処理を、前記ヒット情報に基づいて行ってもよい。   In one embodiment of the present invention, the control unit selects a vibration unit to vibrate from the plurality of second vibration units when a plurality of second vibration units are provided as the second vibration unit. The processing to be performed may be performed based on the hit information.

このようにすれば、ヒットイベントが発生すると、装着体の前面側振動部及び後面側振動部の他方である複数の第2の振動部の中から、ヒット情報に応じた振動部が選択されて振動するようになり、ヒット情報を反映させた振動制御を実現できるようになる。   In this way, when a hit event occurs, the vibration unit corresponding to the hit information is selected from the plurality of second vibration units that are the other of the front-side vibration unit and the rear-side vibration unit of the wearing body. It becomes possible to realize vibration control reflecting the hit information.

また本発明の一態様では、前記制御部は、前記第1の振動部を振動させる第1のタイミングから、前記第2の振動部を振動させる第2のタイミングまでの振動間隔の長さを変化させてもよい。   In one embodiment of the present invention, the control unit changes a length of a vibration interval from a first timing at which the first vibration unit is vibrated to a second timing at which the second vibration unit is vibrated. You may let them.

このようにすれば、第1の振動部が振動する第1のタイミングから第2の振動部が振動する第2のタイミングまでの振動間隔の長さが様々に変化するようになり、ユーザの仮想現実感をより向上できる振動制御の実現が可能になる。   In this way, the length of the vibration interval from the first timing at which the first vibrating section vibrates to the second timing at which the second vibrating section vibrates changes variously, and the user's virtual It is possible to realize vibration control that can improve the reality.

また本発明の一態様では、前記ヒット情報はヒット速度を含み、前記制御部は、前記ヒット速度に基づいて前記振動間隔の長さを変化させてもよい。   In the aspect of the invention, the hit information may include a hit speed, and the control unit may change the length of the vibration interval based on the hit speed.

このようにすれば、第1の振動部が振動する第1のタイミングから第2の振動部が振動する第2のタイミングまでの振動間隔の長さを、ヒット情報のヒット速度に基づいて設定できるようになり、ヒット速度を反映させた振動間隔の制御が可能になる。   In this way, the length of the vibration interval from the first timing at which the first vibrating section vibrates to the second timing at which the second vibrating section vibrates can be set based on the hit speed of the hit information. Thus, the vibration interval reflecting the hit speed can be controlled.

また本発明の一態様では、ユーザが身体に装着体を装着してプレイするゲームのゲーム処理を行うゲーム処理部と、前記ゲーム処理の結果に基づいて、前記ユーザに表示する画像を生成する表示処理部と、制御部とを含み、前記装着体には複数の振動部が設けられ、前記制御部は、複数の前記振動部のうちの第1の振動部を振動させる第1のタイミングから、複数の前記振動部のうちの第2の振動部を振動させる第2のタイミングまでの振動間隔の長さを、前記ゲームにおいて発生する振動イベントの種類又は内容に応じて変化させるシミュレーションシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   In one embodiment of the present invention, a game processing unit that performs a game process of a game in which a user wears a mounting body on a body and plays, and a display that generates an image to be displayed to the user based on a result of the game process The mounting unit includes a plurality of vibration units, and the control unit includes a first timing for vibrating the first vibration unit among the plurality of vibration units. The present invention relates to a simulation system that changes the length of a vibration interval up to a second timing for vibrating a second vibration part among a plurality of vibration parts according to the type or content of a vibration event that occurs in the game. . The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、仮想空間においてユーザ移動体を移動させる移動処理が行われると共に、ユーザが身体に装着体を装着してプレイするゲームのゲーム処理が行われ、ゲーム処理の結果に基づいて表示画像を生成される。そして振動イベントが発生すると、ユーザの装着体の第1の振動部を振動させる第1のタイミングから、第2の振動部を振動させる第2のタイミングまでの振動間隔の長さが、振動イベントの種類又は内容に応じた長さに設定されるようになり、ユーザの仮想現実感をより向上できる振動制御の実現が可能になる。   According to one aspect of the present invention, a movement process for moving a user moving body in a virtual space is performed, and a game process for a game in which a user wears a mounting body on the body and plays is performed. Based on this, a display image is generated. When the vibration event occurs, the length of the vibration interval from the first timing for vibrating the first vibrating portion of the user's wearing body to the second timing for vibrating the second vibrating portion is the vibration event. The length corresponding to the type or content is set, and vibration control that can further improve the virtual reality of the user can be realized.

また本発明の一態様では、前記表示処理部は、前記ユーザが視界を覆うように装着する頭部装着型表示装置の表示画像を生成してもよい。   In the aspect of the invention, the display processing unit may generate a display image of a head-mounted display device that the user wears so as to cover the field of view.

このようにユーザの視界が頭部装着型表示装置により覆われている場合には、ユーザの装着体の振動部を振動させることで、振動イベントやヒットイベントでの仮想現実感を効果的に向上できるようになる。   Thus, when the user's field of view is covered by the head-mounted display device, the virtual reality at the vibration event or hit event is effectively improved by vibrating the vibration part of the user's wearing body. become able to.

また本発明の一態様では、前記制御部は、前記装着体の前記振動制御に応じた演出処理を行ってもよい。   In the aspect of the invention, the control unit may perform an effect process according to the vibration control of the wearing body.

このようにすれば、装着体の振動制御に連動した演出処理を行うことが可能になり、ユーザに与える仮想現実感の更なる向上を図れるようになる。   In this way, it is possible to perform an effect process in conjunction with the vibration control of the wearing body, and the virtual reality given to the user can be further improved.

本実施形態のシミュレーションシステムの構成例を示すブロック図。The block diagram which shows the structural example of the simulation system of this embodiment. 図2(A)、図2(B)は本実施形態に用いられるHMDの一例。FIG. 2A and FIG. 2B are examples of the HMD used in this embodiment. 図3(A)、図3(B)は本実施形態に用いられるHMDの他の例。3A and 3B are other examples of the HMD used in the present embodiment. シミュレーションシステムで用いられるフィールドの説明図。Explanatory drawing of the field used with a simulation system. 図5(A)、図5(B)は実空間のユーザと当該ユーザに対応する移動体についての説明図。FIG. 5A and FIG. 5B are explanatory diagrams of a real space user and a moving object corresponding to the user. HMDに表示されるゲーム画像の例。The example of the game image displayed on HMD. 剣型コントローラを用いるゲームの説明図。Explanatory drawing of the game using a sword-type controller. HMDに表示されるゲーム画像の例。The example of the game image displayed on HMD. 図9(A)、図9(B)は複数の振動部が設けられた装着体であるジャケットの説明図。9A and 9B are explanatory diagrams of a jacket which is a mounting body provided with a plurality of vibrating portions. ソレノイドを用いた振動部の構成例。The structural example of the vibration part using a solenoid. 図11(A)、図11(B)は実空間でのユーザの移動に応じた仮想空間のユーザ移動体の移動処理の説明図。FIG. 11A and FIG. 11B are explanatory diagrams of movement processing of the user moving body in the virtual space according to the movement of the user in the real space. 図12(A)、図12(B)は弾のヒット時における振動制御手法の説明図。12A and 12B are explanatory diagrams of a vibration control method at the time of a bullet hit. 図13(A)、図13(B)はヒット情報に基づく振動部の振動制御手法の説明図。FIGS. 13A and 13B are explanatory diagrams of the vibration control method of the vibration unit based on the hit information. 図14(A)、図14(B)はヒット情報に基づく振動部の振動制御手法の説明図。14A and 14B are explanatory diagrams of a vibration control method of the vibration unit based on the hit information. 図15(A)、図15(B)はヒット情報のヒット位置に基づく振動部の選択手法の説明図。FIG. 15A and FIG. 15B are explanatory diagrams of a method for selecting a vibration part based on the hit position of hit information. 図16(A)〜図16(C)はヒット情報のヒット速度やヒットイベントの種類、内容に応じた振動間隔の設定手法の説明図。FIGS. 16A to 16C are explanatory diagrams of a method for setting a vibration interval according to the hit speed of hit information, the type of hit event, and the content. 図17(A)〜図17(D)はヒットイベント、振動イベントの種々の例の説明図。17A to 17D are explanatory diagrams of various examples of hit events and vibration events. 本実施形態の詳細な処理例を説明するフローチャート。The flowchart explaining the detailed process example of this embodiment. 本実施形態の詳細な処理例を説明するフローチャート。The flowchart explaining the detailed process example of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.シミュレーションシステム
図1は、本実施形態のシミュレーションシステム(シミュレータ、ゲームシステム)の構成例を示すブロック図である。本実施形態のシミュレーションシステムは例えばバーチャルリアリティ(VR)をシミュレートするシステムであり、ゲームコンテンツを提供するゲームシステム、スポーツ競技シミュレータや運転シミュレータなどのリアルタイムシミュレーションシステム、SNSのサービスを提供するシステム、映像等のコンテンツを提供するコンテンツ提供システム、或いは遠隔作業を実現するオペレーティングシステムなどの種々のシステムに適用可能である。なお、本実施形態のシミュレーションシステムは図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Simulation System FIG. 1 is a block diagram showing a configuration example of a simulation system (simulator, game system) of the present embodiment. The simulation system of the present embodiment is a system that simulates virtual reality (VR), for example, a game system that provides game content, a real-time simulation system such as a sports competition simulator or a driving simulator, a system that provides an SNS service, an image The present invention can be applied to various systems such as a content providing system that provides content such as an operating system that implements remote work. Note that the simulation system of the present embodiment is not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of the components (each unit) or adding other components are possible.

装着体50は、ユーザが身体に装着するものである。身体は、例えばユーザの首よりも下方の部分(胴体、腰、脚部又は腕等)である。装着体50には複数の振動部V1〜VNが設けられている。振動部V1〜VNは取付具により装着体50に取り付けられている。   The wearing body 50 is worn by the user on the body. The body is, for example, a part below the user's neck (body, waist, legs, arms, etc.). The mounting body 50 is provided with a plurality of vibration parts V1 to VN. The vibration parts V1 to VN are attached to the mounting body 50 with a fixture.

操作部160は、ユーザ(プレーヤ)が種々の操作情報(入力情報)を入力するためのものである。操作部160は、例えば操作ボタン、方向指示キー、ジョイスティック、ハンドル、ペダル又はレバー等の種々の操作デバイスにより実現できる。操作部160は、例えばユーザの装備品であるガン型コントローラや剣型コントローラ等のコントローラなどにより実現できる。   The operation unit 160 is for a user (player) to input various operation information (input information). The operation unit 160 can be realized by various operation devices such as an operation button, a direction instruction key, a joystick, a handle, a pedal, or a lever. The operation unit 160 can be realized by a controller such as a gun-type controller or a sword-type controller, which is a user's equipment.

記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。ゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SSD、光ディスク装置などにより実現できる。記憶部170は、オブジェクト情報記憶部172、描画バッファ178を含む。   The storage unit 170 stores various types of information. The storage unit 170 functions as a work area such as the processing unit 100 or the communication unit 196. The game program and game data necessary for executing the game program are held in the storage unit 170. The function of the storage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), HDD (Hard Disk Drive), SSD, optical disk device, or the like. The storage unit 170 includes an object information storage unit 172 and a drawing buffer 178.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by an optical disk (DVD, BD, CD), HDD, semiconductor memory (ROM), or the like. . The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an input device, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

HMD200(頭部装着型表示装置)は、ユーザの頭部に装着されて、ユーザの眼前に画像を表示する装置である。HMD200は非透過型であることが望ましいが、透過型であってもよい。またHMD200は、いわゆるメガネタイプのHMDであってもよい。   The HMD 200 (head-mounted display device) is a device that is mounted on the user's head and displays an image in front of the user's eyes. The HMD 200 is preferably a non-transmissive type, but may be a transmissive type. The HMD 200 may be a so-called glasses-type HMD.

HMD200は、センサ部210、表示部220、処理部240を含む。なおHMD200に発光素子を設ける変形実施も可能である。センサ部210は、例えばヘッドトラッキングなどのトラッキング処理を実現するためものである。例えばセンサ部210を用いたトラッキング処理により、HMD200の位置、方向を特定する。HMD200の位置、方向が特定されることで、ユーザの視点位置、視線方向(ユーザの位置、方向)を特定できる。   The HMD 200 includes a sensor unit 210, a display unit 220, and a processing unit 240. A modification in which a light emitting element is provided in the HMD 200 is also possible. The sensor unit 210 is for realizing tracking processing such as head tracking, for example. For example, the position and direction of the HMD 200 are specified by tracking processing using the sensor unit 210. By specifying the position and direction of the HMD 200, the user's viewpoint position and line-of-sight direction (user position and direction) can be specified.

トラッキング方式としては種々の方式を採用できる。トラッキング方式の一例である第1のトラッキング方式では、後述の図2(A)、図2(B)で詳細に説明するように、センサ部210として複数の受光素子(フォトダイオード等)を設ける。そして外部に設けられた発光素子(LED等)からの光(レーザー等)をこれらの複数の受光素子により受光することで、現実世界の3次元空間でのHMD200(ユーザの頭部)の位置、方向を特定する。第2のトラッキング方式では、後述の図3(A)、図3(B)で詳細に説明するように、複数の発光素子(LED)をHMD200に設ける。そして、これらの複数の発光素子からの光を、外部に設けられた撮像部で撮像することで、HMD200の位置、方向を特定する。第3のトラッキング方式では、センサ部210としてモーションセンサを設け、このモーションセンサを用いてHMD200の位置、方向を特定する。モーションセンサは例えば加速度センサやジャイロセンサなどにより実現できる。例えば3軸の加速度センサと3軸のジャイロセンサを用いた6軸のモーションセンサを用いることで、現実世界の3次元空間でのHMD200の位置、方向を特定できる。なお、第1のトラッキング方式と第2のトラッキング方式の組合わせ、或いは第1のトラッキング方式と第3のトラッキング方式の組合わせなどにより、HMD200の位置、方向を特定してもよい。またHMD200の位置、方向を特定することでユーザの視点位置、視線方向を特定するのではなく、ユーザの視点位置、視線方向(位置、方向)を直接に特定するトラッキング処理を採用してもよい。   Various methods can be adopted as the tracking method. In the first tracking method, which is an example of the tracking method, a plurality of light receiving elements (photodiodes and the like) are provided as the sensor unit 210, as will be described in detail with reference to FIGS. 2A and 2B described later. Then, by receiving light (laser or the like) from a light emitting element (LED or the like) provided outside by the plurality of light receiving elements, the position of the HMD 200 (user's head) in the real world three-dimensional space, Identify the direction. In the second tracking method, a plurality of light emitting elements (LEDs) are provided in the HMD 200 as will be described in detail with reference to FIGS. 3A and 3B described later. And the position and direction of HMD200 are pinpointed by imaging the light from these light emitting elements with the imaging part provided outside. In the third tracking method, a motion sensor is provided as the sensor unit 210, and the position and direction of the HMD 200 are specified using this motion sensor. The motion sensor can be realized by, for example, an acceleration sensor or a gyro sensor. For example, by using a 6-axis motion sensor using a 3-axis acceleration sensor and a 3-axis gyro sensor, the position and direction of the HMD 200 in a three-dimensional space in the real world can be specified. Note that the position and direction of the HMD 200 may be specified by a combination of the first tracking method and the second tracking method, or a combination of the first tracking method and the third tracking method. Further, instead of specifying the user's viewpoint position and line-of-sight direction by specifying the position and direction of the HMD 200, a tracking process that directly specifies the user's viewpoint position and line-of-sight direction (position, direction) may be employed. .

HMD200の表示部220は例えば有機ELディスプレイ(OEL)や液晶ディスプレイ(LCD)などにより実現できる。例えばHMD200の表示部220には、ユーザの左目の前に設定される第1のディスプレイ又は第1の表示領域と、右目の前に設定される第2のディスプレイ又は第2の表示領域が設けられており、立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左目用画像と右目用画像を生成し、第1のディスプレイに左目用画像を表示し、第2のディスプレイに右目用画像を表示する。或いは1つのディスプレイの第1の表示領域に左目用画像を表示し、第2の表示領域に右目用画像を表示する。またHMD200には左目用、右目用の2つの接眼レンズ(魚眼レンズ)が設けられており、これによりユーザの視界の全周囲に亘って広がるVR空間が表現される。そして接眼レンズ等の光学系で生じる歪みを補正するための補正処理が、左目用画像、右目用画像に対して行われる。この補正処理は表示処理部120が行う。   The display unit 220 of the HMD 200 can be realized by, for example, an organic EL display (OEL) or a liquid crystal display (LCD). For example, the display unit 220 of the HMD 200 is provided with a first display or first display area set in front of the user's left eye and a second display or second display area set in front of the right eye. 3D display is possible. When performing stereoscopic display, for example, a left-eye image and a right-eye image with different parallax are generated, the left-eye image is displayed on the first display, and the right-eye image is displayed on the second display. Alternatively, the left-eye image is displayed in the first display area of one display, and the right-eye image is displayed in the second display area. Also, the HMD 200 is provided with two eyepiece lenses (fisheye lenses) for the left eye and the right eye, thereby expressing a VR space that extends all around the user's field of view. Then, correction processing for correcting distortion generated in an optical system such as an eyepiece is performed on the left-eye image and the right-eye image. This correction process is performed by the display processing unit 120.

HMD200の処理部240は、HMD200において必要な各種の処理を行う。例えば処理部240は、センサ部210の制御処理や表示部220の表示制御処理などを行う。また処理部240が、3次元音響(立体音響)処理を行って、3次元的な音の方向や距離や広がりの再現を実現してもよい。   The processing unit 240 of the HMD 200 performs various processes necessary for the HMD 200. For example, the processing unit 240 performs control processing of the sensor unit 210, display control processing of the display unit 220, and the like. Further, the processing unit 240 may perform a three-dimensional sound (stereoscopic sound) process to realize reproduction of a three-dimensional sound direction, distance, and spread.

音出力部192は、本実施形態により生成された音を出力するものであり、例えばスピーカ又はヘッドホン等により実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and can be realized by, for example, a speaker or headphones.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。   The I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and the function can be realized by an ASIC for I / F processing or the like. The portable information storage medium 195 is for a user to save various types of information, and is a storage device that retains storage of such information even when power is not supplied. The portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.

通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (another apparatus) via a wired or wireless network, and functions thereof are hardware such as a communication ASIC or communication processor, or communication firmware. Can be realized.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。   A program (data) for causing a computer to function as each unit of this embodiment is distributed from the information storage medium of the server (host device) to the information storage medium 180 (or storage unit 170) via the network and communication unit 196. May be. Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作情報や、HMD200でのトラッキング情報(HMDの位置及び方向の少なくとも一方の情報。視点位置及び視線方向の少なくとも一方の情報)や、プログラムなどに基づいて、ゲーム処理(シミュレーション処理)、仮想空間設定処理、移動体処理、仮想カメラ制御処理、表示処理、或いは音処理などを行う。   The processing unit 100 (processor) is used for operation information from the operation unit 160, tracking information in the HMD 200 (information on at least one of the position and direction of the HMD, information on at least one of the viewpoint position and the line-of-sight direction), a program, and the like. Based on this, game processing (simulation processing), virtual space setting processing, moving body processing, virtual camera control processing, display processing, sound processing, or the like is performed.

処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。   Each processing (each function) of this embodiment performed by each unit of the processing unit 100 can be realized by a processor (a processor including hardware). For example, each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program. In the processor, for example, the function of each unit may be realized by individual hardware, or the function of each unit may be realized by integrated hardware. For example, the processor may include hardware, and the hardware may include at least one of a circuit that processes a digital signal and a circuit that processes an analog signal. For example, the processor can be configured by one or a plurality of circuit devices (for example, ICs) mounted on a circuit board or one or a plurality of circuit elements (for example, resistors, capacitors, etc.). The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Signal Processor) can be used. The processor may be an ASIC hardware circuit. The processor may include an amplifier circuit, a filter circuit, and the like that process an analog signal. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD) or an optical storage device such as an optical disk device. For example, the memory stores instructions that can be read by a computer, and the processing (function) of each unit of the processing unit 100 is realized by executing the instructions by the processor. The instruction here may be an instruction set constituting a program, or an instruction for instructing an operation to the hardware circuit of the processor.

処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。演算処理部110は、情報取得部111、仮想空間設定部112、移動体処理部113、仮想カメラ制御部114、ゲーム処理部115、制御部118、表示処理部120、音処理部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 100 includes an input processing unit 102, an arithmetic processing unit 110, and an output processing unit 140. The arithmetic processing unit 110 includes an information acquisition unit 111, a virtual space setting unit 112, a moving body processing unit 113, a virtual camera control unit 114, a game processing unit 115, a control unit 118, a display processing unit 120, and a sound processing unit 130. As described above, each process of the present embodiment executed by these units can be realized by a processor (or a processor and a memory). Various modifications such as omitting some of these components (each unit) or adding other components are possible.

入力処理部102は、操作情報やトラッキング情報を受け付ける処理や、記憶部170から情報を読み出す処理や、通信部196を介して情報を受信する処理を、入力処理として行う。例えば入力処理部102は、操作部160を用いてユーザが入力した操作情報やHMD200のセンサ部210等により検出されたトラッキング情報を取得する処理や、読み出し命令で指定された情報を、記憶部170から読み出す処理や、外部装置(サーバ等)からネットワークを介して情報を受信する処理を、入力処理として行う。ここで受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。   The input processing unit 102 performs processing for receiving operation information and tracking information, processing for reading information from the storage unit 170, and processing for receiving information via the communication unit 196 as input processing. For example, the input processing unit 102 stores, in the storage unit 170, processing for acquiring operation information input by the user using the operation unit 160, tracking information detected by the sensor unit 210 of the HMD 200, and the information specified by the read command. A process for reading data from a computer or a process for receiving information from an external device (such as a server) via a network is performed as an input process. Here, the reception process includes a process of instructing the communication unit 196 to receive information, a process of acquiring information received by the communication unit 196, and writing the information in the storage unit 170, and the like.

演算処理部110は、各種の演算処理を行う。例えば情報取得処理、仮想空間設定処理、移動体処理、仮想カメラ制御処理、ゲーム処理(シミュレーション処理)、制御処理、表示処理、或いは音処理などの演算処理を行う。   The arithmetic processing unit 110 performs various arithmetic processes. For example, arithmetic processing such as information acquisition processing, virtual space setting processing, moving body processing, virtual camera control processing, game processing (simulation processing), control processing, display processing, or sound processing is performed.

情報取得部111(情報取得処理のプログラムモジュール)は種々の情報の取得処理を行う。例えば情報取得部111は、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報(ユーザトラッキング情報)を取得する。   The information acquisition unit 111 (program module for information acquisition processing) performs various information acquisition processing. For example, the information acquisition unit 111 acquires user information (user tracking information) including at least one of user position information, direction information, and posture information.

仮想空間設定部112(仮想空間設定処理のプログラムモジュール)は、複数のオブジェクトが配置される仮想空間(オブジェクト空間)の設定処理を行う。例えば、移動体(人、ロボット、車、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)を仮想空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクト情報記憶部172には、仮想空間でのオブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報がオブジェクト番号に対応づけて記憶される。仮想空間設定部112は、例えば各フレーム毎にこのオブジェクト情報を更新する処理などを行う。   The virtual space setting unit 112 (program module for virtual space setting processing) performs setting processing for a virtual space (object space) in which a plurality of objects are arranged. For example, various objects representing display objects such as moving objects (people, robots, cars, trains, airplanes, ships, monsters, animals, etc.), maps (terrain), buildings, auditoriums, courses (roads), trees, walls, water surfaces, etc. A process of placing and setting an object (an object composed of a primitive surface such as a polygon, a free-form surface, or a subdivision surface) in a virtual space is performed. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, in the object information storage unit 172 of the storage unit 170, object information that is information such as the position, rotation angle, moving speed, and moving direction of an object (part object) in the virtual space is associated with the object number. Is remembered. The virtual space setting unit 112 performs a process of updating the object information for each frame, for example.

移動体処理部113(移動体処理のプログラムモジュール)は、仮想空間内で移動する移動体についての種々の処理を行う。例えば仮想空間(オブジェクト空間、ゲーム空間)において移動体を移動させる処理や、移動体を動作させる処理を行う。例えば移動体処理部113は、操作部160によりユーザが入力した操作情報や、取得されたトラッキング情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(モデルオブジェクト)を仮想空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。移動体は、例えば実空間のユーザ(プレーヤ)に対応する仮想空間の仮想ユーザ(仮想プレーヤ、アバター)や、或いは当該仮想ユーザが搭乗(操作)する搭乗移動体(操作移動体)などである。   The moving body processing unit 113 (moving body processing program module) performs various processes on a moving body that moves in the virtual space. For example, processing for moving the moving body in virtual space (object space, game space) and processing for moving the moving body are performed. For example, the mobile object processing unit 113 is based on operation information input by the user through the operation unit 160, acquired tracking information, a program (movement / motion algorithm), various data (motion data), and the like. Control processing for moving the model object) in the virtual space or moving the moving object (motion, animation) is performed. Specifically, a simulation for sequentially obtaining movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) of a moving body for each frame (for example, 1/60 second). Process. A frame is a unit of time for performing a moving / movement process (simulation process) and an image generation process of a moving object. The moving body is, for example, a virtual user (virtual player, avatar) in a virtual space corresponding to a user (player) in real space, or a boarding moving body (operation moving body) on which the virtual user is boarded (operated).

ゲーム処理部115(ゲーム処理のプログラムモジュール)はユーザがゲームをプレイするための種々のゲーム処理を行う。別の言い方をすれば、ゲーム処理部115(シミュレーション処理部)は、ユーザが仮想現実(バーチャルリアリティ)を体験するための種々のシミュレーション処理を実行する。ゲーム処理は、例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、開始したゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、或いはゲーム成績を演算する処理などである。ゲーム処理部115はヒット演算処理部116を含む。ヒット演算処理部116は、ヒット判定処理などのヒット演算処理を実行する。   The game processing unit 115 (game processing program module) performs various game processes for the user to play a game. In other words, the game processing unit 115 (simulation processing unit) executes various simulation processes for the user to experience virtual reality (virtual reality). The game process is, for example, a process for starting a game when a game start condition is satisfied, a process for advancing the started game, a process for ending a game when a game end condition is satisfied, or calculating a game result. Processing. The game processing unit 115 includes a hit calculation processing unit 116. The hit calculation processing unit 116 executes hit calculation processing such as hit determination processing.

制御部118(制御処理のプログラムモジュール)は、装着体50の複数の振動部V1〜VNの制御処理を行う。制御部118の詳細については後述する。   The control unit 118 (program module for control processing) performs control processing for the plurality of vibration units V1 to VN of the mounting body 50. Details of the control unit 118 will be described later.

表示処理部120(表示処理のプログラムモジュール)は、ゲーム画像(シミュレーション画像)の表示処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、HMD200の表示部220に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間(仮想空間)において仮想カメラ(所与の視点。左目用、右目用の第1、第2の視点)から見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。   The display processing unit 120 (display processing program module) performs display processing of a game image (simulation image). For example, a drawing process is performed based on the results of various processes (game process, simulation process) performed by the processing unit 100, thereby generating an image and displaying it on the display unit 220 of the HMD 200. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 178 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. As a result, an image that can be seen from the virtual camera (given viewpoint, left eye and right eye first and second viewpoints) is generated in the object space (virtual space). Note that the drawing processing performed by the display processing unit 120 can be realized by vertex shader processing, pixel shader processing, or the like.

音処理部130(音処理のプログラムモジュール)は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。なお音処理部130の音処理の一部(例えば3次元音響処理)を、HMD200の処理部240により実現してもよい。   The sound processing unit 130 (sound processing program module) performs sound processing based on the results of various processes performed by the processing unit 100. Specifically, game sounds such as music (music, BGM), sound effects, or sounds are generated, and the game sounds are output to the sound output unit 192. Note that part of the sound processing of the sound processing unit 130 (for example, three-dimensional sound processing) may be realized by the processing unit 240 of the HMD 200.

出力処理部140は各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理や、通信部196を介して情報を送信する処理を、出力処理として行う。例えば出力処理部140は、書き込み命令で指定された情報を、記憶部170に書き込む処理や、外部の装置(サーバ等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。   The output processing unit 140 performs various types of information output processing. For example, the output processing unit 140 performs processing for writing information in the storage unit 170 and processing for transmitting information via the communication unit 196 as output processing. For example, the output processing unit 140 performs a process of writing information specified by a write command in the storage unit 170 or a process of transmitting information to an external apparatus (server or the like) via a network. The transmission process is a process of instructing the communication unit 196 to transmit information, or instructing the communication unit 196 to transmit information.

そして本実施形態のシミュレーションシステムは、ゲーム処理部115と、制御部118と、表示処理部120を含む。また仮想空間設定部112と、移動体処理部113を更に含むことができる。   The simulation system according to the present embodiment includes a game processing unit 115, a control unit 118, and a display processing unit 120. Further, a virtual space setting unit 112 and a moving body processing unit 113 can be further included.

仮想空間設定部112は仮想空間の設定処理を行う。例えば、移動体、障害物、背景又はマップのオブジェクトを仮想空間に配置設定する処理を行う。例えば実空間でのユーザの位置情報、方向情報が取得された場合に、取得された位置情報、方向情報に基づいて、ユーザに対応するユーザ移動体(ユーザキャラクタ等)の位置、方向を設定して、仮想空間に配置する処理を行う。オブジェクトであるユーザ移動体の位置、方向等の情報は、例えばオブジェクト情報記憶部172に記憶される。ユーザ移動体は、例えば実空間でユーザの移動に追従して仮想空間(オブジェクト空間)において移動するオブジェクト(表示物)である。ユーザ移動体としては、ユーザに対応するアバター移動体(ユーザキャラクタ、仮想ユーザ)や、アバター移動体が搭乗する搭乗移動体や、アバター移動体が装着する外殻移動体などがある。外殻移動体は、アバター移動体(ゴースト)に重なるように配置されて仮想空間を移動する。外殻移動体は、アバター移動体を内包する移動体であり、ユーザの義体として表現されるものある。   The virtual space setting unit 112 performs a virtual space setting process. For example, a process of arranging and setting a moving object, an obstacle, a background, or a map object in the virtual space is performed. For example, when the position information and direction information of the user in real space are acquired, the position and direction of the user moving body (user character etc.) corresponding to the user are set based on the acquired position information and direction information. Then, processing for placement in the virtual space is performed. Information such as the position and direction of the user moving object that is an object is stored in the object information storage unit 172, for example. The user moving body is an object (display object) that moves in a virtual space (object space) following the movement of the user in real space, for example. Examples of the user moving body include an avatar moving body (user character, virtual user) corresponding to the user, a boarding moving body on which the avatar moving body is mounted, and an outer shell moving body worn by the avatar moving body. The outer shell moving body is arranged to overlap the avatar moving body (ghost) and moves in the virtual space. The outer shell moving body is a moving body including the avatar moving body, and is expressed as a user's body.

なお、ゲーム処理に基づく画像が表示される表示部としてHMD200を用いない場合等において、ユーザ移動体は、操作部160からの操作情報に基づいてゲーム空間(仮想空間)を移動するものであってもよい。例えば現実世界のユーザは、表示部の画像を見ながら操作部160を操作してゲームをプレイする。そしてユーザ移動体は、操作部160の操作に応じてゲーム空間を移動する。   When the HMD 200 is not used as a display unit on which an image based on game processing is displayed, the user moving body moves in a game space (virtual space) based on operation information from the operation unit 160. Also good. For example, a user in the real world plays a game by operating the operation unit 160 while viewing an image on the display unit. Then, the user moving body moves in the game space according to the operation of the operation unit 160.

移動体処理部113は、仮想空間を移動するユーザ移動体の移動処理を行う。例えば移動体処理部113は、ユーザに対応するユーザ移動体(アバター移動体、搭乗移動体、外殻移動体)を、情報取得部111により取得されたユーザ情報(位置情報、方向情報)に基づいて、仮想空間において移動させる処理を行う。例えば実空間でのユーザの移動に追従して移動するように、仮想空間でユーザ移動体を移動させる。例えばユーザ移動体の移動速度や移動加速度に基づいて、ユーザ移動体の位置等をフレーム毎に更新する処理を行って、ユーザ移動体を仮想空間(仮想フィールド)において移動させる。また移動体処理部113は、情報取得部111により取得されたユーザ情報(姿勢情報)に基づいて、ユーザ移動体を動作させる処理を行う。例えばモーションデータに基づいて、ユーザ移動体の姿勢等を変化させるモーション処理を行う。   The moving body processing unit 113 performs a moving process of the user moving body that moves in the virtual space. For example, the moving body processing unit 113 selects a user moving body (avatar moving body, boarding moving body, outer shell moving body) corresponding to the user based on the user information (position information, direction information) acquired by the information acquisition unit 111. Then, the process of moving in the virtual space is performed. For example, the user moving body is moved in the virtual space so as to move following the movement of the user in the real space. For example, based on the moving speed and moving acceleration of the user moving body, a process of updating the position of the user moving body for each frame is performed to move the user moving body in the virtual space (virtual field). In addition, the moving body processing unit 113 performs processing for operating the user moving body based on the user information (posture information) acquired by the information acquisition unit 111. For example, based on the motion data, motion processing for changing the posture of the user moving body is performed.

ゲーム処理部115は、ユーザが身体に装着体50を装着してプレイするゲームのゲーム処理を行う。例えばゲーム処理部115は、仮想空間でのゲームの処理を行う。例えばゲームを開始する処理、ゲームを進行させる処理、ゲームを終了する処理、或いはゲーム成績を演算する処理などのゲーム処理を行う。   The game processing unit 115 performs a game process of a game that is played by the user wearing the mounting body 50 on the body. For example, the game processing unit 115 performs a game process in the virtual space. For example, a game process such as a process for starting a game, a process for advancing the game, a process for ending the game, or a process for calculating game results is performed.

表示処理部120は、ゲーム処理の結果に基づいて表示画像を生成する。例えばユーザが装着するHMD200の表示画像を生成する。例えば仮想空間において仮想カメラから見える画像を、表示画像として生成する。例えば仮想カメラ制御部114は、ユーザの視点に対応する仮想カメラの制御処理を行う。例えば仮想カメラ制御部114は、ユーザの一人称視点として設定される仮想カメラの制御を行う。例えば仮想空間において移動する移動体(仮想プレーヤ等)の視点に対応する位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置(位置座標)や姿勢(回転軸回りでの回転角度)を制御する。そして表示処理部120は、HMD200等の表示画像(表示映像)として、仮想空間において仮想カメラ(ユーザ視点)から見える画像を生成する。例えば仮想空間であるオブジェクト空間において所与の視点から見える画像を生成する。生成される画像は例えば立体視用の画像である。   The display processing unit 120 generates a display image based on the result of the game process. For example, a display image of the HMD 200 worn by the user is generated. For example, an image viewed from a virtual camera in the virtual space is generated as a display image. For example, the virtual camera control unit 114 performs a virtual camera control process corresponding to the user's viewpoint. For example, the virtual camera control unit 114 controls the virtual camera set as the first-person viewpoint of the user. For example, by setting a virtual camera at a position corresponding to the viewpoint of a moving body (such as a virtual player) that moves in the virtual space, and setting the viewpoint position and line-of-sight direction of the virtual camera, the position (positional coordinates) of the virtual camera And control the attitude (rotation angle around the rotation axis). And the display process part 120 produces | generates the image seen from a virtual camera (user viewpoint) in virtual space as display images (display video), such as HMD200. For example, an image that is visible from a given viewpoint is generated in an object space that is a virtual space. The generated image is, for example, a stereoscopic image.

そして本実施形態では、ユーザが身体(胴体等)に装着する装着体50には複数の振動部V1〜VNが設けられている。装着体50は、ユーザが身体(例えば首より下方の身体)に装着するものである。具体的には、後述するジャケット(ベスト)やジャンパーなどの上着、或いはズボンなどの衣服である。但し装着体は剣ゲームにおける鎧のようなものであってもよいし、自然体験ゲームにおける身体の装備品であってもよい。   In the present embodiment, the mounting body 50 that the user wears on the body (body, etc.) is provided with a plurality of vibration parts V1 to VN. The wearing body 50 is worn by a user on a body (for example, a body below the neck). Specifically, it is a jacket (vest) or a jacket such as a jumper, which will be described later, or clothes such as pants. However, the wearing body may be an armor in a sword game, or a body equipment in a nature experience game.

そして制御部118は、装着体50の複数の振動部V1〜VNの振動制御を行う。例えばゲーム処理部115はゲーム処理を行い、制御部118は、ゲーム状況に応じて、装着体50の複数の振動部V1〜VNの振動制御を行う。   And the control part 118 performs vibration control of the some vibration parts V1-VN of the mounting body 50. FIG. For example, the game processing unit 115 performs game processing, and the control unit 118 performs vibration control of the plurality of vibration units V1 to VN of the mounting body 50 according to the game situation.

具体的には本実施形態では、装着体50の前面部に、少なくとも1つの前面側振動部が設けられ、装着体50の後面部に、少なくとも1つの後面側振動部が設けられる。前面部は、装着体50を装着するユーザの例えば正面側であり、後面部は、装着体50を装着するユーザの例えば背面側である。   Specifically, in the present embodiment, at least one front-side vibration unit is provided on the front surface of the mounting body 50, and at least one rear-side vibration unit is provided on the rear surface of the mounting body 50. The front portion is, for example, the front side of the user who wears the mounting body 50, and the rear surface portion is, for example, the back side of the user who wears the mounting body 50.

そしてゲーム処理部115は、ユーザ移動体と他のオブジェクトとのヒット演算処理を行う。そしてヒット演算処理により、ヒット方向及びヒット位置の少なくとも一方を含むヒット情報を求める。このヒット演算処理はヒット演算処理部116が実行する。   Then, the game processing unit 115 performs hit calculation processing between the user moving body and another object. Then, hit information including at least one of the hit direction and the hit position is obtained by hit calculation processing. The hit calculation processing unit 116 executes this hit calculation processing.

ここで、他のオブジェクトは、ユーザ移動体にヒットする被ヒット物であり、仮想空間において表示されるオブジェクトであってもよいし、仮想空間において非表示の仮想的なオブジェクトであってもよい。他のオブジェクトは、弾や剣等の攻撃用のオブジェクトであってもよいし、自然体験シミュレーションにおける落石等のオブジェクトであってもよいし、仮想空間に配置される障害物、壁等の配置オブジェクトであってもよい。   Here, the other object is a hit object that hits the user moving body, and may be an object displayed in the virtual space or a non-displayed virtual object in the virtual space. Other objects may be attack objects such as bullets and swords, may be objects such as falling rocks in natural experience simulations, and are placed objects such as obstacles and walls placed in virtual space. It may be.

またヒット方向(ヒットベクトル、攻撃方向、攻撃ベクトル)は、例えばユーザ移動体に他のオブジェクトがヒットしたときの他のオブジェクトの移動方向である。例えばヒット方向は、ユーザ移動体に向かって飛翔する他のオブジェクトの軌道に基づいて特定できる。ヒット位置は、ユーザ移動体に対して他のオブジェクトがヒットした位置(当たった位置、衝突位置)である。例えばヒット判定処理における交差判定処理での交差位置に基づいてヒット位置を特定できる。またヒット情報は、このようなヒット方向、ヒット位置以外に、ヒット速度、ヒットの強さ又はヒットの属性などの情報を含むことができる。   The hit direction (hit vector, attack direction, attack vector) is the moving direction of another object when another object hits the user moving body, for example. For example, the hit direction can be specified based on the trajectory of another object flying toward the user moving body. The hit position is a position where another object has hit the user moving body (a hit position or a collision position). For example, the hit position can be specified based on the intersection position in the intersection determination process in the hit determination process. In addition to the hit direction and hit position, the hit information can include information such as hit speed, hit strength, or hit attribute.

そして制御部118は、ユーザ移動体と他のオブジェクトとのヒットイベントが発生した場合に、ヒット情報に基づいて、装着体50の振動部の振動制御を行う。即ちゲーム処理部115(ヒット演算処理部116)が、他のオブジェクトのヒット方向及びヒット位置の少なくとも一方を含むヒット情報を求め、制御部118は、このヒット情報に基づいて、装着体50の振動部の振動制御を行う。このようにすれば、ヒット演算処理でのヒット情報(ヒット方向、ヒット位置等)を反映させた振動制御を実現できるようになる。   Then, when a hit event occurs between the user moving body and another object, the control unit 118 performs vibration control of the vibration unit of the mounting body 50 based on the hit information. That is, the game processing unit 115 (hit calculation processing unit 116) obtains hit information including at least one of the hit direction and the hit position of another object, and the control unit 118 vibrates the wearing body 50 based on the hit information. Control vibration of the part. In this way, vibration control reflecting hit information (hit direction, hit position, etc.) in hit calculation processing can be realized.

なお、ヒット情報を、ヒットイベントが発生した後に求め、求められたヒット情報に基づいて振動制御を行ってもよい。或いは、ヒットイベントが発生する前に、ヒット情報(予測ヒット情報)を事前に求めておいて、ヒットイベントが発生した場合に、事前に求められたヒット情報(予測ヒット情報)に基づいて、振動制御を行ってもよい。   The hit information may be obtained after a hit event occurs, and vibration control may be performed based on the obtained hit information. Alternatively, the hit information (predicted hit information) is obtained in advance before the hit event occurs, and when the hit event occurs, vibration is performed based on the hit information (predicted hit information) obtained in advance. Control may be performed.

そして制御部118は、ヒットイベントが発生した場合に、ヒット方向及びヒット位置の少なくとも一方を含むヒット情報に基づいて、前面側振動部及び後面側振動部の一方の振動部である第1の振動部を振動させた後、前面側振動部及び後面側振動部の他方の振動部である第2の振動部を振動させる振動制御を行う。   Then, when a hit event occurs, the control unit 118, based on the hit information including at least one of the hit direction and the hit position, the first vibration that is one of the front-side vibration unit and the rear-side vibration unit. After the part is vibrated, vibration control is performed to vibrate the second vibration part that is the other vibration part of the front-side vibration part and the rear-side vibration part.

例えば、他のオブジェクトがユーザ移動体(装着体)の前面部にヒットした場合には、前面側振動部が第1の振動部となり、後面側振動部が第2の振動部となる。一方、他のオブジェクトがユーザ移動体(装着体)の後面部にヒットした場合には、後面側振動部が第1の振動部となり、前面側振動部が第2の振動部となる。   For example, when another object hits the front part of the user moving body (wearing body), the front-side vibration part becomes the first vibration part, and the rear-side vibration part becomes the second vibration part. On the other hand, when another object hits the rear surface portion of the user moving body (wearing body), the rear surface side vibration portion becomes the first vibration portion, and the front surface side vibration portion becomes the second vibration portion.

そして制御部118は、ヒット情報に基づいて、他のオブジェクトがユーザ移動体(装着体)の前面部にヒットしたと判断した場合には、前面側振動部である第1の振動部を振動させ、所与の振動間隔の期間経過後に、後面側振動部である第2の振動部を振動させる。一方、制御部118は、ヒット情報に基づいて、他のオブジェクトがユーザ移動体(装着体)の後面部にヒットしたと判断した場合には、後面側振動部である第1の振動部を振動させ、所与の振動間隔の期間経過後に、前面側振動部である第2の振動部を振動させる。このようにすれば、弾や剣等の他のオブジェクトが、あたかもユーザの身体を貫通したかのような仮想現実感をユーザに与えることが可能になる。   When the control unit 118 determines that another object has hit the front surface of the user moving body (attached body) based on the hit information, the control unit 118 vibrates the first vibration unit that is the front-side vibration unit. Then, after the lapse of a given vibration interval, the second vibration part that is the rear surface side vibration part is vibrated. On the other hand, if the control unit 118 determines that another object has hit the rear surface part of the user moving body (wearing body) based on the hit information, the control unit 118 vibrates the first vibration unit that is the rear side vibration unit. Then, after the lapse of a given vibration interval, the second vibration part that is the front-side vibration part is vibrated. This makes it possible to give the user a virtual reality as if other objects such as bullets and swords have penetrated the user's body.

また制御部118は、第1の振動部として複数の第1の振動部が設けられる場合に、複数の第1の振動部の中から振動させる振動部を選択する処理を、ヒット情報に基づいて行う。また制御部118は、第2の振動部として複数の第2の振動部が設けられる場合に、複数の第2の振動部の中から振動させる振動部を選択する処理を、ヒット情報に基づいて行う。例えばヒット方向又はヒット位置などのヒット情報に基づいて、複数の第1の振動部の中から選択された振動部を振動させる。またヒット方向又はヒット位置などのヒット情報に基づいて、複数の第2の振動部の中から選択された振動部を振動させる。   In addition, when a plurality of first vibration units are provided as the first vibration unit, the control unit 118 performs processing for selecting a vibration unit to vibrate from the plurality of first vibration units based on the hit information. Do. In addition, when a plurality of second vibration units are provided as the second vibration unit, the control unit 118 selects a vibration unit to vibrate from the plurality of second vibration units based on the hit information. Do. For example, based on hit information such as a hit direction or a hit position, the vibration unit selected from the plurality of first vibration units is vibrated. Further, based on the hit information such as the hit direction or the hit position, the vibration unit selected from the plurality of second vibration units is vibrated.

例えば他のオブジェクトがユーザ移動体の前面部にヒットした場合には、前面側振動部が第1の振動部となり、後面側振動部が第2の振動部となる。従って、この場合には、複数の前面側振動部である複数の第1の振動部の中からヒット情報に基づき選択された振動部を振動させる。そして所与の振動間隔の期間経過後に、複数の後面側振動部である複数の第2の振動部の中からヒット情報に基づき選択された振動部を振動させる。   For example, when another object hits the front part of the user moving body, the front-side vibration part becomes the first vibration part, and the rear-side vibration part becomes the second vibration part. Therefore, in this case, the vibration unit selected from the plurality of first vibration units which are the plurality of front-side vibration units based on the hit information is vibrated. Then, after the passage of a given vibration interval, the vibration unit selected based on the hit information from the plurality of second vibration units that are the plurality of rear-surface vibration units is vibrated.

例えば他のオブジェクトがユーザ移動体の後面部にヒットした場合には、後面側振動部が第1の振動部となり、前面側振動部が第2の振動部となる。従って、この場合には、複数の後面側振動部である第1の振動部の中からヒット情報に基づき選択された振動部を振動させる。そして所与の振動間隔の期間経過後に、複数の前面側振動部である第2の振動部の中からヒット情報に基づき選択された振動部を振動させる。   For example, when another object hits the rear surface portion of the user moving body, the rear surface side vibration portion becomes the first vibration portion, and the front surface side vibration portion becomes the second vibration portion. Therefore, in this case, the vibration unit selected based on the hit information from the first vibration units as the plurality of rear surface side vibration units is vibrated. Then, after the passage of a given vibration interval, the vibration unit selected based on the hit information is vibrated from the plurality of second vibration units which are the front-side vibration units.

このようにすれば、あたかもユーザの身体を貫通したかのような仮想現実感をユーザに与えることができる共に、ヒット演算処理でのヒット情報(ヒット方向、ヒット位置)を反映させた振動制御を実現できるようになる。   In this way, it is possible to give the user a virtual reality as if it had penetrated the user's body, and vibration control reflecting hit information (hit direction, hit position) in the hit calculation process is performed. Can be realized.

また制御部118は、第1の振動部を振動させる第1のタイミングから、第2の振動部を振動させる第2のタイミングまでの振動間隔の長さを変化させる。第1の振動部は、先に振動させる方の振動部であり、前面側振動部及び後面側振動部の一方の振動部である。第2の振動部は、後に振動させる方の振動部であり、前面側振動部及び後面側振動部の他方の振動部である。例えば制御部118は、ヒットイベント(広義には振動イベント)の種類又は内容に応じて、振動間隔の長さを変化させる。例えば、ピストルの弾がヒットするイベント、ライフルの弾がヒットするイベント、バズーカの弾がヒットするイベント、ミサイルがヒットするイベント、剣がヒットするイベントというように、ヒットイベントのカテゴリーがグループ分けされる場合に、どのカテゴリーのグループに属するかが、ヒットイベントの種類になる。またヒットイベントの内容は、例えばヒットの強さパラメータ、ヒットの攻撃力パラメータ、ヒットの速さパラメータ、又はヒットの属性パラメータなど、ヒット演算処理のパラメータにより表されるものである。例えば同じ種類(カテゴリーのグループ)のヒットイベント(ピストル、ライフル、バズーカ、ミサイル、剣)であっても、ヒット演算処理のパラメータが異なれば、ヒットイベントの内容が異なることになる。   Further, the control unit 118 changes the length of the vibration interval from the first timing for vibrating the first vibrating unit to the second timing for vibrating the second vibrating unit. The first vibration unit is a vibration unit that vibrates first, and is one of the front-side vibration unit and the rear-side vibration unit. The second vibrating portion is a vibrating portion that is vibrated later, and is the other vibrating portion of the front-side vibrating portion and the rear-side vibrating portion. For example, the control unit 118 changes the length of the vibration interval according to the type or content of the hit event (vibration event in a broad sense). For example, hit event categories are grouped, such as pistol bullet hit events, rifle bullet hit events, bazooka bullet hit events, missile hit events, and sword hit events. In this case, the category of which category belongs to the type of hit event. The content of the hit event is represented by a hit calculation parameter such as a hit strength parameter, a hit attack parameter, a hit speed parameter, or a hit attribute parameter. For example, even if hit events (pistol, rifle, bazooka, missile, sword) of the same type (category group), the content of the hit event will be different if the parameters of the hit calculation process are different.

またヒット情報はヒット速度を含み、制御部118は、ヒット速度に基づいて振動間隔の長さを変化させる。例えばヒット速度に応じて、振動間隔の長さを増加したり、減少させる。ヒット速度は、ヒットの速さパラメータであり、例えば、弾やミサイルの速度である。制御部118は、例えばヒットする弾、ミサイル等の速度が速い場合には、振動間隔を短くし、速度が遅い場合には、振動間隔を長くする。こうすることで、更にリアルな貫通表現等を実現できるようになる。   The hit information includes the hit speed, and the control unit 118 changes the length of the vibration interval based on the hit speed. For example, the length of the vibration interval is increased or decreased according to the hit speed. The hit speed is a hit speed parameter, for example, the speed of a bullet or missile. For example, the control unit 118 shortens the vibration interval when the speed of a hit bullet, missile, or the like is high, and increases the vibration interval when the speed is low. In this way, a more realistic penetration expression can be realized.

なお以上では、振動イベントが、ユーザ移動体と他のオブジェクトとのヒットイベントである場合について説明したが、本実施形態はこれに限定されず、振動イベントは、ヒットイベント以外のイベントであってもよい。振動イベントは、他のオブジェクトがユーザ移動体にヒットするイベントだけではなく、例えばユーザ移動体から離れた場所で発生する爆発イベント、ユーザ移動体の身体の状態(例えば震える、身体が破壊される等)から発生するイベントなどの種々のイベントを想定できる。そして制御部118は、第1の振動部を振動させる第1のタイミングから、第2の振動部を振動させる第2のタイミングまでの期間の長さを、ゲームにおいて発生する振動イベントの種類又は内容に応じて変化させてもよい。   In the above, the case where the vibration event is a hit event between the user moving body and another object has been described. However, the present embodiment is not limited to this, and the vibration event may be an event other than the hit event. Good. The vibration event is not only an event in which another object hits the user moving body, but also, for example, an explosion event that occurs in a place away from the user moving body, a state of the user moving body (for example, tremor, body destruction, etc. ) Can be envisaged. Then, the control unit 118 sets the length of the period from the first timing for vibrating the first vibrating unit to the second timing for vibrating the second vibrating unit, and the type or content of the vibration event that occurs in the game. You may change according to.

また本実施形態では、表示処理部120は、ユーザが視界を覆うように装着するHMD200の表示画像を生成している。このように、ユーザが視界を覆うようにHMD200を装着する場合には、装着体の振動部を振動させるような体感装置は、ユーザの仮想現実感の向上のために有効である。   In the present embodiment, the display processing unit 120 generates a display image of the HMD 200 that the user wears so as to cover the field of view. Thus, when the user wears the HMD 200 so as to cover the field of view, a bodily sensation device that vibrates the vibration part of the wearing body is effective for improving the virtual reality of the user.

但し、表示処理部120は、HMD200以外の表示部の表示画像を生成してもよい。例えば家庭用ゲーム装置におけるテレビ、パーソナルコンピュータや業務用ゲーム装置におけるモニターディプレイなどの表示部の表示画像を生成してもよい。   However, the display processing unit 120 may generate a display image of a display unit other than the HMD 200. For example, a display image of a display unit such as a television in a home game device, a monitor display in a personal computer, or an arcade game device may be generated.

また制御部118は、装着体50の振動制御に応じた演出処理を行う。例えば装着体50の振動部の振動制御に連動して、ゲーム音での効果音の演出処理を行ったり、ゲーム画像での演出画像の生成処理を行う。例えば振動させる振動部の個数、振動させる振動部の範囲、或いは振動のタイミングに合わせて、効果音を出力したり、演出画像を表示する。例えば振動部の個数が多いほど、或いは振動部の範囲が広いほど、振動に伴い出力される効果音の音量を大きくしたり、より演出効果の高い演出画像を表示する。また第1の振動部を第1のタイミングで振動させた後、第2のタイミングで第2の振動部を振動させる場合に、これらの第1、第2のタイミングにおいて、対応する効果音を出力したり、演出画像を表示する。例えば振動部の各振動制御に対して、効果音や演出画像を対応づけて記憶部170に記憶しておき、制御部118は、各振動制御に対応づけた効果音を出力したり、演出画像を表示する制御を行うようにする。このようにすることで、振動部の振動制御に連動した効果音の出力や演出画像の表示が可能になり、より演出効果の高い振動制御を実現できるようになる。   Further, the control unit 118 performs an effect process according to the vibration control of the mounting body 50. For example, in conjunction with the vibration control of the vibration part of the mounting body 50, the effect processing of the sound effect with the game sound is performed or the processing of generating the effect image with the game image is performed. For example, sound effects are output or effect images are displayed in accordance with the number of vibrating parts to be vibrated, the range of vibrating parts to be vibrated, or the timing of vibrations. For example, as the number of vibration parts increases or the range of the vibration parts increases, the volume of the sound effect output accompanying the vibration is increased, or an effect image with a higher effect is displayed. In addition, after the first vibrating section is vibrated at the first timing, the corresponding sound effects are output at the first and second timings when the second vibrating section is vibrated at the second timing. Or display an effect image. For example, sound effects and effect images are associated with each vibration control of the vibration unit and stored in the storage unit 170, and the control unit 118 outputs sound effects associated with each vibration control or effects image. Control to display. By doing in this way, the output of the sound effect linked with the vibration control of the vibration unit and the display of the effect image can be performed, and the vibration control with a higher effect can be realized.

また本実施形態では情報取得部111は、例えば視界を覆うようにHMD200を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する。例えば情報取得部111は、HMD200のトラッキング情報などに基づいて、実空間でのユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報(ユーザトラッキング情報)を取得する。位置情報は、実空間でのユーザの視点の位置情報であってもよく、方向情報は、実空間でのユーザの視線の方向情報であってもよい。位置情報、方向情報は、ユーザが実空間(現実世界)のフィールド(プレイフィールド、シミュレーションフィールド、プレイエリア)に位置する場合に、そのフィールドでの位置情報、方向情報(所与の位置を原点とする座標系での位置座標、各座標軸回りでの回転角度)であってもよい。姿勢情報は、ユーザの各姿勢(立ち姿勢、しゃがみ姿勢又は座り姿勢等)を特定したり、或いはユーザの各部位(胴体、頭、手又は足等)の位置、方向を特定するための情報である。例えば情報取得部111は、HMD200の位置情報、方向情報を、当該HMD200を装着するユーザの位置情報、方向情報として取得してもよい。   In the present embodiment, the information acquisition unit 111 acquires user information including at least one of position information, direction information, and posture information of a user who wears the HMD 200 so as to cover the field of view, for example. For example, the information acquisition unit 111 acquires user information (user tracking information) including at least one of user position information, direction information, and posture information in real space based on tracking information of the HMD 200 and the like. The position information may be position information of the user's viewpoint in real space, and the direction information may be direction information of the user's line of sight in real space. When the user is located in a field (play field, simulation field, play area) in the real space (real world), the position information and direction information (the given position is used as the origin). Position coordinates in a coordinate system to be rotated, and rotation angles around each coordinate axis). Posture information is information for specifying each posture of the user (standing posture, crouching posture, sitting posture, etc.) or specifying the position and direction of each part of the user (body, head, hand, foot, etc.). is there. For example, the information acquisition unit 111 may acquire the position information and direction information of the HMD 200 as the position information and direction information of the user wearing the HMD 200.

また仮想カメラ制御部114は、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御する。   Further, the virtual camera control unit 114 controls the virtual camera so as to follow the change in the user's viewpoint based on the tracking information of the user's viewpoint information.

例えば入力処理部102(入力受け付け部)は、HMD200を装着するユーザの視点情報のトラッキング情報を取得する。例えばユーザの視点位置、視線方向の少なくとも1つである視点情報のトラッキング情報(視点トラッキング情報)を取得する。このトラッキング情報は、例えばHMD200のトラッキング処理を行うことで取得できる。なおトラッキング処理によりユーザの視点位置、視線方向を直接に取得するようにしてもよい。一例としては、トラッキング情報は、ユーザの初期視点位置からの視点位置の変化情報(視点位置の座標の変化値)、及び、ユーザの初期視線方向からの視線方向の変化情報(視線方向の回転軸回りでの回転角度の変化値)の少なくとも一方を含むことができる。このようなトラッキング情報が含む視点情報の変化情報に基づいて、ユーザの視点位置や視線方向(ユーザの頭部の位置、姿勢の情報)を特定できる。   For example, the input processing unit 102 (input reception unit) acquires tracking information of viewpoint information of the user wearing the HMD 200. For example, tracking information (viewpoint tracking information) of viewpoint information that is at least one of the user's viewpoint position and line-of-sight direction is acquired. This tracking information can be acquired by performing tracking processing of the HMD 200, for example. Note that the user's viewpoint position and line-of-sight direction may be directly acquired by tracking processing. As an example, the tracking information includes the change information of the viewpoint position from the initial viewpoint position of the user (change value of the coordinate of the viewpoint position), and the change information of the gaze direction from the initial gaze direction of the user (the rotation axis in the gaze direction). At least one of the rotation angle change values around the rotation angle). Based on the change information of the viewpoint information included in such tracking information, the user's viewpoint position and line-of-sight direction (information on the user's head position and posture) can be specified.

そして仮想カメラ制御部114は、取得されたトラッキング情報(ユーザの視点位置及び視線方向の少なくとも一方の情報)に基づいて仮想カメラの視点位置、視線方向を変化させる。例えば、仮想カメラ制御部114は、実空間でのユーザの視点位置、視線方向の変化に応じて、仮想空間での仮想カメラの視点位置、視線方向(位置、姿勢)が変化するように、仮想カメラを設定する。このようにすることで、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御できる。   Then, the virtual camera control unit 114 changes the viewpoint position and the line-of-sight direction of the virtual camera based on the acquired tracking information (information on at least one of the user's viewpoint position and the line-of-sight direction). For example, the virtual camera control unit 114 is configured so that the viewpoint position and the line-of-sight direction (position and posture) of the virtual camera change in the virtual space according to changes in the viewpoint position and the line-of-sight direction of the user in the real space. Set up the camera. By doing in this way, a virtual camera can be controlled to follow a user's viewpoint change based on tracking information of a user's viewpoint information.

また本実施形態では、ユーザがプレイするゲームのゲーム処理として、仮想現実のシミュレーション処理を行う。仮想現実のシミュレーション処理は、実空間での事象を仮想空間で模擬するためのシミュレーション処理であり、当該事象をユーザに仮想体験させるための処理である。例えば実空間のユーザに対応するアバター移動体(仮想ユーザ)やその搭乗移動体などのユーザ移動体を、仮想空間で移動させたり、移動に伴う環境や周囲の変化をユーザに体感させるための処理を行う。   In the present embodiment, a virtual reality simulation process is performed as the game process of the game played by the user. The virtual reality simulation process is a simulation process for simulating an event in the real space in the virtual space, and is a process for causing the user to experience the event virtually. For example, a process for moving a user moving body such as an avatar moving body (virtual user) corresponding to a user in the real space or its boarding moving body in the virtual space, or causing the user to experience changes in the environment and surroundings accompanying the movement. I do.

なお図1の本実施形態のシミュレーションシステムの処理は、施設に設置されるPC等の処理装置、ユーザが装着する処理装置、或いはこれらの処理装置の分散処理などにより実現できる。或いは、本実施形態のシミュレーションシステムの処理を、サーバシステムと端末装置により実現してもよい。例えばサーバシステムと端末装置の分散処理などにより実現してもよい。   Note that the processing of the simulation system of this embodiment in FIG. 1 can be realized by a processing device such as a PC installed in a facility, a processing device worn by a user, or distributed processing of these processing devices. Or you may implement | achieve the process of the simulation system of this embodiment with a server system and a terminal device. For example, it may be realized by distributed processing of a server system and a terminal device.

2.トラッキング処理
次にトラッキング処理の例について説明する。図2(A)に本実施形態のシミュレーションシステムに用いられるHMD200の一例を示す。図2(A)に示すようにHMD200には複数の受光素子201、202、203(フォトダイオード)が設けられている。受光素子201、202はHMD200の前面部に設けられ、受光素子203はHMD200の左側面に設けられている。またHMDの右側面、上面等にも不図示の受光素子が設けられている。
2. Tracking Processing Next, an example of tracking processing will be described. FIG. 2A shows an example of the HMD 200 used in the simulation system of this embodiment. As shown in FIG. 2A, the HMD 200 is provided with a plurality of light receiving elements 201, 202, and 203 (photodiodes). The light receiving elements 201 and 202 are provided on the front side of the HMD 200, and the light receiving element 203 is provided on the left side of the HMD 200. In addition, a light receiving element (not shown) is also provided on the right side surface and the upper surface of the HMD.

またユーザUSは、現実世界の銃を模したガン型コントローラ290を所持しており、このガン型コントローラ290にも、受光素子204、205(フォトダイオード)が設けられている。これらの受光素子204、205を用いることで、ガン型コントローラ290の位置や方向を特定できる。またガン型コントローラ290には、銃の引き金のスイッチが設けられており、このスイッチを操作することで、仮想空間の移動体が銃を発砲する。なおガン型コントローラ290には少なくとも1つの受光素子が設けられていればよい。   The user US has a gun-type controller 290 that imitates a real-world gun, and the gun-type controller 290 is also provided with light receiving elements 204 and 205 (photodiodes). By using these light receiving elements 204 and 205, the position and direction of the gun-type controller 290 can be specified. The gun-type controller 290 is provided with a switch for triggering a gun. By operating this switch, a moving body in the virtual space fires a gun. The gun-type controller 290 may be provided with at least one light receiving element.

またHMD200には、ヘッドバンド260等が設けられており、ユーザUSは、より良い装着感で安定的に頭部にHMD200を装着できるようになっている。また、HMD200には、不図示のヘッドホン端子が設けられており、このヘッドホン端子にヘッドホン270(音出力部192)を接続することで、例えば3次元音響(3次元オーディオ)の処理が施されたゲーム音を、ユーザUSは聴くことが可能になる。なお、ユーザUSの頭部の頷き動作や首振り動作をHMD200のセンサ部210等により検出することで、ユーザUSの操作情報を入力できるようにしてもよい。   Further, the HMD 200 is provided with a headband 260 and the like so that the user US can stably wear the HMD 200 on the head with a better wearing feeling. In addition, the HMD 200 is provided with a headphone terminal (not shown). By connecting a headphone 270 (sound output unit 192) to the headphone terminal, for example, processing of three-dimensional sound (three-dimensional audio) is performed. The user US can listen to the game sound. Note that the operation information of the user US may be input by detecting the head movement or the swinging movement of the user US by the sensor unit 210 of the HMD 200 or the like.

またユーザUSは、処理装置250を例えば背中に装着している。例えばユーザUSはジャケット(ベスト)を着ており、このジャケットの背面側に処理装置250が取り付けられている。処理装置250は例えばノート型PC等の情報処理装置により実現される。そしてこの処理装置250とHMD200はケーブル252により接続されている。例えば処理装置250は、HMD200に表示される画像(ゲーム画像等)の生成処理を行い、生成された画像のデータがケーブル252を介してHMD200に送られ、HMD200に表示される。この処理装置250は、このような画像の生成処理以外にも、本実施形態の各処理(情報取得処理、仮想空間設定処理、移動体処理、仮想カメラ制御処理、ゲーム処理、制御処理、表示処理又は音処理等)を行うことが可能になっている。なお、本実施形態の各処理を、施設に設置されたPC等の処理装置(不図示)により実現したり、当該処理装置と、ユーザUSが装着する処理装置250の分散処理により実現してもよい。   Further, the user US wears the processing device 250 on, for example, the back. For example, the user US wears a jacket (vest), and the processing device 250 is attached to the back side of the jacket. The processing device 250 is realized by an information processing device such as a notebook PC. The processing device 250 and the HMD 200 are connected by a cable 252. For example, the processing device 250 performs processing for generating an image (game image or the like) displayed on the HMD 200, and the generated image data is sent to the HMD 200 via the cable 252 and displayed on the HMD 200. In addition to the image generation process, the processing device 250 is configured to perform each process (information acquisition process, virtual space setting process, moving body process, virtual camera control process, game process, control process, display process) of the present embodiment. Alternatively, sound processing or the like can be performed. Note that each processing of the present embodiment may be realized by a processing device (not shown) such as a PC installed in a facility, or may be realized by distributed processing of the processing device and the processing device 250 worn by the user US. Good.

図2(B)に示すように、ユーザUSの周辺には、ベースステーション280、284が設置されている。ベースステーション280には発光素子281、282が設けられ、ベースステーション284には発光素子285、286が設けられている。発光素子281、282、285、286は、例えばレーザー(赤外線レーザー等)を出射するLEDにより実現される。ベースステーション280、284は、これら発光素子281、282、285、286を用いて、例えばレーザーを放射状に出射する。そして図2(A)のHMD200に設けられた受光素子201〜203等が、ベースステーション280、284からのレーザーを受光することで、HMD200のトラッキングが実現され、ユーザUSの頭の位置や向く方向(視点位置、視線方向)を検出できるようになる。またガン型コントローラ290に設けられる受光素子204、205が、ベースステーション280、284からのレーザーを受光することで、ガン型コントローラ290の位置及び方向の少なくとも一方を検出できるようになる。   As shown in FIG. 2B, base stations 280 and 284 are installed around the user US. The base station 280 is provided with light emitting elements 281 and 282, and the base station 284 is provided with light emitting elements 285 and 286. The light emitting elements 281, 282, 285, and 286 are realized by LEDs that emit laser (infrared laser or the like), for example. The base stations 280 and 284 use these light emitting elements 281, 282, 285, and 286 to emit, for example, a laser beam radially. The light receiving elements 201 to 203 and the like provided in the HMD 200 in FIG. 2A receive the lasers from the base stations 280 and 284, thereby realizing the tracking of the HMD 200 and the position and direction of the head of the user US. (Viewpoint position, line-of-sight direction) can be detected. The light receiving elements 204 and 205 provided in the gun-type controller 290 receive lasers from the base stations 280 and 284, so that at least one of the position and direction of the gun-type controller 290 can be detected.

図3(A)にHMD200の他の例を示す。図3(A)では、HMD200に対して複数の発光素子231〜236が設けられている。これらの発光素子231〜236は例えばLEDなどにより実現される。発光素子231〜234は、HMD200の前面部に設けられ、発光素子235や不図示の発光素子236は、背面側に設けられる。これらの発光素子231〜236は、例えば可視光の帯域の光を出射(発光)する。具体的には発光素子231〜236は、互いに異なる色の光を出射する。またユーザUSが所持するガン型コントローラ290にも、発光素子237、238(LED)が設けられている。なおガン型コントローラ290には少なくとも1つの発光素子が設けられていればよい。   FIG. 3A shows another example of the HMD 200. In FIG. 3A, a plurality of light emitting elements 231 to 236 are provided for the HMD 200. These light emitting elements 231 to 236 are realized by, for example, LEDs. The light emitting elements 231 to 234 are provided on the front side of the HMD 200, and the light emitting element 235 and the light emitting element 236 (not shown) are provided on the back side. These light emitting elements 231 to 236 emit (emit) light in a visible light band, for example. Specifically, the light emitting elements 231 to 236 emit light of different colors. The gun-type controller 290 possessed by the user US is also provided with light emitting elements 237 and 238 (LEDs). The gun controller 290 only needs to be provided with at least one light emitting element.

そして図3(B)に示す撮像部150を、ユーザUSの周囲の少なくとも1つの場所(例えば前方側、或いは前方側及び後方側など)に設置し、この撮像部150により、HMD200の発光素子231〜236の光を撮像する。即ち、撮像部150の撮像画像には、これらの発光素子231〜236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、ユーザUSの頭部(HMD)のトラッキングを実現する。即ちユーザUSの頭部の3次元位置や向く方向(視点位置、視線方向)を検出する。   The imaging unit 150 shown in FIG. 3B is installed in at least one place around the user US (for example, the front side, the front side, the rear side, or the like). ˜236 images of light. That is, the spot light of these light emitting elements 231 to 236 is reflected in the captured image of the imaging unit 150. And the tracking of the user's US head (HMD) is implement | achieved by performing the image process of this captured image. That is, the three-dimensional position of the head of the user US and the facing direction (viewpoint position, line of sight direction) are detected.

例えば図3(B)に示すように撮像部150には第1、第2のカメラ151、152が設けられており、これらの第1、第2のカメラ151、152の第1、第2の撮像画像を用いることで、ユーザUSの頭部の奥行き方向での位置等が検出可能になる。またHMD200に設けられたモーションセンサのモーション検出情報に基づいて、ユーザUSの頭部の回転角度(視線)も検出可能になっている。従って、このようなHMD200を用いることで、ユーザUSが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想空間(仮想3次元空間)での画像(ユーザの視点に対応する仮想カメラから見える画像)を、HMD200の表示部220に表示することが可能になる。   For example, as illustrated in FIG. 3B, the imaging unit 150 includes first and second cameras 151 and 152, and the first and second cameras 151 and 152 of the first and second cameras 151 and 152 are provided. By using the captured image, the position of the head of the user US in the depth direction can be detected. Further, based on the motion detection information of the motion sensor provided in the HMD 200, the rotation angle (line of sight) of the head of the user US can also be detected. Therefore, by using such an HMD 200, when the user US faces in any direction of all 360 degrees around the image, the image (the user's virtual space in the virtual space (virtual three-dimensional space)) Image viewed from a virtual camera corresponding to the viewpoint) can be displayed on the display unit 220 of the HMD 200.

また撮像部150により、ガン型コントローラ290の発光素子237、238の光を撮像する。即ち、撮像部150の撮像画像には、発光素子237、238のスポット光が映り、この撮像画像の画像処理を行うことで、HMD200の場合と同様に、ガン型コントローラ290の位置及び方向の少なくとも一方を検出できる。   Further, the imaging unit 150 images light from the light emitting elements 237 and 238 of the gun-type controller 290. That is, spot images of the light emitting elements 237 and 238 appear in the captured image of the imaging unit 150, and by performing image processing on the captured image, at least the position and direction of the gun-type controller 290 are the same as in the case of the HMD 200. One can be detected.

なお、発光素子231〜238として、可視光ではなく赤外線のLEDを用いてもよい。また、例えばデプスカメラ等を用いるなどの他の手法で、ユーザの頭部の位置や動き等を検出するようにしてもよい。   Note that instead of visible light, infrared LEDs may be used as the light emitting elements 231 to 238. Further, the position or movement of the user's head may be detected by another method such as using a depth camera.

また、ユーザの視点位置、視線方向(ユーザの位置、方向)を検出するトラッキング処理の手法は、図2(A)〜図3(B)で説明した手法には限定されない。例えばHMD200に設けられたモーションセンサ等を用いて、HMD200の単体でトラッキング処理を実現してもよい。即ち、図2(B)のベースステーション280、284、図3(B)の撮像部150などの外部装置を設けることなく、トラッキング処理を実現する。或いは、公知のアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの種々の視点トラッキング手法により、ユーザの視点位置、視線方向などの視点情報等を検出してもよい。またガン型コントローラ290の位置、方向の検出を、ガン型コントローラ290に設けられたモーションセンサを用いて実現してもよい。   Further, the tracking processing method for detecting the user viewpoint position and the line-of-sight direction (user position and direction) is not limited to the method described with reference to FIGS. For example, the tracking process may be realized by a single unit of the HMD 200 using a motion sensor or the like provided in the HMD 200. That is, tracking processing is realized without providing external devices such as the base stations 280 and 284 in FIG. 2B and the imaging unit 150 in FIG. Or you may detect viewpoint information, such as a user's viewpoint position and a gaze direction, by various viewpoint tracking methods, such as well-known eye tracking, face tracking, or head tracking. The detection of the position and direction of the gun-type controller 290 may be realized by using a motion sensor provided in the gun-type controller 290.

また図2(A)、図3(A)では、ユーザUSは、図1の装着体50の一例であるジャケット52を身体に装着している。後述の図9(A)、図9(B)に示すようにジャケット52(広義には装着体)には複数の振動部(VF1〜VF9、VB1〜VB9)が設けられている。   2A and 3A, the user US wears a jacket 52 that is an example of the wearing body 50 of FIG. 1 on the body. As shown in FIGS. 9A and 9B described later, the jacket 52 (a mounting body in a broad sense) is provided with a plurality of vibration portions (VF1 to VF9, VB1 to VB9).

3.本実施形態の手法
次に本実施形態の手法について詳細に説明する。なお、以下では本実施形態の手法を、対戦ゲームに適用した場合を主に例にとり説明する。但し、本実施形態はこれに限定されず、種々のゲーム(RPG、アクションゲーム、競争ゲーム、スポーツゲーム、ホラー体験ゲーム、電車や飛行機等の乗り物のシミュレーションゲーム、パズルゲーム、コミュニケーションゲーム、或いは音楽ゲーム等)に適用でき、ゲーム以外にも適用可能である。また以下では、ユーザ移動体が、ユーザのアバター移動体(仮想ユーザ、ユーザキャラクタ)である場合を例にとり説明するが、ユーザ移動体は、ユーザが搭乗する搭乗移動体(例えばロボット、戦車、戦闘機又は車等)などであってもよい。
3. Next, the method of this embodiment will be described in detail. In the following description, the method of the present embodiment will be described mainly using an example where the method is applied to a battle game. However, the present embodiment is not limited to this, and various games (RPG, action game, competition game, sports game, horror experience game, simulation game of vehicles such as trains and airplanes, puzzle games, communication games, or music games) Etc.) and can be applied to other than games. Hereinafter, a case where the user moving body is a user's avatar moving body (virtual user, user character) will be described as an example. However, the user moving body is a boarding moving body (for example, a robot, a tank, a battle) Machine or car).

3.1 ゲームの説明
まず本実施形態により実現されるゲームについて説明する。図4〜図6は本実施形態により実現されるガンシューティングゲーム(FPSゲーム)の説明図である。
3.1 Description of Game First, a game realized by the present embodiment will be described. 4 to 6 are explanatory diagrams of a gun shooting game (FPS game) realized by this embodiment.

図4は、本実施形態のシミュレーションシステムで用いられるフィールドの説明図である。このシミュレーションシステムでは、現実世界の施設等にフィールドFL(プレイフィールド、プレイエリア、プレイ空間)が用意され、ユーザUS1〜US4はこのフィールドFLにおいて移動する。フィールドFLには、壁等により実現される仕切りWLが設けられている。   FIG. 4 is an explanatory diagram of fields used in the simulation system of this embodiment. In this simulation system, a field FL (play field, play area, play space) is prepared in a real world facility or the like, and the users US1 to US4 move in the field FL. The field FL is provided with a partition WL realized by a wall or the like.

ユーザUS1〜US4は、HMD1〜HMD4を装着すると共にガン型コントローラGN1〜GN4(広義にはコントローラ)を所持している。またユーザUS1〜US4は、図2(A)で説明したような処理装置250(不図示)を例えば背中に装着している。これらのユーザUS1〜US4は、例えばチーム対戦ゲームのためにチーム(広義にはグループ)を組んでいる。HMD1〜HMD4には仮想空間での映像が映し出されており、ユーザUS1〜US4は、この映像を見ながら対戦ゲーム等のゲームをプレイする。例えばHMD1〜HMD4が非透過型のHMDである場合には、ユーザUS1〜US4の視界がHMD1〜HMD4により覆われるため、現実世界の様子を見ることが困難になる。このため、例えばユーザUS1の背後に位置するユーザUS2がユーザUS1にぶつかってしまうなどの問題が生じる。   The users US1 to US4 wear HMD1 to HMD4 and possess gun type controllers GN1 to GN4 (controllers in a broad sense). In addition, the users US1 to US4 wear the processing device 250 (not shown) described in FIG. These users US1 to US4 form a team (group in a broad sense) for a team battle game, for example. A video in the virtual space is displayed on the HMD1 to HMD4, and the users US1 to US4 play a game such as a battle game while watching the video. For example, when the HMD1 to HMD4 are non-transmissive HMDs, the field of view of the users US1 to US4 is covered with the HMD1 to HMD4, so that it is difficult to see the state of the real world. For this reason, for example, the problem that the user US2 located behind the user US1 hits the user US1 occurs.

ゲームプレイの開始前に、ユーザは、自身の分身となるユーザ移動体(アバター)を選択する。例えば図5(A)は、実空間(現実世界)のユーザUS1、US2を示しており、ユーザUS1、US2は、HMD1、HMD2を装着すると共にガン型コントローラGN1、GN2を所持している。   Prior to the start of the game play, the user selects a user moving body (avatar) that will be his or herself. For example, FIG. 5A shows users US1 and US2 in real space (real world), and the users US1 and US2 wear the HMD1 and HMD2 and possess gun type controllers GN1 and GN2.

またユーザUS1、US2は、後述の図9(A)、図9(B)に示すようなジャケット52(装着体)を身体に装着している。   Further, the users US1 and US2 wear a jacket 52 (wearing body) as shown in FIGS. 9A and 9B described later on their bodies.

これに対して仮想空間においては、ユーザUS1、US2の分身となるユーザ移動体MV1、MV2が登場する。これらのユーザ移動体MV1、MV2は、ゲームのキャラクタの装備品や着衣を装着している。例えば義体と呼ばれる外殻移動体を装備している。またユーザ移動体MV1、MV2は、実空間のガン型コントローラGN1、GN2に対応する銃GV1、GV2(銃の表示物)を所持している。実空間のユーザUS1、US2が、ガン型コントローラGN1、GN2を上下左右に動かすと、仮想空間(仮想世界)のユーザ移動体MV1、MV2が、銃GV1、GV2を上下左右に動かすことになる。   On the other hand, in the virtual space, user mobile bodies MV1 and MV2 which are the alternate users US1 and US2 appear. These user moving bodies MV1 and MV2 are equipped with game character equipment and clothing. For example, it is equipped with a shell moving body called a prosthetic body. The user moving bodies MV1 and MV2 have guns GV1 and GV2 (gun display objects) corresponding to the gun-type controllers GN1 and GN2 in the real space. When the real space users US1 and US2 move the gun-type controllers GN1 and GN2 up and down and left and right, the user moving bodies MV1 and MV2 in the virtual space (virtual world) move the guns GV1 and GV2 up and down and left and right.

図6は本実施形態により生成されるゲーム画像の例である。このゲーム画像は各ユーザが装着するHMDに表示される。例えば図6は、図5(A)のユーザUS1のHMD1に表示されるゲーム画像の例であり、ユーザUS1のユーザ移動体MV1の手や所持する銃GV1(銃オブジェクト)が表示されている。また味方チームのユーザUS2、US3に対応するユーザ移動体MV2、MV3や、敵チームのユーザに対応する敵移動体MB1、MB2、MB3が表示されている。味方チームのユーザ移動体MV1、MV2、MV3は、所持する銃GV1、GV2、GV3により敵側に対して攻撃を行い、敵チームの敵移動体MB1、MB2、MB3は、所持する銃GB1、GB2、GB3により攻撃を行う。   FIG. 6 shows an example of a game image generated according to this embodiment. This game image is displayed on the HMD worn by each user. For example, FIG. 6 is an example of a game image displayed on the HMD 1 of the user US1 in FIG. 5A, and the hand of the user moving body MV1 of the user US1 and the gun GV1 (gun object) possessed by the user US1 are displayed. In addition, user moving bodies MV2 and MV3 corresponding to the users US2 and US3 of the teammates, and enemy moving bodies MB1, MB2 and MB3 corresponding to the users of the enemy team are displayed. The user mobiles MV1, MV2, and MV3 of the ally team attack the enemy side with the possessed guns GV1, GV2, and GV3, and the enemy mobiles MB1, MB2, and MB3 of the enemy team possess the guns GB1, GB2 , Attack with GB3.

図7、図8は本実施形態により実現される剣ゲームの説明図である。図7に示すようにユーザUSは、視界を覆うようにHMD200を装着する。そして例えば右手で剣型コントローラ10を持ち、左手でコントローラ80を持つ。具体的にはユーザUSは、右手で把持部20(持ち手)を持つことで、剣のように剣型コントローラ10を持つことになる。   7 and 8 are explanatory diagrams of the sword game realized by this embodiment. As shown in FIG. 7, the user US wears the HMD 200 so as to cover the field of view. For example, the sword-shaped controller 10 is held with the right hand and the controller 80 is held with the left hand. Specifically, the user US has the sword-type controller 10 like a sword by holding the grip 20 (the handle) with the right hand.

剣型コントローラ10には、先端部と把持部20との間に、反動及び振動の少なくとも一方を発生する発生機構30が設けられている。また後端部と把持部20の間に、振動を発生する発生機構60が設けられている。また剣型コントローラ10の先端部には、剣型コントローラ10の位置情報や姿勢情報を検出するためのコントローラ70が取り付けられている。   The sword-type controller 10 is provided with a generating mechanism 30 that generates at least one of reaction and vibration between the tip portion and the grip portion 20. A generation mechanism 60 that generates vibration is provided between the rear end portion and the grip portion 20. A controller 70 for detecting position information and posture information of the sword-type controller 10 is attached to the tip of the sword-type controller 10.

発生機構30は、錘32と受け部34を含む。そして発生機構30は、錘32を受け部34に衝突させることで、反動(反力)を発生する。またこの反動の発生に伴い、振動も発生させることができる。反動は、例えば他に力や作用を及ぼしたときにその反作用で押し返されることである。例えば本実施形態では、ユーザが実空間において剣型コントローラ10を持って、剣で振る動作を行う。そして仮想空間において、その剣に対応する剣のオブジェクトが敵移動体等の他のオブジェクトにヒットすると、そのヒットについての仮想的な反動が、発生機構30により実現される。例えば剣がヒットした方向とは反対方向の反力が働いたかのようにユーザが感じることができる反動を、発生機構30が発生する。これにより反力があたかも生じたかのようにユーザは感じることができ、剣のヒットによる仮想的な反動の発生を実現できる。   The generation mechanism 30 includes a weight 32 and a receiving part 34. The generating mechanism 30 generates a reaction (reaction force) by causing the weight 32 to collide with the receiving portion 34. In addition, vibration can also be generated along with the reaction. The reaction is, for example, pushed back by the reaction when another force or action is applied. For example, in the present embodiment, the user holds the sword-type controller 10 in real space and performs an operation of shaking with a sword. When a sword object corresponding to the sword hits another object such as an enemy moving body in the virtual space, a virtual reaction with respect to the hit is realized by the generation mechanism 30. For example, the generating mechanism 30 generates a reaction that can be felt by the user as if a reaction force in a direction opposite to the direction in which the sword hits. As a result, the user can feel as if a reaction force has occurred, and a virtual reaction caused by a sword hit can be realized.

なお振動を発生する発生機構60は、トランスデューサーを有しており、発生機構30の反動の発生に時間的に遅れて、発生機構60による振動が発生する。また剣型コントローラ10、コントローラ80の位置情報や姿勢情報は、図2(A)〜図3(B)等で説明したトラッキング処理などにより取得される。またユーザUSは後述の図9(A)、図9(B)で説明するようなジャケット52(装着体)を身体に装着している。   The generation mechanism 60 that generates vibration has a transducer, and the generation mechanism 60 generates vibration with a time delay from the occurrence of the reaction of the generation mechanism 30. Further, the position information and posture information of the sword-type controller 10 and the controller 80 are acquired by the tracking processing described with reference to FIGS. 2A to 3B and the like. Further, the user US wears a jacket 52 (wearing body) as will be described later with reference to FIGS. 9A and 9B.

図8はHMD200の表示されるゲーム画像の例である。ゲーム画像には敵移動体OBE(敵キャラクタ)や、敵移動体OBEが持つ剣SWE、盾SLEや、背景などのオブジェクトが表示されている。またユーザUSに対応するユーザ移動体(ユーザキャラクタ、アバタ)の右の手HR、左の手HLや、右の手HRが持つ剣SWや、左の手HLが持つ盾SLなどのオブジェクトも表示されている。   FIG. 8 shows an example of a game image displayed on the HMD 200. In the game image, an object such as an enemy moving object OBE (enemy character), a sword SWE, a shield SLE, and a background possessed by the enemy moving object OBE are displayed. Also, objects such as the right hand HR, the left hand HL, the sword SW of the right hand HR, and the shield SL of the left hand HL of the user moving body (user character, avatar) corresponding to the user US are also displayed. Has been.

例えば図7の実空間においてユーザUSが右の手で持っている剣型コントローラ10を動かすと、その動きに連動して、図8の仮想空間での右の手HRや剣SWも動くようになる。また図7の実空間においてユーザUSが左の手で持っているコントローラ80を動かすと、その動きに連動して、図8の仮想空間での左の手HLや盾SLも動くようになる。即ち、実空間の剣型コントローラ10は仮想空間の剣SWに対応し、実空間のコントローラ80は仮想空間の盾SLに対応することになる。   For example, when the user US moves the sword-type controller 10 held by the right hand in the real space of FIG. 7, the right hand HR and the sword SW in the virtual space of FIG. 8 also move in conjunction with the movement. Become. When the user US moves the controller 80 held by the left hand in the real space of FIG. 7, the left hand HL and the shield SL in the virtual space of FIG. 8 also move in conjunction with the movement. That is, the real space sword-type controller 10 corresponds to the virtual space sword SW, and the real space controller 80 corresponds to the virtual space shield SL.

図8は、一人称視点のゲーム画像であり、実空間のユーザUSに対応する仮想空間のユーザ移動体(ユーザキャラクタ)の視点での画像が表示されている。なお実際には、HMD200によりユーザUSに対して、視界の全周囲に亘って広がるVR空間の画像が表示される。   FIG. 8 is a first-person viewpoint game image in which an image from the viewpoint of a user moving body (user character) in the virtual space corresponding to the user US in the real space is displayed. In practice, the HMD 200 displays an image of the VR space that extends over the entire periphery of the field of view to the user US.

3.2 振動ジャケット、振動部
本実施形態のシミュレーションシステムでは、ユーザが身体に装着体50を装着してゲームをプレイする。図5(A)、図7では、装着体50としてジャケット52を着衣している。なお、以下では、装着体50がジャケット52である場合を例に説明するが、装着体50はジャケット52には限定されず、ジャケット以外のジャンパー等の上着や、ズボンや、鎧や、或いは胸、腰、腕等に装着するベルトなどの種々の身体の装着物を考えることができる。
3.2 Vibration Jacket, Vibration Unit In the simulation system according to the present embodiment, the user wears the mounting body 50 on the body and plays a game. In FIG. 5A and FIG. 7, a jacket 52 is worn as the mounting body 50. In the following, the case where the mounting body 50 is the jacket 52 will be described as an example. However, the mounting body 50 is not limited to the jacket 52, and a jacket such as a jumper other than the jacket, pants, armor, Various body wearing items such as a belt to be worn on the chest, waist, arm, etc. can be considered.

ジャケット52には複数の振動部が設けられている。図9(A)は、ジャケット52の前面側振動部として振動部VF1〜VF9が設けられ、後面側振動部として振動部VB1〜VB9が設けられている。なお振動部の個数は任意であり、例えば前面側振動部として1〜8個又は10個以上の振動部を設けたり、後面側振動部として1〜8個又は10個以上の振動部を設けてもよい。またジャケット52の前面部と後面部の一方にだけに複数の振動部を設けてもよいし、ジャケット52の右側面や左側面などの側面に1又は複数の振動部を設けてもよい。また図9(A)、図9(B)では、複数の振動部が格子状に配置されているが、振動部の配置態様はこれに限定されず、格子状ではない2次元マトリクス状の配置や、1次元マトリクス状の配置などの種々の配置態様を想定できる。   The jacket 52 is provided with a plurality of vibrating portions. In FIG. 9A, vibrating portions VF1 to VF9 are provided as the front-side vibrating portions of the jacket 52, and vibrating portions VB1 to VB9 are provided as the rear-side vibrating portions. The number of vibrating parts is arbitrary. For example, 1 to 8 or 10 or more vibrating parts are provided as the front-side vibrating part, or 1 to 8 or 10 or more vibrating parts are provided as the rear-side vibrating part. Also good. In addition, a plurality of vibration portions may be provided only on one of the front surface portion and the rear surface portion of the jacket 52, or one or more vibration portions may be provided on a side surface such as the right side surface or the left side surface of the jacket 52. 9A and 9B, a plurality of vibrating portions are arranged in a lattice shape, but the arrangement of the vibrating portions is not limited to this, and the arrangement is not a lattice shape but a two-dimensional matrix shape. Various arrangement modes such as a one-dimensional matrix arrangement can be assumed.

図10は振動部(VF1〜VF9、VB1〜VB9)の実現構成の一例である。図10の振動部はソレノイド90により実現されている。ソレノイド90の一端側にはバネ94の一端が取り付けられ、このバネ94により、通常状態ではソレノイド90は方向DR1側に引っ張られている。なおバネ94の他端PJは例えばジャケット52の裏側面等に固定される。またソレノイド90は取付具96によりジャケット52に取り付けられている。   FIG. 10 is an example of an implementation configuration of the vibration units (VF1 to VF9, VB1 to VB9). The vibrating part in FIG. 10 is realized by a solenoid 90. One end of a spring 94 is attached to one end side of the solenoid 90, and the solenoid 90 is pulled toward the direction DR1 by the spring 94 in a normal state. The other end PJ of the spring 94 is fixed to the back side surface of the jacket 52, for example. The solenoid 90 is attached to the jacket 52 by a fixture 96.

そしてソレノイド90に対して駆動信号が入力されて通電が行われると、ソレノイド90のプランジャー92が方向DR2側に移動して、ユーザの体98に当たる。これによりユーザは、弾や剣のヒット時における振動を体感できる。   When a drive signal is input to the solenoid 90 and energization is performed, the plunger 92 of the solenoid 90 moves toward the direction DR2 and hits the user's body 98. This allows the user to experience vibrations when a bullet or sword hits.

なお振動部は、ソレノイド以外にも、トランスデューサー、振動モータ、バネ&振動モータ、空圧又は電動のシリンダ、リニアモータなどの種々の振動デバイスにより実現できる。   In addition to the solenoid, the vibration unit can be realized by various vibration devices such as a transducer, a vibration motor, a spring & vibration motor, a pneumatic or electric cylinder, and a linear motor.

トランスデューサーは、音信号を変換するものであり、ハイパワーのサブウーハーに相当するものである。例えば図1の制御部118が音ファイルの再生処理を行うと、それによる音信号がトランスデューサーに入力される。そして例えば音信号の低域成分に基づいて振動が発生する。振動モータは、例えば、偏芯した錘を回転させることで振動を発生する。具体的には駆動軸(ローター軸)の両端に偏心した錘を取り付けてモータ自体が揺れるようにする。バネ&振動モータの組合わせでは、モータをロック解除に使用して振動を発生する。シリンダでは、空圧又は電動で図10の方向DR1、DR2に沿ってシリンダのロッド部を直線運動させる。リニアモータでも、図10の方向DR1、DR2に沿った直線運動を行わせる。   The transducer converts a sound signal and corresponds to a high-power subwoofer. For example, when the control unit 118 of FIG. 1 performs a sound file reproduction process, a sound signal is input to the transducer. For example, vibration is generated based on a low frequency component of the sound signal. For example, the vibration motor generates vibration by rotating an eccentric weight. Specifically, eccentric weights are attached to both ends of the drive shaft (rotor shaft) so that the motor itself swings. In the combination of spring and vibration motor, the motor is used for unlocking to generate vibration. In the cylinder, the rod portion of the cylinder is linearly moved along the directions DR1 and DR2 in FIG. Even with a linear motor, linear motion is performed along the directions DR1 and DR2 in FIG.

本実施形態では、ジャケット(装着体)に振動部を装着して、ゲーム状況(ヒットイベント、振動イベント)に応じて振動部の振動制御を行う手法を採用している。この振動制御手法としては種々の実現態様を想定できる。   In the present embodiment, a technique is adopted in which a vibration part is attached to a jacket (wearing body) and vibration control of the vibration part is performed according to a game situation (hit event, vibration event). Various realization modes can be assumed as this vibration control method.

例えばジャケット(ベスト)の前面部のみに1つの振動部を取り付けて、ゲームでのヒットイベント(広義には振動イベント)が発生した場合(制御部から被弾信号を受けた場合)に、当該振動部を振動させる。   For example, when one vibration part is attached only to the front part of the jacket (vest) and a hit event in the game (vibration event in a broad sense) occurs (when a bullet signal is received from the control part), the vibration part Vibrate.

或いはジャケットの例えば前面部等に複数の振動部を取り付けて、ゲームでのヒットイベントが発生した場合に、複数の振動部のうち選択された振動部を振動させる。例えば、ヒット位置(攻撃を受けた位置)の情報に基づいて、複数の振動部のうちのどの振動部を振動させるかを選定して振動させる。   Alternatively, a plurality of vibration units are attached to, for example, the front surface of the jacket, and when a hit event occurs in the game, the vibration unit selected from the plurality of vibration units is vibrated. For example, based on the information on the hit position (the position where the attack was received), which vibration part of the plurality of vibration parts is to be vibrated is selected and vibrated.

或いは、ジャケットの前面部と後面部の各々に1個の振動部を取り付けて、ヒットイベントが発生した場合(制御部から被弾信号を受けた場合)に、前面部の振動部と後面部の振動部を時間差を設けて振動させて、弾が貫通したかのような体感をユーザに与える。   Alternatively, when a single hit part is attached to each of the front part and the rear part of the jacket and a hit event occurs (when an impact signal is received from the control part), the vibration of the front part and the rear part are vibrated. The part is vibrated with a time difference to give the user a feeling that the bullet has penetrated.

或いは、ジャケットの前面部と後面部の各々に複数の振動部を取り付けて、ヒット位置(攻撃位置)の情報やヒット方向(攻撃方向)の情報に基づいて、まず前面部の振動部のうちの、どれを振動させるかを決定し、続いて、後面部の振動部のうちのどれを振動させるかを決定する。また前面部の振動部の振動と後面部の振動部の振動の発生間隔(振動間隔)を、どのくらいの間隔にするかを、ヒット速度(攻撃速度)に応じて決定する。例えば弾丸の攻撃ならばヒット速度は速く、剣が突き刺さる攻撃ならばヒット速度が遅いと判断する。また、剣の攻撃などでは、剣を突き刺した後、剣先を円運動させるような攻撃表現を実現してもよい。具体的には前面部で振動させる振動部は同じままにして、後面部において振動させる振動部を、剣先の円運動に応じて選択する。以上のように装着体に設けられた振動部を用いた振動制御手法としては種々の実施態様を考えることができる。   Alternatively, by attaching a plurality of vibration parts to each of the front part and the rear part of the jacket, based on the information on the hit position (attack position) and the information on the hit direction (attack direction), , Which to vibrate is determined, and subsequently, which of the rear vibrating parts is to be vibrated is determined. In addition, it is determined according to the hit speed (attack speed) how often the generation interval (vibration interval) between the vibration of the front vibration portion and the vibration of the vibration portion of the rear surface portion is set. For example, if the attack is a bullet, the hit speed is fast, and if the attack is a sword, the hit speed is slow. Further, in the case of a sword attack or the like, it is possible to realize an attack expression in which the sword tip is moved circularly after being stabbed. Specifically, the vibration part to be vibrated at the front part is kept the same, and the vibration part to be vibrated at the rear part is selected according to the circular motion of the sword tip. As described above, various embodiments can be considered as a vibration control method using the vibration part provided in the mounting body.

3.3 振動制御の具体例
次に本実施形態の振動制御手法の具体例について説明する。図11(A)、図11(B)は実空間を移動するユーザUSと仮想空間を移動するユーザ移動体MVの関係を示す図である。
3.3 Specific Example of Vibration Control Next, a specific example of the vibration control method of this embodiment will be described. FIG. 11A and FIG. 11B are diagrams showing the relationship between the user US moving in the real space and the user moving body MV moving in the virtual space.

図11(A)では、実空間においてユーザUSがA1に示すように移動している。ユーザUSは、視界を覆うようにHMD200を装着し、手にはガン型コントローラGNを所持している。そして図4に示すような実空間のフィールドFLを移動する。すると、実空間において移動するユーザUSの位置情報が取得され、取得された位置情報に基づいて、図11(B)のA2に示すように、ユーザ移動体MVが仮想空間において移動する。また実空間でのユーザUSの方向情報が取得され、仮想空間のユーザ移動体MVもその方向情報に対応する方向を向くようになる。また実空間でのユーザUSの姿勢情報が取得され、仮想空間のユーザ移動体MVもその姿勢情報に対応する姿勢を取るようになる。例えば実空間においてユーザUSが、手や足を動かせば、仮想空間でのユーザ移動体MVもそれに応じて手や足を動かすようになる。   In FIG. 11A, the user US is moving as indicated by A1 in the real space. The user US wears the HMD 200 so as to cover the field of view, and has a gun-type controller GN in his hand. Then, the field FL in the real space as shown in FIG. 4 is moved. Then, the position information of the user US moving in the real space is acquired, and the user moving body MV moves in the virtual space based on the acquired position information, as indicated by A2 in FIG. In addition, the direction information of the user US in the real space is acquired, and the user moving body MV in the virtual space also faces the direction corresponding to the direction information. Also, the posture information of the user US in the real space is acquired, and the user moving body MV in the virtual space also takes a posture corresponding to the posture information. For example, when the user US moves his / her hand or foot in the real space, the user moving body MV in the virtual space also moves his / her hand or foot accordingly.

このように図11(A)、図11(B)では、ユーザの位置、方向、姿勢の変化に応じて、ユーザに対応する仮想空間のユーザ移動体の位置、方向、姿勢も変化するようになる。そしてHMDを用いるシステムでは、ユーザの視界の全周囲に亘って広大なVR空間が広がるような画像がHMDに表示されるため、ユーザの仮想現実感を格段に向上できる。   As described above, in FIGS. 11A and 11B, the position, direction, and posture of the user moving body in the virtual space corresponding to the user also change according to the change in the position, direction, and posture of the user. Become. In the system using the HMD, since an image in which a vast VR space spreads over the entire perimeter of the user's field of view is displayed on the HMD, the virtual reality of the user can be significantly improved.

一方、ガンシューティングゲームにおいては、図6に示すように敵からの攻撃がユーザ移動体にヒットするヒットイベント(被弾イベント)が発生する。この場合にHMDの表示画像やヘッドホンへの出力音だけでは、このようなヒットイベントをユーザにリアルに体感させることは難しい。即ち、弾がヒットするような画像がHMDに表示されたり、弾のヒットを表す効果音がヘッドホンから出力されても、弾のヒットによる振動等の体感がなければ、弾がヒットしたことの仮想現実感をユーザに対して十分に与えることができない。   On the other hand, in the gun shooting game, as shown in FIG. 6, a hit event (shot event) in which an attack from an enemy hits the user moving body occurs. In this case, it is difficult for the user to experience such a hit event realistically only with the display image of the HMD and the output sound to the headphones. That is, if an image that hits a bullet is displayed on the HMD, or if a sound effect that represents a bullet hit is output from the headphones, there is no sense of vibration or the like due to the bullet hit, Reality cannot be given to the user sufficiently.

そこで本実施形態では、このような弾等のヒットイベント(振動イベント)などのゲーム状況に応じて、装着体に設けられた振動部を振動させる手法を採用している。   Therefore, in the present embodiment, a method of vibrating the vibrating portion provided in the mounting body is adopted according to the game situation such as a hit event (vibration event) such as a bullet.

例えば図12(A)では、仮想空間において、敵からの弾SH(広義には他のオブジェクト)がユーザ移動体MVにヒットするヒットイベントが発生している。このようなヒットイベントが発生した場合に、図12(B)に示すように、実空間において、ユーザUSが装着するジャケット52の振動部VFを振動させる。   For example, in FIG. 12A, a hit event in which a bullet SH (another object in a broad sense) from an enemy hits the user moving body MV occurs in the virtual space. When such a hit event occurs, as shown in FIG. 12B, the vibration unit VF of the jacket 52 worn by the user US is vibrated in the real space.

具体的には本実施形態では、仮想空間の設定処理が行われ、図11(A)、図11(B)で説明したように、仮想空間を移動するユーザ移動体MVの移動処理が行われる。またユーザUSが身体にジャケット52(装着体)を装着してプレイするゲームのゲーム処理が行われ、図6、図8に示すように、ゲーム処理の結果に基づいて、表示画像が生成される。例えば本実施形態ではこの表示画像はHMDに表示される。   Specifically, in the present embodiment, virtual space setting processing is performed, and as described with reference to FIGS. 11A and 11B, movement processing of the user moving body MV that moves in the virtual space is performed. . Further, a game process of a game that is played by the user US wearing the jacket 52 (attachment body) on the body is performed, and a display image is generated based on the result of the game process as shown in FIGS. . For example, in the present embodiment, this display image is displayed on the HMD.

そして本実施形態では図9(A)、図9(B)に示すように、装着体であるジャケット52には複数の振動部(VF1〜VF9、VB1〜VB9)が設けられる。また図12(A)に示すようにユーザ移動体MVと他のオブジェクトである弾SHとのヒット演算処理が行われる。そしてユーザ移動体MVと他のオブジェクトである弾SHとのヒットイベントが発生した場合に、装着体であるジャケット52の複数の振動部の振動制御が行われる。例えば複数の振動部の中から、弾SHのヒット方向やヒット位置などに応じて選択された振動部を振動させる振動制御が行われる。   And in this embodiment, as shown to FIG. 9 (A) and FIG. 9 (B), the jacket 52 which is a mounting body is provided with several vibration parts (VF1-VF9, VB1-VB9). Further, as shown in FIG. 12A, hit calculation processing is performed on the user moving body MV and the bullet SH which is another object. Then, when a hit event occurs between the user moving body MV and the bullet SH, which is another object, vibration control is performed on the plurality of vibrating portions of the jacket 52, which is a wearing body. For example, vibration control is performed to vibrate a vibration part selected from a plurality of vibration parts according to the hit direction or hit position of the bullet SH.

このようにすることでユーザUSは、HMDに表示される仮想空間において、ユーザUSに対応するユーザ移動体MVに対して弾SHがヒットするイベントが発生すると、そのヒットイベントに応じて、実世界において自身が装着するジャケット52において、ヒット方向やヒット位置に対応する振動部が振動するようになる。従って、HMDのリアルな映像による仮想現実感に加えて、ジャケット52の振動部の振動による体感をユーザに与えることが可能になり、ユーザの仮想現実感を格段に向上することが可能になる。   By doing in this way, when an event in which the bullet SH hits the user moving body MV corresponding to the user US occurs in the virtual space displayed on the HMD, the user US generates a real world according to the hit event. In the jacket 52 worn by itself, the vibrating portion corresponding to the hit direction or hit position vibrates. Therefore, in addition to the virtual reality by the real image of the HMD, it is possible to give the user a bodily sensation by the vibration of the vibrating portion of the jacket 52, and the virtual reality of the user can be significantly improved.

なお、本実施形態では、図6、図8のような画像を、HMDに表示するのではなく、家庭用ゲーム装置におけるテレビや、パーソナルコンピュータや業務用ゲーム装置におけるモニターディプレイなどの表示部に表示するような実施態様でもよい。この場合には、ユーザUSが身体に装着体を装着してプレイするゲームのゲーム処理が行われ、そのゲーム処理の結果に基づいて、表示画像が生成されて表示部に表示される。この場合に表示部には、ユーザの一人称視点での画像を表示してもよいし、ユーザ移動体(ユーザキャラクタ)を後方から見た三人称視点での画像を表示してもよい。そしてユーザがゲームのコントローラ(操作部)を操作することで、ゲーム空間においてユーザ移動体が移動するようになる。   In the present embodiment, the images as shown in FIGS. 6 and 8 are not displayed on the HMD, but are displayed on a display unit such as a television in a home game device, a monitor display in a personal computer, or an arcade game device. An embodiment that displays may be used. In this case, a game process of a game that is played by the user US wearing the mounted body on the body is performed, and a display image is generated and displayed on the display unit based on the result of the game process. In this case, an image from the first person viewpoint of the user may be displayed on the display unit, or an image from the third person viewpoint of the user moving body (user character) viewed from behind may be displayed. Then, when the user operates the game controller (operation unit), the user moving body moves in the game space.

図13(A)、図13(B)はヒット情報に基づく振動部の振動制御手法の説明図である。本実施形態では、ヒット方向及びヒット位置の少なくとも一方を含むヒット情報に基づいて、複数の振動部の中から振動させる振動部を選択する処理を行う。   FIGS. 13A and 13B are explanatory diagrams of the vibration control method of the vibration unit based on the hit information. In this embodiment, based on hit information including at least one of the hit direction and the hit position, a process of selecting a vibration unit to vibrate from among a plurality of vibration units is performed.

このようにすれば、ヒット演算処理により求められたヒット情報を反映させた振動部の振動制御を実現できるようになり、仮想空間でのゲーム状況に対応したリアルな振動制御を実現できるようになる。   In this way, vibration control of the vibration part reflecting the hit information obtained by hit calculation processing can be realized, and real vibration control corresponding to the game situation in the virtual space can be realized. .

具体的には図13(A)〜図14(B)では、ジャケット52(装着体)の前面部に、前面側の振動部VF1〜VF9が設けられ、ジャケット52の後面部に、後面側の振動部VB1〜VB9が設けられている。このときに本実施形態では、ヒットイベント(振動イベント)が発生した場合に、ヒット情報に基づいて、前面側の振動部及び後面側の振動部の一方の振動部である第1の振動部を振動させた後、前面側の振動部及び後面側の振動部の他方の振動部である第2の振動部を振動させる振動制御を行う。ここでヒット情報は、ヒット方向及びヒット位置の少なくとも一方を含む情報である。   Specifically, in FIGS. 13A to 14B, front-side vibrating portions VF1 to VF9 are provided on the front surface portion of the jacket 52 (mounting body), and the rear surface portion of the jacket 52 is connected to the rear surface side. Vibrating portions VB1 to VB9 are provided. At this time, in the present embodiment, when a hit event (vibration event) occurs, based on the hit information, the first vibration part that is one of the vibration part on the front surface side and the vibration part on the rear surface side is changed. After the vibration, the vibration control is performed to vibrate the second vibration part which is the other vibration part of the vibration part on the front surface side and the vibration part on the rear surface side. Here, the hit information is information including at least one of the hit direction and the hit position.

即ち本実施形態では、2つの振動部の振動間隔に時間差を設けることで、あたかも弾が自身の身体を貫通したかのような仮想現実をユーザに対して与えている。そして本実施形態では、このように時間差を設けた振動において、先に振動する方の振動部を第1の振動部とし、後に振動する方の振動部を第2の振動部としている。   That is, in this embodiment, by providing a time difference between the vibration intervals of the two vibration parts, a virtual reality as if a bullet penetrated its own body is given to the user. In this embodiment, in the vibration having such a time difference, the first vibration part is the first vibration part, and the second vibration part is the second vibration part.

そして図13(A)、図13(B)は、先に振動する第1の振動部が、前面側の振動部であり、後に振動する第2の振動部が、後面側の振動部である場合の例である。例えば図13(A)では、第1の振動部である前面側の振動部VF6を振動させた後、第2の振動部である後面側の振動部VB4を振動させている。図13(B)では、第1の振動部である前面側の振動部VF2を振動させた後、第2の振動部である後面側の振動部VB5を振動させている。   In FIGS. 13A and 13B, the first vibrating portion that vibrates first is the front vibrating portion, and the second vibrating portion that vibrates later is the rear vibrating portion. This is an example. For example, in FIG. 13A, after vibrating the front-side vibrating portion VF6 that is the first vibrating portion, the rear-side vibrating portion VB4 that is the second vibrating portion is vibrated. In FIG. 13B, after vibrating the front vibration part VF2 which is the first vibration part, the rear vibration part VB5 which is the second vibration part is vibrated.

一方、図14(A)、図14(B)は、先に振動する第1の振動部が、後面側の振動部であり、後に振動する第2の振動部が、前面側の振動部である場合の例である。例えば図14(A)では、第1の振動部である後面側の振動部VB4を振動させた後、第2の振動部である前面側の振動部VF6を振動させている。図14(B)では、第1の振動部である後面側の振動部VB5を振動させた後、第2の振動部である前面側の振動部VF2を振動させている。   On the other hand, in FIGS. 14A and 14B, the first vibrating portion that vibrates first is the rear vibrating portion, and the second vibrating portion that vibrates later is the front vibrating portion. It is an example in some cases. For example, in FIG. 14A, after vibrating the rear vibration part VB4 which is the first vibration part, the front vibration part VF6 which is the second vibration part is vibrated. In FIG. 14B, after vibrating the rear vibration part VB5 which is the first vibration part, the front vibration part VF2 which is the second vibration part is vibrated.

このように本実施形態では、第1の振動部を振動させた後、第2の振動部を振動させるというように、2つの振動部の振動間隔に時間差を設ける振動制御を行うことで、あたかも弾が自身の身体を貫通したかのような仮想現実をユーザに対して与えている。これにより、弾等のヒットイベントの発生時にユーザに与える仮想現実感を大幅に向上できるようになる。   As described above, in the present embodiment, it is as if by performing vibration control that provides a time difference between the vibration intervals of the two vibrating portions, such as vibrating the second vibrating portion after vibrating the first vibrating portion. Virtual reality is given to the user as if the bullet had penetrated his body. Thereby, it is possible to greatly improve the virtual reality given to the user when a hit event such as a bullet occurs.

そして、このような振動制御を行うためには、まず、図12(A)のユーザ移動体MVの前面部に弾SHがヒットしたのか、或いはユーザ移動体MVの後面部に弾SHがヒットしたのかを判定する必要がある。   In order to perform such vibration control, first, the bullet SH hits the front surface of the user moving body MV in FIG. 12A or the bullet SH hits the rear surface of the user moving body MV. It is necessary to determine whether or not.

ユーザ移動体MVの前面部に弾SHがヒットした場合には、図13(A)、図13(B)に示すように、第1の振動部である前面側の振動部VF6、VF2を振動させた後、第2の振動部である後面側の振動部VB4、VB5を振動させればよい。   When the bullet SH hits the front surface of the user moving body MV, as shown in FIGS. 13A and 13B, the front vibration parts VF6 and VF2 which are the first vibration parts are vibrated. Then, the rear vibration parts VB4 and VB5, which are the second vibration parts, may be vibrated.

一方、ユーザ移動体MVの後面部に弾SHがヒットした場合には、図14(A)、図14(B)に示すように、第1の振動部である後面側の振動部VB4、VB5を振動させた後、第2の振動部である前面側の振動部VF6、VF2を振動させればよい。   On the other hand, when the bullet SH hits the rear surface portion of the user moving body MV, as shown in FIGS. 14A and 14B, the vibration portions VB4 and VB5 on the rear surface side which are the first vibration portions. Then, the front-side vibrating portions VF6 and VF2 that are the second vibrating portions may be vibrated.

そして、ユーザ移動体MVの前面部に弾SHがヒットしたのか、或いはユーザ移動体MVの後面部に弾SHがヒットしたのかの判定には、ヒット方向DHT及びヒット位置PHTの少なくとも一方を含むヒット情報を用いることができる。   Then, in determining whether the bullet SH hits the front surface of the user moving body MV or the bullet SH hits the rear surface of the user moving body MV, the hit including at least one of the hit direction DHT and the hit position PHT is used. Information can be used.

例えば図13(A)、図13(B)では、ヒット方向DHTに基づいて、弾SHが、ユーザ移動体MVの前方側から飛んで来たと判断できる。或いは、ヒット位置PHTに基づいて、弾SHがユーザ移動体MVの前面部にヒットしたと判断できる。従って、この場合には、図13(A)、図13(B)に示すように、前面側の振動部VF6、VF2を振動させた後、後面側の振動部VB4、VB5を振動させる振動制御を行う。   For example, in FIG. 13A and FIG. 13B, it can be determined that the bullet SH flies from the front side of the user moving body MV based on the hit direction DHT. Alternatively, based on the hit position PHT, it can be determined that the bullet SH has hit the front surface of the user moving body MV. Accordingly, in this case, as shown in FIGS. 13A and 13B, the vibration control for vibrating the vibration parts VB4 and VB5 on the rear surface side after vibrating the vibration parts VF6 and VF2 on the front surface side is performed. I do.

一方、図14(A)、図14(B)では、ヒット方向DHTに基づいて、弾SHが、ユーザ移動体MVの後方側から飛んで来たと判断できる。或いは、ヒット位置PHTに基づいて、弾SHがユーザ移動体MVの後面部にヒットしたと判断できる。従って、この場合には、図14(A)、図14(B)に示すように、後面側の振動部VB4、VB5を振動させた後、前面側の振動部VF6、VF2を振動させる振動制御を行う。   On the other hand, in FIG. 14 (A) and FIG. 14 (B), it can be determined that the bullet SH flies from the rear side of the user moving body MV based on the hit direction DHT. Alternatively, based on the hit position PHT, it can be determined that the bullet SH has hit the rear surface of the user moving body MV. Therefore, in this case, as shown in FIGS. 14A and 14B, the vibration control for vibrating the vibration portions VF6 and VF2 on the front side after vibrating the vibration portions VB4 and VB5 on the rear surface side is performed. I do.

また図13(A)〜図14(B)に示すように、前面側や後面側に複数の振動部がある場合に、複数の振動部の中から振動させる振動部を選択する処理が必要になる。そこで本実施形態では、複数の振動部の中から振動させる振動部を選択する処理を、ヒット情報に基づいて行う。   Further, as shown in FIGS. 13A to 14B, when there are a plurality of vibration parts on the front side or the rear side, it is necessary to select a vibration part to be vibrated from among the plurality of vibration parts. Become. Therefore, in the present embodiment, a process of selecting a vibration part to be vibrated from a plurality of vibration parts is performed based on hit information.

具体的には本実施形態では、先に振動させる第1の振動部として、複数の第1の振動部が設けられる場合に、複数の第1の振動部の中から振動させる振動部を選択する処理を、ヒット情報に基づいて行う。或いは、後に振動させる第2の振動部として、複数の第2の振動部が設けられる場合に、複数の第2の振動部の中から振動させる振動部を選択する処理を、ヒット情報に基づいて行う。   Specifically, in the present embodiment, when a plurality of first vibration units are provided as the first vibration unit to be vibrated first, a vibration unit to be vibrated is selected from the plurality of first vibration units. Processing is performed based on the hit information. Alternatively, when a plurality of second vibration units are provided as the second vibration unit to be vibrated later, a process of selecting a vibration unit to be vibrated from among the plurality of second vibration units is performed based on the hit information. Do.

例えば図13(A)、図13(B)は、先に振動させる複数の第1の振動部が、前面側の振動部VF1〜VF9であり、後に振動させる複数の第2の振動部が、後面側の振動部VB1〜VB9である場合の例である。この場合に、複数の前面側の振動部VF1〜VF9(複数の第1の振動部)の中から振動させる振動部を選択する処理と、複数の後面側の振動部VB1〜VB9(複数の第2の振動部)の中から振動させる振動部を選択する処理を、ヒット情報であるヒット方向DHTに基づいて行う。   For example, in FIG. 13A and FIG. 13B, the plurality of first vibration parts to be vibrated first are the vibration parts VF1 to VF9 on the front side, and the plurality of second vibration parts to be vibrated later are This is an example in the case of the vibration parts VB1 to VB9 on the rear surface side. In this case, a process of selecting a vibration part to be vibrated from among the plurality of front-side vibration parts VF1 to VF9 (a plurality of first vibration parts) and a plurality of rear-surface vibration parts VB1 to VB9 (a plurality of first vibration parts) The process of selecting the vibration part to be vibrated from among the two vibration parts) is performed based on the hit direction DHT which is hit information.

例えば図13(A)では、図12(A)の弾SHのヒット方向DHTは、ユーザ移動体MVの左前側から右後ろ側への方向になっている。この場合には、このヒット方向DHTの軌道に沿った前面側の振動部VF6と後面側の振動部VB4を選択して、振動させる。例えば前面側の振動部VF6を振動させた後、所与の振動間隔の期間経過後に、後面側の振動部VB4を振動させる。これによりユーザは、あたかも本物の弾が自身の身体の左前側から右後ろ側へと貫通したかのような仮想現実を感じることができる。   For example, in FIG. 13 (A), the hit direction DHT of the bullet SH in FIG. 12 (A) is the direction from the left front side to the right rear side of the user moving body MV. In this case, the vibration unit VF6 on the front side and the vibration unit VB4 on the rear side along the trajectory in the hit direction DHT are selected and vibrated. For example, after vibrating the vibration part VF6 on the front surface side, the vibration part VB4 on the rear surface side is vibrated after a given vibration interval has elapsed. As a result, the user can feel a virtual reality as if a real bullet had penetrated from the left front side to the right rear side of his / her body.

図13(B)では、弾SHのヒット方向DHTは、ユーザ移動体MVの下方前側から上方後ろ側への方向になっている。この場合には、このヒット方向DHTの軌道に沿った前面側の振動部VF2と後面側の振動部VB5を選択して、振動させる。例えば前面側の振動部VF2を振動させた後、所与の振動間隔の期間経過後に、後面側の振動部VB5を振動させる。これによりユーザは、あたかも本物の弾が自身の身体の下方前側から上方後ろ側へと貫通したかのような仮想現実を感じることができる。   In FIG. 13B, the hit direction DHT of the bullet SH is a direction from the lower front side to the upper rear side of the user moving body MV. In this case, the vibration unit VF2 on the front side and the vibration unit VB5 on the rear side along the trajectory in the hit direction DHT are selected and vibrated. For example, after vibrating the vibration part VF2 on the front surface side, the vibration part VB5 on the rear surface side is vibrated after the passage of a given vibration interval. Thus, the user can feel a virtual reality as if a real bullet had penetrated from the lower front side to the upper rear side of his / her body.

一方、図14(A)、図14(B)は、先に振動させる複数の第1の振動部が、後面側の振動部VB1〜VB9であり、後に振動させる複数の第2の振動部が、前面側の振動部VF1〜VF9である場合の例である。この場合に、複数の後面側の振動部VB1〜VB9(複数の第1の振動部)の中から振動させる振動部を選択する処理と、複数の前面側の振動部VF1〜VF9(複数の第2の振動部)の中から振動させる振動部を選択する処理と、ヒット情報であるヒット方向DHTに基づいて行う。   On the other hand, in FIG. 14A and FIG. 14B, the plurality of first vibration parts that vibrate first are the vibration parts VB1 to VB9 on the rear surface side, and the plurality of second vibration parts that vibrate later are shown. This is an example in the case of the vibration parts VF1 to VF9 on the front side. In this case, a process of selecting a vibrating part to be vibrated from among the plurality of rear-side vibrating parts VB1 to VB9 (a plurality of first vibrating parts) and a plurality of front-side vibrating parts VF1 to VF9 (a plurality of first vibrating parts) 2), the process is performed based on the process of selecting the vibration part to be vibrated from the two vibration parts) and the hit direction DHT which is hit information.

例えば図14(A)では、弾SHのヒット方向DHTは、ユーザ移動体MVの右後ろ側から左前側への方向になっている。この場合には、このヒット方向DHTの軌道に沿った後面側の振動部VB4と前面側の振動部VF6を選択して、振動させる。例えば後面側の振動部VB4を振動させた後、所与の振動間隔の期間経過後に、前面側の振動部VF6を振動させる。これによりユーザは、あたかも本物の弾が自身の身体の右後ろ側から左前側へと貫通したかのような仮想現実を感じることができる。   For example, in FIG. 14A, the hit direction DHT of the bullet SH is a direction from the right rear side to the left front side of the user moving body MV. In this case, the rear vibration part VB4 and the front vibration part VF6 along the trajectory in the hit direction DHT are selected and vibrated. For example, after vibrating the vibration part VB4 on the rear surface side, the vibration part VF6 on the front surface side is vibrated after a given vibration interval has elapsed. Thus, the user can feel a virtual reality as if a real bullet had penetrated from the right rear side to the left front side of his / her body.

図14(B)では、弾SHのヒット方向DHTは、ユーザ移動体MVの上方後ろ側から下方前側への方向になっている。この場合には、このヒット方向DHTの軌道に沿った後面側の振動部VB5と前面側の振動部VF2を選択して、振動させる。例えば後面側の振動部VB5を振動させた後、所与の振動間隔の期間経過後に、前面側の振動部VF2を振動させる。これによりユーザは、あたかも本物の弾が自身の身体の上方後ろ側から下方前側へと貫通したかのような仮想現実を感じることができる。   In FIG. 14B, the hit direction DHT of the bullet SH is a direction from the upper rear side to the lower front side of the user moving body MV. In this case, the rear vibration portion VB5 and the front vibration portion VF2 along the trajectory in the hit direction DHT are selected and vibrated. For example, after vibrating the rear vibration portion VB5, the front vibration portion VF2 is vibrated after a given vibration interval. Thus, the user can feel a virtual reality as if a real bullet had penetrated from the upper rear side to the lower front side of his / her body.

このように図13(A)〜図14(B)では、所定個数(例えば9個)の振動部が、ユーザの前面部と後面部の各々に格子状に配置され、ヒット情報に基づき適切な振動部が選択されて振動する。従って、ヒット方向等のヒット情報を反映させた好適な仮想現実感をユーザに与えることが可能になる。   As described above, in FIGS. 13A to 14B, a predetermined number (for example, 9) of vibration parts are arranged in a lattice pattern on each of the front part and the rear part of the user, and appropriate values based on hit information are obtained. The vibration part is selected and vibrates. Accordingly, it is possible to give the user a suitable virtual reality that reflects hit information such as the hit direction.

なお図13(A)〜図14(B)では、ヒット方向DHTに基づいて振動部の選択処理を行っているが、ヒット位置PHTに基づいて振動部の選択処理を行ってもよい。   In FIGS. 13A to 14B, the selection process of the vibration part is performed based on the hit direction DHT, but the selection process of the vibration part may be performed based on the hit position PHT.

例えば図12(A)において、弾SHがユーザ移動体MVの身体の中央部にヒットしたと判定されたとする。この場合には図15(A)に示すように、身体の中央部のヒット位置PHTに対応する前面側の振動部VF5と後面側の振動部VB5を振動させる振動制御を行う。これによりユーザは、あたかも本物の弾が自身の身体の前側の中央部から後ろ側の中央部へと貫通したかのような仮想現実を感じることができる。   For example, in FIG. 12A, it is assumed that it is determined that the bullet SH hits the center of the body of the user moving body MV. In this case, as shown in FIG. 15A, vibration control is performed to vibrate the front vibration portion VF5 and the rear vibration portion VB5 corresponding to the hit position PHT at the center of the body. As a result, the user can feel a virtual reality as if a real bullet had penetrated from the front central part of the body to the rear central part.

一方、弾SHがユーザ移動体MVの身体の中央部の下側にヒットしたと判定されたとする。この場合には図15(B)に示すように、身体の中央部の下側のヒット位置PHTに対応する前面側の振動部VF2と後面側の振動部VB2を振動させる振動制御を行う。これによりユーザは、あたかも本物の弾が自身の身体の前側の中央部下側から後ろ側の中央部下側へと貫通したかのような仮想現実を感じることができる。弾のヒット位置PHTが中央部の右側、左側、上側、斜め側等である場合にも、同様の振動制御を行うことができる。また、ヒット情報のヒット方向DHTとヒット位置PHTの両方を用いて、前面側の振動部と後面側の振動部を振動させる振動制御を行ってもよい。このようにすれば、弾が身体を貫通する仮想現実の体感処理を、より正確に実現する振動制御が可能になる。   On the other hand, suppose that it is determined that the bullet SH has hit the lower side of the center of the user moving body MV. In this case, as shown in FIG. 15B, vibration control is performed to vibrate the front vibration portion VF2 and the rear vibration portion VB2 corresponding to the lower hit position PHT at the center of the body. As a result, the user can feel a virtual reality as if a real bullet had penetrated from the lower center part on the front side to the lower center part on the rear side. The same vibration control can be performed when the bullet hit position PHT is on the right side, the left side, the upper side, the diagonal side, or the like of the central portion. Further, vibration control for vibrating the front vibration portion and the rear vibration portion may be performed using both the hit direction DHT and the hit position PHT of the hit information. In this way, it is possible to perform vibration control that more accurately realizes virtual reality bodily sensation processing in which a bullet penetrates the body.

また弾のヒット方向DHTやヒット位置PHTなどのヒット情報はユーザ移動体MVを標的として攻撃を行う敵の攻撃方向等の演算処理を行うことで特定できる。例えば図2(A)〜図3(B)で説明したトラッキング手法などにより、敵のユーザが所持するガン型コントローラの位置情報、方向情報を取得し、これらの位置情報、方向情報に基づいて攻撃方向を求めるヒット演算処理を行い、ヒット方向DHTやヒット位置PHTを特定する。この場合に、例えばユーザ移動体と敵移動体の相対的な位置関係や方向関係を反映させて、ヒット方向DHTやヒット位置PHTを特定すればよい。   Also, hit information such as the bullet hit direction DHT and the hit position PHT can be specified by performing calculation processing such as the attack direction of an enemy attacking the user moving body MV. For example, the position information and direction information of the gun-type controller possessed by the enemy user are acquired by the tracking method described in FIGS. 2A to 3B, and an attack is performed based on the position information and direction information. A hit calculation process for obtaining the direction is performed, and the hit direction DHT and the hit position PHT are specified. In this case, for example, the hit direction DHT and the hit position PHT may be specified by reflecting the relative positional relationship and directional relationship between the user moving body and the enemy moving body.

また本実施形態では、第1の振動部を振動させる第1のタイミングから、第2の振動部を振動させる第2のタイミングまでの振動間隔の長さを、ヒットイベント(振動イベント)の種類又は内容に応じて変化させる。具体的には振動間隔の長さを、ヒット情報に含まれるヒット速度に基づいて変化させる。   In the present embodiment, the length of the vibration interval from the first timing for vibrating the first vibrating portion to the second timing for vibrating the second vibrating portion is set as the type of hit event (vibration event) or Change according to the content. Specifically, the length of the vibration interval is changed based on the hit speed included in the hit information.

ここで、第1の振動部は、先に振動させる方の振動部であり、第2の振動部は、後に振動させる方の振動部である。前述したように図13(A)、図13(B)では、前面側の振動部(VF1〜VF9)が第1の振動部になり、後面側の振動部(VB1〜VB9)が第2の振動部になる。一方、図14(A)、図14(B)では、後面側の振動部(VB1〜VB9)が第1の振動部になり、前面側の振動部(VF1〜VF9)が第2の振動部になる。   Here, the first vibration part is a vibration part that vibrates first, and the second vibration part is a vibration part that vibrates later. As described above, in FIGS. 13A and 13B, the front-side vibrating portions (VF1 to VF9) are the first vibrating portions, and the rear-side vibrating portions (VB1 to VB9) are the second vibrating portions. It becomes a vibration part. On the other hand, in FIG. 14 (A) and FIG. 14 (B), the rear vibration parts (VB1 to VB9) are the first vibration parts, and the front vibration parts (VF1 to VF9) are the second vibration parts. become.

例えば図16(A)では、第1の振動部である前面側の振動部VFがタイミングT1(第1のタイミング)で振動している。そしてタイミングT1から振動間隔TVの期間経過後のタイミングT2(第2のタイミング)で、第2の振動部である後面側の振動部VBが振動している。このような振動間隔TVによる振動の時間差を設けることで、弾が貫通しているかのように感じる仮想現実感を実現できる。なお、前述したように第1の振動部が後面側の振動部であり、第2の振動部が前面側の振動部であってもよい。   For example, in FIG. 16A, the front-side vibrating portion VF that is the first vibrating portion vibrates at timing T1 (first timing). Then, at the timing T2 (second timing) after the passage of the vibration interval TV from the timing T1, the rear vibrating portion VB which is the second vibrating portion vibrates. By providing such a time difference of vibration due to the vibration interval TV, it is possible to realize a virtual reality feeling as if a bullet has penetrated. As described above, the first vibration part may be a rear vibration part, and the second vibration part may be a front vibration part.

そして図16(B)では、弾のヒット速度が遅いため、振動部VFを振動させるタイミングT1から振動部VBを振動させるタイミングT2までの振動間隔TVを長くする。一方、図16(C)では、弾のヒット速度が速いため、振動部VFを振動させるタイミングT1から振動部VBを振動させるタイミングT2までの振動間隔TVを短くする。このようにすれば、速度が遅い弾については、振動間隔TVが長くなることで、長い時間間隔で弾が身体を貫通するような仮想現実感をユーザに与えることができる。一方、速度が速い弾については、振動間隔TVが短くなることで、短い時間間隔で弾が身体を貫通するような仮想現実感をユーザが与えることができる。従って、弾のヒット速度を反映させた弾の貫通表現を実現でき、ユーザの仮想現実感を更に向上できる。   In FIG. 16B, since the hit speed of the bullet is slow, the vibration interval TV from the timing T1 for vibrating the vibrating portion VF to the timing T2 for vibrating the vibrating portion VB is lengthened. On the other hand, in FIG. 16C, since the hit speed of the bullet is fast, the vibration interval TV from the timing T1 for vibrating the vibrating portion VF to the timing T2 for vibrating the vibrating portion VB is shortened. In this way, for a bullet with a low speed, the vibration interval TV becomes long, so that a virtual reality feeling that the bullet penetrates the body at a long time interval can be given to the user. On the other hand, for a bullet with a high speed, the vibration interval TV is shortened, so that the user can give a virtual reality feeling that the bullet penetrates the body at a short time interval. Accordingly, bullet penetration expression reflecting the bullet hit speed can be realized, and the virtual reality of the user can be further improved.

このように本実施形態では、振動間隔TVの長さを、ヒット速度に基づき変化させている。別の言い方をすれば、振動間隔TVの長さを、ヒットイベント(振動イベント)の種類や内容に応じて変化させている。例えばヒット速度が速い武器の攻撃が行われる第1の種類のイベントでは、振動間隔TVを短くする。一方、ヒット速度が遅い武器の攻撃が行われる第2の種類のイベントでは、振動間隔TVを長くする。即ち、振動間隔TVの長さを、ヒットイベントの種類に応じて変化させる。或いは、同じ武器を使用する同じ種類のイベントにおいて、例えば敵の攻撃速度のパラメータが高くなることで、当該武器による攻撃のヒット速度が速くなる場合には、振動間隔TVを短くする。また敵の攻撃速度のパラメータが低くなることで、当該武器による攻撃のヒット速度が遅くなる場合には、振動間隔TVを長くする。即ち、振動間隔TVの長さを、ヒットイベントの内容に応じて変化させる。   Thus, in the present embodiment, the length of the vibration interval TV is changed based on the hit speed. In other words, the length of the vibration interval TV is changed according to the type and content of the hit event (vibration event). For example, in the first type of event in which a weapon attack with a high hit speed is performed, the vibration interval TV is shortened. On the other hand, in the second type event where a weapon attack with a slow hit speed is performed, the vibration interval TV is lengthened. That is, the length of the vibration interval TV is changed according to the type of hit event. Alternatively, in the same type of event using the same weapon, for example, when the attack speed parameter of the enemy is increased and the hit speed of the attack by the weapon is increased, the vibration interval TV is shortened. Further, when the attack speed parameter of the enemy is lowered and the hit speed of the attack with the weapon is lowered, the vibration interval TV is lengthened. That is, the length of the vibration interval TV is changed according to the contents of the hit event.

以上のようにすることで、ヒットイベントの種類や内容に応じた長さの振動間隔で、振動部が振動するようになるため、ヒットイベントの種類や内容を反映させた振動制御を実現できるようになる。   By doing so, the vibration part vibrates at a vibration interval with a length corresponding to the type and content of the hit event, so that vibration control reflecting the type and content of the hit event can be realized. become.

以上のように本実施形態では、ジャケット52等の装着体に対して複数の振動部が設けられ、ゲーム処理に基づく画像が表示部に表示されると共に、ゲーム状況に応じて、装着体の複数の振動部の振動制御が行われる。このようにすれば、表示部に表示されるゲーム画像に連動させた振動部の振動制御が可能になり、ゲーム処理の結果に基づく表示画像を生成しながら、ユーザがプレイするゲームの状況を反映させた装着体の振動部の振動制御を実現できる。   As described above, in the present embodiment, a plurality of vibration units are provided for the mounting body such as the jacket 52, and an image based on the game process is displayed on the display unit. The vibration control of the vibration part is performed. In this way, vibration control of the vibration unit linked to the game image displayed on the display unit can be performed, and a display image based on the result of the game processing is generated while reflecting the situation of the game played by the user. Vibration control of the vibration part of the mounted body can be realized.

特に表示部としてHMDを用いる場合には、ユーザの視界はHMDにより覆われるため、装着体の複数の振動部を用いた振動制御は、ユーザの仮想現実感の向上のために有効である。例えばHMDにより視界が覆われることで、ユーザは、装着体での複数の振動部の振動を、あたかも本物の弾等が自身に対してヒットしたかのように感じるようになり、ゲームの仮想現実感を大幅に向上できる。例えば図13(A)〜図15(B)に示すように、ヒット方向やヒット位置等のヒット情報を反映させた振動制御を行えば、そのヒット方向やヒット位置等で弾等が実際にヒットしたかのような仮想現実感をユーザに与えることができる。また図16(A)〜図16(C)に示すように振動間隔による振動の時間差を設けることで、ヒットした弾等が自身の身体を貫通したかのように感じる仮想現実感を実現できる。   In particular, when the HMD is used as the display unit, the user's field of view is covered with the HMD, and therefore vibration control using the plurality of vibration units of the wearing body is effective for improving the virtual reality of the user. For example, when the field of view is covered by the HMD, the user can feel the vibration of the plurality of vibration parts on the wearing body as if a real bullet hit the user, and the virtual reality of the game The feeling can be greatly improved. For example, as shown in FIGS. 13 (A) to 15 (B), if vibration control reflecting hit information such as the hit direction and hit position is performed, bullets and the like are actually hit in the hit direction and hit position. It is possible to give virtual reality to the user as if it were. Also, as shown in FIGS. 16A to 16C, by providing a time difference of vibration depending on the vibration interval, it is possible to realize a virtual reality that feels as if a hit bullet or the like has penetrated its own body.

なお本実施形態でのヒットイベントとしては、図17(A)に示すような弾SH等の攻撃物がユーザ移動体MVにヒットするイベントが考えられるが、図17(B)に示すように敵移動体OBEの剣SWE等の武器がユーザ移動体にヒットするイベントであってもよい。このようにすれば図7、図8に示すような剣ゲームにおいて、ユーザが敵を斬ったという感触については、剣型コントローラ10の反動等の発生機構30により実現しながら、敵から斬られたことによる衝撃の感触については、ジャケット52等の装着体の振動部の振動制御により実現できるようになる。   As a hit event in the present embodiment, an event in which an attack object such as a bullet SH as shown in FIG. 17A hits the user moving body MV can be considered. However, as shown in FIG. It may be an event in which a weapon such as a sword SWE of a moving object OBE hits a user moving object. In this way, in the sword game as shown in FIG. 7 and FIG. 8, the feeling that the user has cut the enemy is realized by the reaction mechanism 30 of the sword-type controller 10 while being cut from the enemy. The feeling of impact due to this can be realized by vibration control of the vibration part of the mounting body such as the jacket 52.

またヒットイベントにおいてユーザ移動体MVにヒットするオブジェクトは、図17(A)、図17(B)のような弾SH等の攻撃物や剣SWE等の武器には限定されない。例えば図17(C)では、岩山等が崩れたことによる岩RKのオブジェクトがユーザ移動体MVにヒットしており、このような岩RKのヒットの際の衝撃の感覚についても、装着体の振動部の振動制御により実現できる。即ち本実施形態の手法は、弾や武器を用いた対戦ゲームのみならず、岩などの物体がぶつかって来るような自然体験のシミュレーションゲーム等にも適用できる。   Further, the object that hits the user moving body MV in the hit event is not limited to an attacking object such as a bullet SH as shown in FIGS. 17A and 17B and a weapon such as a sword SWE. For example, in FIG. 17C, an object of a rock RK due to the collapse of a rocky mountain or the like has hit the user moving body MV, and the vibration of the mounting body is also sensed for the sense of impact when such a rock RK hits. This can be realized by vibration control of the part. That is, the method of the present embodiment can be applied not only to a battle game using bullets and weapons, but also to a simulation game for a natural experience in which an object such as a rock hits.

また本実施形態の手法は、他のオブジェクトがヒットするヒットイベント以外の振動イベントにも適用可能である。例えば図17(D)では、ユーザ移動体MVの近くにおいて爆発EXPが発生しており、この爆発EXPによる振動イベントが発生した場合に、ユーザの装着体の振動部を振動させる振動制御を行ってもよい。このようにすれば、爆発EXPによる爆風等をユーザに体感させることができ、本当に爆発が起きたかのような仮想現実感をユーザに与えることが可能になる。   The method of the present embodiment can also be applied to vibration events other than hit events that hit other objects. For example, in FIG. 17D, when an explosion EXP has occurred near the user moving body MV and a vibration event has occurred due to the explosion EXP, vibration control is performed to vibrate the vibration portion of the user's wearing body. Also good. In this way, it is possible to make the user feel the blast caused by the explosion EXP, and to give the user a virtual reality feeling as if the explosion really occurred.

また本実施形態では、振動部の振動制御に応じた演出処理を行ってもよい。例えば振動部の振動制御に連動して、ユーザに出力される効果音の演出処理を行ったり、ゲーム画像での演出画像の生成処理を行う。例えば図17(A)、図17(B)で弾SHや剣SWEがヒットした場合に、そのヒットに連動した効果音を出力したり、エフェクト画像を生成する。また図17(C)のように岩RKがヒットするイベントでは、岩が崩れる際の効果音やエフェクト画像を生成する。また図17(D)に示すように爆発EXPの振動イベントが発生した場合には、爆発EXPに対応する効果音やエフェクト画像を生成する。そして例えば振動させる振動部の個数や範囲、或いは振動のタイミングに合わせて、効果音を出力したり、演出画像を表示する。このようにすることで、振動部の振動制御に連動した効果音の出力や演出画像の表示が可能になり、ユーザの仮想現実感を更に高めることが可能になる。   Moreover, in this embodiment, you may perform the effect process according to the vibration control of a vibration part. For example, in conjunction with vibration control of the vibration unit, a process for producing a sound effect output to the user is performed, or a process for creating a production image with a game image is performed. For example, when a bullet SH or sword SWE is hit in FIGS. 17A and 17B, a sound effect linked to the hit is output or an effect image is generated. Further, in the event that the rock RK hits as shown in FIG. 17C, a sound effect and an effect image when the rock collapses are generated. Also, as shown in FIG. 17D, when an explosion EXP vibration event occurs, a sound effect and an effect image corresponding to the explosion EXP are generated. Then, for example, a sound effect is output or an effect image is displayed in accordance with the number and range of vibration parts to be vibrated or the timing of vibration. By doing so, it is possible to output sound effects and display effect images in conjunction with vibration control of the vibration unit, and it is possible to further enhance the virtual reality of the user.

4.詳細な処理
次に本実施形態の詳細な処理例について図18、図19のフローチャートを用いて説明する。
4). Detailed Processing Next, a detailed processing example of this embodiment will be described with reference to the flowcharts of FIGS.

図18は本実施形態の全体的な処理例を示すフローチャートである。まずユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する(ステップS1)。例えばHMDの位置情報、方向情報を取得することで、ユーザの位置情報、方向情報等を取得できる。そして、ユーザに対応するユーザ移動体の移動処理を行う(ステップS2)。例えば、取得された実空間でのユーザの位置情報や方向情報に基づいて、ユーザ移動体を仮想空間で移動させる処理を行う。またユーザの姿勢情報が取得される場合には、取得された姿勢情報に基づいて、ユーザ移動体を動作させるモーション処理を行う。   FIG. 18 is a flowchart showing an example of the overall processing of this embodiment. First, user information including at least one of user position information, direction information, and posture information is acquired (step S1). For example, by acquiring the HMD position information and direction information, the user position information and direction information can be acquired. And the movement process of the user moving body corresponding to a user is performed (step S2). For example, a process of moving the user moving object in the virtual space is performed based on the acquired position information and direction information of the user in the real space. In addition, when user posture information is acquired, motion processing for operating the user moving body is performed based on the acquired posture information.

次に、ヒット演算処理等のゲーム処理を実行する(ステップS3)。例えば他のオブジェクトがユーザ移動体にヒットしたか否かを判定するヒット演算処理や、ゲームを進行させるゲーム進行処理などを実行する。そして装着体の振動部の振動制御処理を行う(ステップS4)。例えばヒット演算処理等の結果に基づいて、ゲーム状況に応じた振動部の振動制御処理を行う。そしてゲーム処理の結果に基づいてHMDの表示画像を生成して、HMDに表示する(ステップS5)。   Next, game processing such as hit calculation processing is executed (step S3). For example, a hit calculation process for determining whether or not another object hits the user moving body, a game progress process for advancing the game, and the like are executed. And the vibration control process of the vibration part of a mounting body is performed (step S4). For example, the vibration control process of the vibration unit corresponding to the game situation is performed based on the result of the hit calculation process or the like. Based on the result of the game process, an HMD display image is generated and displayed on the HMD (step S5).

図19はヒット情報に基づく振動制御処理のフローチャートである。まずユーザ移動体に弾等のオブジェクトがヒットしたか否かを判定する(ステップS11)。このヒット判定処理は、例えばユーザ移動体のヒットボリュームと、弾等のオブジェクト又は軌道との交差判定処理などにより実現できる。   FIG. 19 is a flowchart of vibration control processing based on hit information. First, it is determined whether or not an object such as a bullet has hit the user moving body (step S11). This hit determination process can be realized by, for example, an intersection determination process between a hit volume of a user moving object and an object such as a bullet or a trajectory.

弾等のオブジェクトがユーザ移動体にヒットした場合には、ヒット方向、ヒット位置及びヒット速度の少なくとも1つを含むヒット情報を取得する(ステップS12)。例えばオブジェクトがユーザ移動体にヒットした際のオブジェクトの移動方向、移動位置、移動速度を、各々、ヒット方向、ヒット位置、ヒット速度として取得できる。そしてヒット情報のヒット方向やヒット位置に基づいて、前面側の振動部と後面側の振動部の一方の振動部である第1の振動部と、他方の振動部である第2の振動部を選択する(ステップS13)。第1の振動部は、先に振動させる方の振動部であり、前面側の振動部と後面側の振動部の一方の振動部である。第2の振動部は、後に振動させる方の振動部であり、前面側の振動部と後面側の振動部の他方の振動部である。そして図13(A)〜図15(B)で説明した手法により、複数の第1の振動部の中から振動させる振動部を選択する処理と、複数の第2の振動部の中から振動させる振動部を選択する処理を行う。これらの振動部の選択処理は、ヒット情報のヒット方向やヒット位置に基づいて行う。   When an object such as a bullet hits the user moving body, hit information including at least one of the hit direction, hit position, and hit speed is acquired (step S12). For example, the moving direction, moving position, and moving speed of the object when the object hits the user moving body can be acquired as the hit direction, hit position, and hit speed, respectively. Then, based on the hit direction and hit position of the hit information, the first vibration part which is one vibration part of the vibration part on the front surface side and the vibration part on the rear surface side, and the second vibration part which is the other vibration part. Select (step S13). The first vibration part is a vibration part that vibrates first, and is one of the vibration part on the front side and the vibration part on the rear side. The second vibration part is a vibration part that is vibrated later, and is the other vibration part of the vibration part on the front surface side and the vibration part on the rear surface side. And by the method demonstrated in FIG. 13 (A)-FIG. 15 (B), the process which selects the vibration part made to vibrate from among several 1st vibration parts, and vibrates from among several 2nd vibration parts A process of selecting the vibration unit is performed. The selection process of these vibration parts is performed based on the hit direction and hit position of the hit information.

次にヒット情報のヒット速度に基づいて、第1の振動部と第2の振動部の振動間隔を設定する(ステップS14)。例えば図16(A)〜図16(C)で説明したように、ヒット速度に応じて、第1の振動部と第2の振動部の振動間隔を長くしたり、短くする。そして第1の振動部と第2の振動部を、設定された振動間隔で振動させる(ステップS15)。即ち図13(A)〜図15(B)で選択された第1の振動部(前面側振動部、後面側振動部の一方)と第2の振動部(前面側振動部、後面側振動部の他方)を、図16(A)〜図16(C)に示すような振動間隔で振動させる。   Next, based on the hit speed of the hit information, the vibration interval between the first vibration part and the second vibration part is set (step S14). For example, as described with reference to FIGS. 16A to 16C, the vibration interval between the first vibrating portion and the second vibrating portion is lengthened or shortened according to the hit speed. And a 1st vibration part and a 2nd vibration part are vibrated by the set vibration space | interval (step S15). That is, the first vibration part (one of the front-side vibration part and the rear-side vibration part) and the second vibration part (front-side vibration part, rear-side vibration part) selected in FIG. 13 (A) to FIG. 15 (B). Is vibrated at a vibration interval as shown in FIGS. 16 (A) to 16 (C).

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(装着体、他のオブジェクト、振動イベント等)と共に記載された用語(ジャケット、弾・剣、ヒットイベント等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またユーザ情報の取得処理、仮想空間の設定処理、移動体の移動処理、ゲーム処理、ヒット演算処理、振動制御処理、表示処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、又は多数のユーザが参加する大型アトラクションシステム等の種々のシミュレーションシステムに適用できる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, in the specification or drawings, terms (jackets, bullets / swords, hit events, etc.) described at least once together with different terms (equipment, other objects, vibration events, etc.) in a broader sense or synonymous Alternatively, the different terms can be used in any place in the drawings. Further, user information acquisition processing, virtual space setting processing, moving body movement processing, game processing, hit calculation processing, vibration control processing, display processing, and the like are not limited to those described in the present embodiment, and are equivalent thereto. Various methods, processes, and configurations are also included in the scope of the present invention. The present invention can be applied to various games. Further, the present invention can be applied to various simulation systems such as a business game device, a home game device, or a large attraction system in which a large number of users participate.

V1〜VN 振動部、VF、VF1〜VF9 前面側の振動部、
VB、VB1〜VB9 後面側の振動部、
DHT ヒット方向、PHT ヒット位置、TV 振動間隔、
US、US1〜US4 ユーザ、GN、GN1〜GN4 ガン型コントローラ、
HMD、HMD1〜HMD4 頭部装着型表示装置、
MV、MV1〜MV3、MB1〜MB3 ユーザ移動体、FL フィールド、
GV1〜GV3、GB1〜GB3 銃、
SH 弾、SWE 剣、RK 岩、EXP 爆発、
10 剣型コントローラ、20 把持部、30 発生機構、32 錘、
34 受け部、50 装着体、52 ジャケット、
60 発生機構、70、80 コントローラ、
90 ソレノイド、92 プランジャー、94 バネ、96 取付具、98 体、
100 処理部、102 入力処理部、110 演算処理部、111 情報取得部、
112 仮想空間設定部、113 移動体処理部、114 仮想カメラ制御部、
115 ゲーム処理部、116 ヒット演算処理部、118 制御部、
118 制御部、120 表示処理部、130 音処理部、140 出力処理部、
150 撮像部、151、152 カメラ、160 操作部、
170 記憶部、172 オブジェクト情報記憶部、178 描画バッファ、
180 情報記憶媒体、192 音出力部、194 I/F部、
195 携帯型情報記憶媒体、196 通信部、
200 HMD(頭部装着型表示装置)、201〜203 受光素子、210 センサ部、
220 表示部、231〜236 発光素子、240 処理部、
280、284 ベースステーション、281、282、285、286 発光素子
V1 to VN vibration part, VF, VF1 to VF9 vibration part on the front side,
VB, VB1 to VB9 The vibration part on the rear side,
DHT hit direction, PHT hit position, TV vibration interval,
US, US1-US4 User, GN, GN1-GN4 Gun type controller,
HMD, HMD1 to HMD4 head-mounted display device,
MV, MV1-MV3, MB1-MB3 user mobile, FL field,
GV1-GV3, GB1-GB3 guns,
SH bullet, SWE sword, RK rock, EXP explosion,
10 sword-type controller, 20 gripping part, 30 generating mechanism, 32 spindles,
34 receiving part, 50 wearing body, 52 jacket,
60 generating mechanism, 70, 80 controller,
90 solenoids, 92 plungers, 94 springs, 96 fittings, 98 bodies,
100 processing units, 102 input processing units, 110 arithmetic processing units, 111 information acquisition units,
112 virtual space setting unit, 113 moving body processing unit, 114 virtual camera control unit,
115 game processing unit, 116 hit calculation processing unit, 118 control unit,
118 control unit, 120 display processing unit, 130 sound processing unit, 140 output processing unit,
150 imaging unit, 151, 152 camera, 160 operation unit,
170 storage unit, 172 object information storage unit, 178 drawing buffer,
180 Information storage medium, 192 sound output unit, 194 I / F unit,
195 portable information storage medium, 196 communication unit,
200 HMD (head-mounted display device), 201-203 light receiving element, 210 sensor unit,
220 display unit, 231 to 236 light emitting element, 240 processing unit,
280, 284 Base station, 281, 282, 285, 286 Light emitting element

Claims (10)

仮想空間の設定処理を行う仮想空間設定部と、
前記仮想空間を移動するユーザ移動体の移動処理を行う移動体処理部と、
ユーザが身体に装着体を装着してプレイするゲームのゲーム処理を行うゲーム処理部と、
前記ゲーム処理の結果に基づいて、表示画像を生成する表示処理部と、
制御部とを含み、
前記装着体の前面部に、少なくとも1つの前面側振動部が設けられ、前記装着体の後面部に、少なくとも1つの後面側振動部が設けられ、
前記ゲーム処理部は、
前記ユーザ移動体と他のオブジェクトとのヒット演算処理を行って、ヒット方向及びヒット位置の少なくとも一方を含むヒット情報を求め、
前記制御部は、
前記ユーザ移動体と前記他のオブジェクトとのヒットイベントが発生した場合に、前記ヒット情報に基づいて、前記前面側振動部及び前記後面側振動部の一方の振動部である第1の振動部を振動させた後、前記前面側振動部及び前記後面側振動部の他方の振動部である第2の振動部を振動させる振動制御を行うことを特徴とするシミュレーションシステム。
A virtual space setting unit for performing virtual space setting processing;
A moving body processing unit that performs a moving process of a user moving body that moves in the virtual space;
A game processing unit that performs a game process of a game in which a user plays a wearing body on the body;
A display processing unit for generating a display image based on the result of the game processing;
Including a control unit,
At least one front-side vibration part is provided on the front part of the mounting body, and at least one rear-side vibration part is provided on the rear surface part of the mounting body,
The game processing unit
Perform hit calculation processing of the user moving object and other objects to obtain hit information including at least one of hit direction and hit position,
The controller is
When a hit event occurs between the user moving body and the other object, based on the hit information, a first vibration unit that is one of the front-side vibration unit and the rear-side vibration unit is A vibration system that performs vibration control to vibrate a second vibration part that is the other vibration part of the front-side vibration part and the rear-side vibration part after being vibrated.
請求項1において、
前記制御部は、
前記第1の振動部として複数の第1の振動部が設けられる場合に、前記複数の第1の振動部の中から振動させる振動部を選択する処理を、前記ヒット情報に基づいて行うことを特徴とするシミュレーションシステム。
In claim 1,
The controller is
When a plurality of first vibration units are provided as the first vibration unit, a process of selecting a vibration unit to vibrate from the plurality of first vibration units is performed based on the hit information. A featured simulation system.
請求項1又は2において、
前記制御部は、
前記第2の振動部として複数の第2の振動部が設けられる場合に、前記複数の第2の振動部の中から振動させる振動部を選択する処理を、前記ヒット情報に基づいて行うことを特徴とするシミュレーションシステム。
In claim 1 or 2,
The controller is
When a plurality of second vibration parts are provided as the second vibration part, a process of selecting a vibration part to vibrate from the plurality of second vibration parts is performed based on the hit information. A featured simulation system.
請求項1乃至3のいずれかにおいて、
前記制御部は、
前記第1の振動部を振動させる第1のタイミングから、前記第2の振動部を振動させる第2のタイミングまでの振動間隔の長さを変化させることを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 3,
The controller is
A simulation system, wherein a length of a vibration interval from a first timing for vibrating the first vibrating section to a second timing for vibrating the second vibrating section is changed.
請求項4において、
前記ヒット情報はヒット速度を含み、
前記制御部は、
前記ヒット速度に基づいて前記振動間隔の長さを変化させることを特徴とするシミュレーションシステム。
In claim 4,
The hit information includes a hit speed,
The controller is
A simulation system, wherein the length of the vibration interval is changed based on the hit speed.
ユーザが身体に装着体を装着してプレイするゲームのゲーム処理を行うゲーム処理部と、
前記ゲーム処理の結果に基づいて、前記ユーザに表示する画像を生成する表示処理部と、
制御部とを含み、
前記装着体には複数の振動部が設けられ、
前記制御部は、
複数の前記振動部のうちの第1の振動部を振動させる第1のタイミングから、複数の前記振動部のうちの第2の振動部を振動させる第2のタイミングまでの振動間隔の長さを、前記ゲームにおいて発生する振動イベントの種類又は内容に応じて変化させることを特徴とするシミュレーションシステム。
A game processing unit that performs a game process of a game in which a user plays a wearing body on the body;
A display processing unit that generates an image to be displayed to the user based on the result of the game process;
Including a control unit,
The mounting body is provided with a plurality of vibration parts,
The controller is
The length of the vibration interval from the first timing for vibrating the first vibrating portion of the plurality of vibrating portions to the second timing for vibrating the second vibrating portion of the plurality of vibrating portions. A simulation system characterized by changing according to the type or content of a vibration event occurring in the game.
請求項1乃至6のいずれかにおいて、
前記表示処理部は、
前記ユーザが視界を覆うように装着する頭部装着型表示装置の表示画像を生成することを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 6.
The display processing unit
A simulation system for generating a display image of a head-mounted display device worn by the user so as to cover a field of view.
請求項1乃至7のいずれかにおいて、
前記制御部は、
前記装着体の前記振動制御に応じた演出処理を行うことを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 7,
The controller is
A simulation system that performs an effect process according to the vibration control of the wearing body.
仮想空間の設定処理を行う仮想空間設定部と、
前記仮想空間を移動するユーザ移動体の移動処理を行う移動体処理部と、
ユーザが身体に装着体を装着してプレイするゲームのゲーム処理を行うゲーム処理部と、
前記ゲーム処理の結果に基づいて、表示画像を生成する表示処理部と、
制御部として、
コンピュータを機能させ、
前記装着体の前面部に、少なくとも1つの前面側振動部が設けられ、前記装着体の後面部に、少なくとも1つの後面側振動部が設けられ、
前記ゲーム処理部は、
前記ユーザ移動体と他のオブジェクトとのヒット演算処理を行って、ヒット方向及びヒット位置の少なくとも一方を含むヒット情報を求め、
前記制御部は、
前記ユーザ移動体と前記他のオブジェクトとのヒットイベントが発生した場合に、前記ヒット情報に基づいて、前記前面側振動部及び前記後面側振動部の一方の振動部である第1の振動部を振動させた後、前記前面側振動部及び前記後面側振動部の他方の振動部である第2の振動部を振動させる振動制御を行うことを特徴とするプログラム。
A virtual space setting unit for performing virtual space setting processing;
A moving body processing unit that performs a moving process of a user moving body that moves in the virtual space;
A game processing unit that performs a game process of a game in which a user plays a wearing body on the body;
A display processing unit for generating a display image based on the result of the game processing;
As a control unit,
Make the computer work,
At least one front-side vibration part is provided on the front part of the mounting body, and at least one rear-side vibration part is provided on the rear surface part of the mounting body,
The game processing unit
Perform hit calculation processing of the user moving object and other objects to obtain hit information including at least one of hit direction and hit position,
The controller is
When a hit event occurs between the user moving body and the other object, based on the hit information, a first vibration unit that is one of the front-side vibration unit and the rear-side vibration unit is A program for performing vibration control to vibrate a second vibration part which is the other vibration part of the front-side vibration part and the rear-side vibration part after being vibrated.
ユーザが身体に装着体を装着してプレイするゲームのゲーム処理を行うゲーム処理部と、
前記ゲーム処理の結果に基づいて、前記ユーザに表示する画像を生成する表示処理部と、
制御部として、
コンピュータを機能させ、
前記装着体には複数の振動部が設けられ、
前記制御部は、
複数の前記振動部のうちの第1の振動部を振動させる第1のタイミングから、複数の前記振動部のうちの第2の振動部を振動させる第2のタイミングまでの振動間隔の長さを、前記ゲームにおいて発生する振動イベントの種類又は内容に応じて変化させることを特徴とするプログラム。
A game processing unit that performs a game process of a game in which a user plays a wearing body on the body;
A display processing unit that generates an image to be displayed to the user based on the result of the game process;
As a control unit,
Make the computer work,
The mounting body is provided with a plurality of vibration parts,
The controller is
The length of the vibration interval from the first timing for vibrating the first vibrating portion of the plurality of vibrating portions to the second timing for vibrating the second vibrating portion of the plurality of vibrating portions. A program that changes according to the type or content of a vibration event that occurs in the game.
JP2017071997A 2017-03-31 2017-03-31 Simulation system and program Pending JP2018171320A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017071997A JP2018171320A (en) 2017-03-31 2017-03-31 Simulation system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017071997A JP2018171320A (en) 2017-03-31 2017-03-31 Simulation system and program

Publications (1)

Publication Number Publication Date
JP2018171320A true JP2018171320A (en) 2018-11-08

Family

ID=64106768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017071997A Pending JP2018171320A (en) 2017-03-31 2017-03-31 Simulation system and program

Country Status (1)

Country Link
JP (1) JP2018171320A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583344A (en) * 2018-11-21 2019-04-05 红相股份有限公司 A kind of power equipment Infrared Image Processing Method based on deep learning
WO2023171421A1 (en) * 2022-03-10 2023-09-14 株式会社ソニー・インタラクティブエンタテインメント Notification control system, notification control method, and program
WO2023189406A1 (en) * 2022-03-31 2023-10-05 株式会社栗本鐵工所 Output control device, output control program, and output control method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07185129A (en) * 1993-12-27 1995-07-25 Sega Enterp Ltd Game machine
JP2009070263A (en) * 2007-09-14 2009-04-02 Japan Science & Technology Agency Sense of piercing tactile sensation presentation device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07185129A (en) * 1993-12-27 1995-07-25 Sega Enterp Ltd Game machine
JP2009070263A (en) * 2007-09-14 2009-04-02 Japan Science & Technology Agency Sense of piercing tactile sensation presentation device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"全身でゲームを体感できるVRスーツが登場。ソードアートオンラインに一歩近づいた? | Hardlight VR(ハード", KICKSTARTER FAN!, JPN6021002957, 24 February 2017 (2017-02-24), ISSN: 0004436319 *
渡邊淳司 ほか: "腹部通過仮現運動を利用した貫通感覚提示", 情報処理学会論文誌, vol. 第49巻第10号, JPN6021002959, October 2008 (2008-10-01), JP, pages 3542 - 3545, ISSN: 0004436320 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583344A (en) * 2018-11-21 2019-04-05 红相股份有限公司 A kind of power equipment Infrared Image Processing Method based on deep learning
WO2023171421A1 (en) * 2022-03-10 2023-09-14 株式会社ソニー・インタラクティブエンタテインメント Notification control system, notification control method, and program
WO2023189406A1 (en) * 2022-03-31 2023-10-05 株式会社栗本鐵工所 Output control device, output control program, and output control method

Similar Documents

Publication Publication Date Title
US11014000B2 (en) Simulation system, processing method, and information storage medium
US9779633B2 (en) Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
KR101926178B1 (en) Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
JP7071823B2 (en) Simulation system and program
CN110769906B (en) Simulation system, image processing method, and information storage medium
JP2019046120A (en) Method executed by computer to provide virtual experience, program and computer
JP6774260B2 (en) Simulation system
JP2018171320A (en) Simulation system and program
JP6425846B1 (en) PROGRAM, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING METHOD
JP6935218B2 (en) Simulation system and program
JP6580619B2 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP2019133309A (en) Program, information processor and information processing method
JP2018097517A (en) Information processing method, device, and program for causing computer to execute the information processing method
JP6419268B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6290490B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6918189B2 (en) Simulation system and program
JP2018171309A (en) Simulation system and program
JP2019168962A (en) Program, information processing device, and information processing method
US20220347559A1 (en) Game program, game method, and information terminal device
JP6298557B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP2019176934A (en) Simulation system
JP2019155115A (en) Program, information processor and information processing method
JP2018175849A (en) Information processing method, apparatus, and program for implementing that information processing method in computer
JP2019211865A (en) Computer program, information processing device, and information processing method
JP2019179434A (en) Program, information processing device, and information processing method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20200313

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200327

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200327

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200327

A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20200326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210803