JP2018171319A - Simulation system and program - Google Patents

Simulation system and program Download PDF

Info

Publication number
JP2018171319A
JP2018171319A JP2017071996A JP2017071996A JP2018171319A JP 2018171319 A JP2018171319 A JP 2018171319A JP 2017071996 A JP2017071996 A JP 2017071996A JP 2017071996 A JP2017071996 A JP 2017071996A JP 2018171319 A JP2018171319 A JP 2018171319A
Authority
JP
Japan
Prior art keywords
unit
user
launching
processing
hit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017071996A
Other languages
Japanese (ja)
Other versions
JP6935218B2 (en
Inventor
山本 修
Osamu Yamamoto
修 山本
雅信 伊藤
Masanobu Ito
雅信 伊藤
慎也 丹羽
Shinya Niwa
慎也 丹羽
規雄 江頭
Norio Egashira
規雄 江頭
兼子 英之
Hideyuki Kaneko
英之 兼子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2017071996A priority Critical patent/JP6935218B2/en
Priority to CN201810259103.8A priority patent/CN108686371A/en
Publication of JP2018171319A publication Critical patent/JP2018171319A/en
Application granted granted Critical
Publication of JP6935218B2 publication Critical patent/JP6935218B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1037Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted for converting control signals received from the game device into a haptic signal, e.g. using force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/302Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device specially adapted for receiving control signals not targeted to a display device or game input means, e.g. vibrating driver's seat, scent dispenser
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a simulation system, a program, etc., capable of enhancing virtual reality by effectively using a gas shooting part in a system using a head-mounted type display device.SOLUTION: A simulation system includes: an information acquisition part for acquiring user information including at least one of position information, direction information and posture information of a user mounting an HMD so as to cover a visual field; a virtual space setting part for executing virtual space setting processing; a game processing part for executing game processing in the virtual space; a control part for executing control of a shooting part 50 capable of shooting gas to the user; and a display processing part for generating a display image of the HMD mounted by the user. A plurality of shooting devices CN1-CN18 are disposed in the shooting part. The control part executes processing to control the shooting part 50 according to game situation in the virtual space and the user information.SELECTED DRAWING: Figure 4

Description

本発明は、シミュレーションシステム及びプログラム等に関する。   The present invention relates to a simulation system and a program.

従来より、HMD(頭部装着型表示装置)をユーザが頭部に装着し、HMDの画面に表示される画像をユーザが見ることで、いわゆるバーチャルリアリティー(VR)の世界を体感できるシミュレーションシステムが知られている。このようなシミュレーションシステムの従来技術としては、例えば特許文献1等に開示される技術がある。   2. Description of the Related Art Conventionally, there is a simulation system that allows a user to experience a so-called virtual reality (VR) world by wearing an HMD (head-mounted display device) on the head and viewing the image displayed on the screen of the HMD. Are known. As a prior art of such a simulation system, there is a technique disclosed in, for example, Patent Document 1.

特開平11−309269号公報JP-A-11-309269

HMDを用いたシミュレーションシステムでは、ユーザの視界がHMDにより覆われてしまい、視界が外界から遮断される。一方、HMDには仮想空間(VR空間)の画像が表示されるが、仮想空間の画像だけではユーザの仮想現実感を今ひとつ高めることができない。このため、ユーザの仮想現実感を高めることができるような体感装置を用いることが望ましい。   In the simulation system using the HMD, the user's field of view is covered with the HMD, and the field of view is blocked from the outside. On the other hand, an image of the virtual space (VR space) is displayed on the HMD, but the virtual reality of the user cannot be enhanced by the virtual space alone. For this reason, it is desirable to use a sensation apparatus that can enhance the virtual reality of the user.

しかしながら、このような体感装置を設ける場合には、衛生面、運営面、安全面等について考慮する必要がある。また体感装置の規模があまりにも大規模になってしまうと、現実的ではなく、コスト面等においても問題がある。   However, in the case of providing such a bodily sensation apparatus, it is necessary to consider hygiene, management, safety, and the like. Further, if the scale of the sensation device becomes too large, it is not realistic and there is a problem in terms of cost.

本発明の幾つかの態様によれば、頭部装着型表示装置を用いるシステムにおいて、気体の発射部を有効活用して仮想現実感の向上を図れるシミュレーションシステム及びプログラム等を提供できる。   According to some aspects of the present invention, in a system using a head-mounted display device, it is possible to provide a simulation system, a program, and the like that can effectively improve a virtual reality by effectively using a gas emission unit.

本発明の一態様は、視界を覆うように頭部装着型表示装置を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、仮想空間の設定処理を行う仮想空間設定部と、前記仮想空間でのゲームの処理を行うゲーム処理部と、前記ユーザに対して気体の発射が可能な発射部の制御を行う制御部と、前記ユーザが装着する前記頭部装着型表示装置の表示画像を生成する表示処理部と、を含み、前記発射部には、複数の発射装置が配置され、前記制御部は、前記仮想空間でのゲーム状況と前記ユーザ情報に応じて、前記発射部の制御処理を行うシミュレーションシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   One embodiment of the present invention includes an information acquisition unit that acquires user information including at least one of position information, direction information, and posture information of a user who wears a head-mounted display device so as to cover the field of view, A virtual space setting unit that performs setting processing, a game processing unit that performs game processing in the virtual space, a control unit that controls a launching unit that can emit gas to the user, and the user wearing A display processing unit that generates a display image of the head-mounted display device, wherein the launching unit includes a plurality of launching devices, and the control unit is configured to control the game situation in the virtual space and the The present invention relates to a simulation system that performs control processing of the launching unit according to user information. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報が取得される。また仮想空間の設定処理が行われ、当該仮想空間でのゲームの処理が行われて、ユーザが装着する頭部装着型表示装置の表示画像が生成されると共に、頭部装着型表示装置を装着するユーザに対して気体の発射が可能な発射部の制御が行われる。そして発射部には複数の発射装置が配置され、このように複数の発射装置が配置される発射部の制御処理が、仮想空間でのゲーム状況やユーザ情報に応じて行われる。このようにすれば、視界を覆うように頭部装着型表示装置を装着するユーザに対して、仮想空間のゲーム状況やユーザ情報に対応するように、発射部の複数の発射装置により気体を発射できるようになる。従って、例えば頭部装着型表示装置に表示される画像に連動するように、発射部からの気体が身体等に当たることによる触覚による体感をユーザに与えることができる。また例えばユーザの位置、方向又は姿勢に応じた適切な発射部の気体の発射制御の実現も可能になる。これにより、頭部装着型表示装置を用いるシステムにおいて、気体の発射部を有効活用して仮想現実感の向上を図れるシミュレーションシステム等の提供が可能になる。   According to an aspect of the present invention, user information including at least one of user position information, direction information, and posture information is acquired. In addition, a virtual space setting process is performed, a game process is performed in the virtual space, a display image of the head-mounted display device worn by the user is generated, and the head-mounted display device is mounted The launcher capable of gas emission is controlled for the user who performs the operation. A plurality of launching devices are arranged in the launching unit, and control processing of the launching unit in which the plurality of launching devices are arranged in this way is performed according to the game situation and user information in the virtual space. In this way, for a user who wears a head-mounted display device so as to cover the field of view, gas is emitted by the plurality of emission devices of the emission unit so as to correspond to the game situation and user information in the virtual space. become able to. Therefore, for example, the user can be given a tactile sensation due to the gas from the launching unit hitting the body or the like so as to be linked to the image displayed on the head-mounted display device. Further, for example, it is possible to realize gas emission control of an appropriate emission unit according to the position, direction, or posture of the user. Thereby, in a system using a head-mounted display device, it is possible to provide a simulation system or the like that can effectively improve the virtual reality by effectively using the gas emission unit.

また本発明の一態様では、前記発射部には、複数の前記発射装置がマトリクス状に配置され、前記制御部は、マトリクス状に配置された複数の前記発射装置の制御処理を行ってもよい。   In the aspect of the invention, the launching unit may include a plurality of the launching devices arranged in a matrix, and the control unit may perform control processing of the plurality of launching devices arranged in a matrix. .

このようにすれば、マトリクス状に配置された複数の発射装置を用いて、複数の発射装置により一斉に気体を発射したり、発射タイミングをずらして気体を発射するなどの多様な発射制御を実現できるようになる。   In this way, using a plurality of launchers arranged in a matrix, various launch controls such as launching gas at the same time with multiple launchers, or firing gas with different launch timings are realized. become able to.

また本発明の一態様では、前記制御部は、前記仮想空間において前記気体に対応する被ヒットオブジェクトがヒットするヒットイベントが発生した場合に、前記発射部での前記発射装置の選定処理、前記気体の発射タイミングの制御処理、及び前記気体の発射出力度合いの制御処理の少なくとも1つを行ってもよい。   In the aspect of the invention, the control unit may be configured to select the launching device in the launching unit when the hit event that hits the hit target object corresponding to the gas occurs in the virtual space, the gas May be performed at least one of the control processing of the emission timing of the gas and the control processing of the gas emission output degree.

このようにすれば、仮想空間において気体に対応する被ヒットオブジェクトがヒットするヒットイベントが発生すると、当該ヒットイベントを触覚によりユーザに効果的に体感させるために、発射装置の選定処理、発射タイミングの制御処理、発射出力度合いの制御処理が行われるようになり、ユーザの仮想現実感の向上を図れる。   In this way, when a hit event that hits the hit object corresponding to the gas occurs in the virtual space, in order to make the user effectively feel the hit event by touch, The control process and the control process of the firing output degree are performed, so that the virtual reality of the user can be improved.

また本発明の一態様では、前記制御部は、前記被ヒットオブジェクトのヒット方向又はヒットベクトルに応じて、前記発射部での前記発射装置の選定処理、前記気体の発射タイミングの制御処理、及び前記気体の発射出力度合いの制御処理の少なくとも1つを行ってもよい。   In one aspect of the present invention, the control unit is configured to select the launching device in the launching unit, the gas firing timing control process, and the gas injection timing according to the hit direction or hit vector of the hit object. You may perform at least 1 of the control processing of the gas emission output degree.

このようにすれば、被ヒットオブジェクトのヒット方向又はヒットベクトルに対応するように、発射装置の選定処理、発射タイミングの制御処理、発射出力度合いの制御処理が行われるようになり、被ヒットオブジェクトのヒット方向やヒットベクトルをユーザに触覚的に認識させることが可能になる。   In this way, the launch device selection process, the launch timing control process, and the launch output degree control process are performed so as to correspond to the hit direction or hit vector of the hit object. It becomes possible to make the user tactilely recognize the hit direction and the hit vector.

また本発明の一態様では、複数の前記発射装置は、鉛直方向に交差する第1の方向に沿った第1〜第Nの発射装置を含み、前記制御部は、前記ユーザに対応するユーザ移動体に対して前記被ヒットオブジェクトが斜め方向にヒットする前記ヒットイベントが発生した場合に、前記第1の発射装置から前記第Nの発射装置へと順次に前記気体が発射されるように前記発射部を制御してもよい。   In one aspect of the present invention, the plurality of launching devices include first to Nth launching devices along a first direction intersecting a vertical direction, and the control unit moves a user corresponding to the user. When the hit event in which the hit object hits the body in an oblique direction occurs, the emission is performed so that the gas is sequentially emitted from the first launching device to the Nth launching device. The unit may be controlled.

このようにすれば、第1の発射装置から第Nの発射装置へと順次に気体が発射してユーザに当てることで、あたかも被ヒットオブジェクトが斜め方向にヒットしたかのようにユーザに錯覚させることが可能になる。   In this way, the gas is fired sequentially from the first launching device to the Nth launching device and hits the user, so that the user has the illusion as if the hit object hits in an oblique direction. It becomes possible.

また本発明の一態様では、前記発射部は、前記発射部の方向を変更する発射部方向変更部を含み、前記制御部は、前記ゲーム状況に応じて、前記発射部方向変更部の制御を行ってもよい。   In one aspect of the present invention, the launch unit includes a launch unit direction changing unit that changes the direction of the launch unit, and the control unit controls the launch unit direction changing unit according to the game situation. You may go.

このようにすれば、ゲーム状況に応じて、発射部方向変更部の制御を行って、発射部の方向を変更することで、発射部の気体の発射方向をゲーム状況に応じて変更できるようになる。   In this way, by controlling the launcher direction changing unit according to the game situation and changing the direction of the launcher, the gas firing direction of the launcher can be changed according to the game situation. Become.

また本発明の一態様では、前記発射部は、複数の前記発射装置の方向を変更する発射装置方向変更部を含み、前記制御部は、前記ゲーム状況に応じて、前記発射装置方向変更部の制御を行ってもよい。   In one aspect of the present invention, the launching unit includes a launching device direction changing unit that changes the direction of the plurality of launching devices, and the control unit is configured to change the launching device direction changing unit according to the game situation. Control may be performed.

このようにすれば、ゲーム状況に応じて、発射装置方向変更部の制御を行って、発射装置の方向を変更することで、発射装置の気体の発射方向をゲーム状況に応じて変更できるようになる。   In this way, by controlling the launching device direction changing unit according to the game situation and changing the direction of the launching device, the gas firing direction of the launching device can be changed according to the game situation. Become.

また本発明の一態様では、前記仮想空間設定部は、前記仮想空間において前記気体に対応する被ヒットオブジェクトがヒットするヒットイベントにおける前記被ヒットオブジェクトの発生源オブジェクトを、実空間での前記発射部の位置に対応する仮想空間の位置に配置する処理を行ってもよい。   In one aspect of the present invention, the virtual space setting unit may include the source object of the hit object in a hit event in which the hit object corresponding to the gas hits the virtual space. The process of arranging in the position of the virtual space corresponding to the position of may be performed.

このようにすれば、仮想空間での被ヒットオブジェクトの発生源オブジェクトの位置と、実空間での発射部の位置とを対応させることが可能になり、発射部により発射された気体がユーザに当たることによる触覚による体感を、より適切なものにすることが可能になる。   In this way, it becomes possible to make the position of the source object of the hit object in the virtual space correspond to the position of the launching part in the real space, and the gas emitted by the launching part hits the user It becomes possible to make the sensation by tactile sensation more appropriate.

また本発明の一態様では、前記ゲーム処理部は、前記発射部での前記気体の発射に対して、音、振動又は画像を連動させるゲーム演出処理を行ってもよい。   In one aspect of the present invention, the game processing unit may perform a game effect process in which sound, vibration, or an image is linked to the gas emission at the emission unit.

このようにすれば、発射部により発射された気体が当たることによる触覚による体感に連動させて、音、振動又は画像によるゲーム演出処理を実行できるようになる。   If it does in this way, it will come to be able to perform the game production process by a sound, a vibration, or an image in connection with the bodily sensation by the tactile sensation by hitting the gas emitted by the emission part.

また本発明の一態様では、前記発射部は、発射する前記気体を加工する加工部を含んでもよい。   In one embodiment of the present invention, the launching unit may include a processing unit that processes the gas to be fired.

このようにすれば、加工部により加工された気体をユーザに対して発射できるようになり、同じ発射部を用いながらも、気体の発射による様々な体感をユーザに与えることが可能になる。   If it does in this way, it will become possible to emit the gas processed by the processing part to a user, and it will become possible to give a user various sensations by gas emission, while using the same emission part.

また本発明の一態様では、前記加工部は、複数の前記発射装置の第1の発射装置と第2の発射装置とで、発射する前記気体に対して異なる加工を行ってもよい。   In the aspect of the invention, the processing unit may perform different processing on the gas to be emitted by the first launching device and the second launching device of the plurality of launching devices.

このようにすれば、第1の発射装置を用いる場合と、第2の発射装置を用いる場合とで、ユーザに対して、異なる加工が行われた気体を発射できるようになり、気体の発射による多様な体感をユーザに与えることが可能になる。   If it does in this way, the case where the 1st projecting device is used and the case where the 2nd projecting device is used can be emitted to the user with the gas from which the different processing was performed, and by the gas ejection A variety of experiences can be given to the user.

本実施形態のシミュレーションシステムの構成例を示すブロック図。The block diagram which shows the structural example of the simulation system of this embodiment. 図2(A)、図2(B)は本実施形態に用いられるHMDの一例。FIG. 2A and FIG. 2B are examples of the HMD used in this embodiment. 図3(A)、図3(B)は本実施形態に用いられるHMDの他の例。3A and 3B are other examples of the HMD used in the present embodiment. シミュレーションシステムの筺体の構成例。The structural example of the housing of a simulation system. 図5(A)、図5(B)は発射部、発射装置の構成例。FIGS. 5A and 5B are configuration examples of the launching unit and launching device. 仮想空間のフィールドの例。Example of virtual space fields. 本実施形態により生成されるゲーム画像の例。The example of the game image produced | generated by this embodiment. 本実施形態により生成されるゲーム画像の例。The example of the game image produced | generated by this embodiment. 本実施形態により生成されるゲーム画像の例。The example of the game image produced | generated by this embodiment. 本実施形態により生成されるゲーム画像の例。The example of the game image produced | generated by this embodiment. 図11(A)、図11(B)は発射部の制御手法の説明図。FIG. 11A and FIG. 11B are explanatory diagrams of the control method of the launcher. 図12(A)、図12(B)は発射部の制御手法の説明図。FIG. 12A and FIG. 12B are explanatory diagrams of the control method of the launcher. 図13(A)、図13(B)はヒット方向又はヒットベクトルに応じた発射部の制御手法の説明図。FIG. 13A and FIG. 13B are explanatory diagrams of the control method of the launcher according to the hit direction or hit vector. 複数の発射装置の各発射装置から順次に気体を発射する手法の説明図。Explanatory drawing of the method which discharges gas sequentially from each launching device of a some launching device. 図15(A)、図15(B)はヒット方向又はヒットベクトルに応じた発射部の制御手法の説明図。FIG. 15A and FIG. 15B are explanatory diagrams of the control method of the launcher according to the hit direction or hit vector. 図16(A)〜図16(C)は発射部方向変更部の動作例の説明図。FIG. 16A to FIG. 16C are explanatory diagrams of an operation example of the launching unit direction changing unit. 図17(A)〜図17(C)は発射部方向変更部の動作例の説明図。FIG. 17A to FIG. 17C are explanatory diagrams of an operation example of the launching unit direction changing unit. 図18(A)、図18(B)は発射装置方向変更部の動作例の説明図。18A and 18B are explanatory diagrams of an operation example of the launching device direction changing unit. 図19(A)、図19(B)は気弾を発射する敵キャラクタを発射部の位置に対応する位置に配置する手法の説明図。FIG. 19A and FIG. 19B are explanatory diagrams of a method of arranging an enemy character that fires a bullet at a position corresponding to the position of the firing unit. 図20(A)〜図20(C)は気弾を発射する敵キャラクタを発射部の位置に対応する位置に配置する手法の説明図。20 (A) to 20 (C) are explanatory diagrams of a method of arranging an enemy character that fires a bullet at a position corresponding to the position of the firing unit. HMDを装着する複数のユーザがプレイするフィールドの例。An example of a field where a plurality of users wearing HMDs play. フィールドを移動するユーザに対して気体を発射する発射部の制御手法の説明図。Explanatory drawing of the control method of the discharge part which discharges gas with respect to the user who moves a field. 発射部での気体の発射に対して、音、振動等を連動させるゲーム演出手法の説明図。Explanatory drawing of the game production method which makes sound, vibration, etc. interlock | cooperate with respect to the discharge of the gas in a discharge part. 発射部が発射する気体を加工する加工部の動作例の説明図。Explanatory drawing of the operation example of the process part which processes the gas which a discharge part emits. 発射部が発射する気体を加工する加工部の動作例の説明図。Explanatory drawing of the operation example of the process part which processes the gas which a discharge part emits. 本実施形態の詳細な処理例を説明するフローチャート。The flowchart explaining the detailed process example of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.シミュレーションシステム
図1は、本実施形態のシミュレーションシステム(シミュレータ、ゲームシステム)の構成例を示すブロック図である。本実施形態のシミュレーションシステムは例えばバーチャルリアリティ(VR)をシミュレートするシステムであり、ゲームコンテンツを提供するゲームシステム、スポーツ競技シミュレータや運転シミュレータなどのリアルタイムシミュレーションシステム、SNSのサービスを提供するシステム、映像等のコンテンツを提供するコンテンツ提供システム、或いは遠隔作業を実現するオペレーティングシステムなどの種々のシステムに適用可能である。なお、本実施形態のシミュレーションシステムは図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Simulation System FIG. 1 is a block diagram showing a configuration example of a simulation system (simulator, game system) of the present embodiment. The simulation system of the present embodiment is a system that simulates virtual reality (VR), for example, a game system that provides game content, a real-time simulation system such as a sports competition simulator or a driving simulator, a system that provides an SNS service, an image The present invention can be applied to various systems such as a content providing system that provides content such as an operating system that implements remote work. Note that the simulation system of the present embodiment is not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of the components (each unit) or adding other components are possible.

発射部50は、ユーザに対して気体の発射が可能な装置である。発射部50は、複数の発射装置CN1〜CNMを有する。発射部50は、発射部50の方向を変更する発射部方向変更部52や、発射装置CN1〜CNMの方向を変更する発射装置方向変更部54を含む。また発射される気体を加工する加工部56を含む。   The launch unit 50 is a device that can emit gas to the user. The launch unit 50 includes a plurality of launch devices CN1 to CNM. The launcher 50 includes a launcher direction changing unit 52 that changes the direction of the launcher 50 and a launcher direction changing unit 54 that changes the direction of the launchers CN1 to CNM. Moreover, the process part 56 which processes the gas injected is included.

操作部160は、ユーザ(プレーヤ)が種々の操作情報(入力情報)を入力するためのものである。操作部160は、例えば操作ボタン、方向指示キー、ジョイスティック、ハンドル、ペダル又はレバー等の種々の操作デバイスにより実現できる。   The operation unit 160 is for a user (player) to input various operation information (input information). The operation unit 160 can be realized by various operation devices such as an operation button, a direction instruction key, a joystick, a handle, a pedal, or a lever.

記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。ゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SSD、光ディスク装置などにより実現できる。記憶部170は、オブジェクト情報記憶部172、描画バッファ178を含む。   The storage unit 170 stores various types of information. The storage unit 170 functions as a work area such as the processing unit 100 or the communication unit 196. The game program and game data necessary for executing the game program are held in the storage unit 170. The function of the storage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), HDD (Hard Disk Drive), SSD, optical disk device, or the like. The storage unit 170 includes an object information storage unit 172 and a drawing buffer 178.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by an optical disk (DVD, BD, CD), HDD, semiconductor memory (ROM), or the like. . The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an input device, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

HMD200(頭部装着型表示装置)は、ユーザの頭部に装着されて、ユーザの眼前に画像を表示する装置である。HMD200は非透過型であることが望ましいが、透過型であってもよい。またHMD200は、いわゆるメガネタイプのHMDであってもよい。   The HMD 200 (head-mounted display device) is a device that is mounted on the user's head and displays an image in front of the user's eyes. The HMD 200 is preferably a non-transmissive type, but may be a transmissive type. The HMD 200 may be a so-called glasses-type HMD.

HMD200は、センサ部210、表示部220、処理部240を含む。なおHMD200に発光素子を設ける変形実施も可能である。センサ部210は、例えばヘッドトラッキングなどのトラッキング処理を実現するためものである。例えばセンサ部210を用いたトラッキング処理により、HMD200の位置、方向を特定する。HMD200の位置、方向が特定されることで、ユーザの視点位置、視線方向(ユーザの位置、方向)を特定できる。   The HMD 200 includes a sensor unit 210, a display unit 220, and a processing unit 240. A modification in which a light emitting element is provided in the HMD 200 is also possible. The sensor unit 210 is for realizing tracking processing such as head tracking, for example. For example, the position and direction of the HMD 200 are specified by tracking processing using the sensor unit 210. By specifying the position and direction of the HMD 200, the user's viewpoint position and line-of-sight direction (user position and direction) can be specified.

トラッキング方式としては種々の方式を採用できる。トラッキング方式の一例である第1のトラッキング方式では、後述の図2(A)、図2(B)で詳細に説明するように、センサ部210として複数の受光素子(フォトダイオード等)を設ける。そして外部に設けられた発光素子(LED等)からの光(レーザー等)をこれらの複数の受光素子により受光することで、現実世界の3次元空間でのHMD200(ユーザの頭部)の位置、方向を特定する。第2のトラッキング方式では、後述の図3(A)、図3(B)で詳細に説明するように、複数の発光素子(LED)をHMD200に設ける。そして、これらの複数の発光素子からの光を、外部に設けられた撮像部で撮像することで、HMD200の位置、方向を特定する。第3のトラッキング方式では、センサ部210としてモーションセンサを設け、このモーションセンサを用いてHMD200の位置、方向を特定する。モーションセンサは例えば加速度センサやジャイロセンサなどにより実現できる。例えば3軸の加速度センサと3軸のジャイロセンサを用いた6軸のモーションセンサを用いることで、現実世界の3次元空間でのHMD200の位置、方向を特定できる。なお、第1のトラッキング方式と第2のトラッキング方式の組合わせ、或いは第1のトラッキング方式と第3のトラッキング方式の組合わせなどにより、HMD200の位置、方向を特定してもよい。またHMD200の位置、方向を特定することでユーザの視点位置、視線方向を特定するのではなく、ユーザの視点位置、視線方向(位置、方向)を直接に特定するトラッキング処理を採用してもよい。   Various methods can be adopted as the tracking method. In the first tracking method, which is an example of the tracking method, a plurality of light receiving elements (photodiodes and the like) are provided as the sensor unit 210, as will be described in detail with reference to FIGS. 2A and 2B described later. Then, by receiving light (laser or the like) from a light emitting element (LED or the like) provided outside by the plurality of light receiving elements, the position of the HMD 200 (user's head) in the real world three-dimensional space, Identify the direction. In the second tracking method, a plurality of light emitting elements (LEDs) are provided in the HMD 200 as will be described in detail with reference to FIGS. 3A and 3B described later. And the position and direction of HMD200 are pinpointed by imaging the light from these light emitting elements with the imaging part provided outside. In the third tracking method, a motion sensor is provided as the sensor unit 210, and the position and direction of the HMD 200 are specified using this motion sensor. The motion sensor can be realized by, for example, an acceleration sensor or a gyro sensor. For example, by using a 6-axis motion sensor using a 3-axis acceleration sensor and a 3-axis gyro sensor, the position and direction of the HMD 200 in a three-dimensional space in the real world can be specified. Note that the position and direction of the HMD 200 may be specified by a combination of the first tracking method and the second tracking method, or a combination of the first tracking method and the third tracking method. Further, instead of specifying the user's viewpoint position and line-of-sight direction by specifying the position and direction of the HMD 200, a tracking process that directly specifies the user's viewpoint position and line-of-sight direction (position, direction) may be employed. .

HMD200の表示部220は例えば有機ELディスプレイ(OEL)や液晶ディスプレイ(LCD)などにより実現できる。例えばHMD200の表示部220には、ユーザの左目の前に設定される第1のディスプレイ又は第1の表示領域と、右目の前に設定される第2のディスプレイ又は第2の表示領域が設けられており、立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左目用画像と右目用画像を生成し、第1のディスプレイに左目用画像を表示し、第2のディスプレイに右目用画像を表示する。或いは1つのディスプレイの第1の表示領域に左目用画像を表示し、第2の表示領域に右目用画像を表示する。またHMD200には左目用、右目用の2つの接眼レンズ(魚眼レンズ)が設けられており、これによりユーザの視界の全周囲に亘って広がるVR空間が表現される。そして接眼レンズ等の光学系で生じる歪みを補正するための補正処理が、左目用画像、右目用画像に対して行われる。この補正処理は表示処理部120が行う。   The display unit 220 of the HMD 200 can be realized by, for example, an organic EL display (OEL) or a liquid crystal display (LCD). For example, the display unit 220 of the HMD 200 is provided with a first display or first display area set in front of the user's left eye and a second display or second display area set in front of the right eye. 3D display is possible. When performing stereoscopic display, for example, a left-eye image and a right-eye image with different parallax are generated, the left-eye image is displayed on the first display, and the right-eye image is displayed on the second display. Alternatively, the left-eye image is displayed in the first display area of one display, and the right-eye image is displayed in the second display area. Also, the HMD 200 is provided with two eyepiece lenses (fisheye lenses) for the left eye and the right eye, thereby expressing a VR space that extends all around the user's field of view. Then, correction processing for correcting distortion generated in an optical system such as an eyepiece is performed on the left-eye image and the right-eye image. This correction process is performed by the display processing unit 120.

HMD200の処理部240は、HMD200において必要な各種の処理を行う。例えば処理部240は、センサ部210の制御処理や表示部220の表示制御処理などを行う。また処理部240が、3次元音響(立体音響)処理を行って、3次元的な音の方向や距離や広がりの再現を実現してもよい。   The processing unit 240 of the HMD 200 performs various processes necessary for the HMD 200. For example, the processing unit 240 performs control processing of the sensor unit 210, display control processing of the display unit 220, and the like. Further, the processing unit 240 may perform a three-dimensional sound (stereoscopic sound) process to realize reproduction of a three-dimensional sound direction, distance, and spread.

音出力部192は、本実施形態により生成された音を出力するものであり、例えばスピーカ又はヘッドホン等により実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and can be realized by, for example, a speaker or headphones.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。   The I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and the function can be realized by an ASIC for I / F processing or the like. The portable information storage medium 195 is for a user to save various types of information, and is a storage device that retains storage of such information even when power is not supplied. The portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.

通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (another apparatus) via a wired or wireless network, and functions thereof are hardware such as a communication ASIC or communication processor, or communication firmware. Can be realized.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。   A program (data) for causing a computer to function as each unit of this embodiment is distributed from the information storage medium of the server (host device) to the information storage medium 180 (or storage unit 170) via the network and communication unit 196. May be. Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作情報や、HMD200でのトラッキング情報(HMDの位置及び方向の少なくとも一方の情報。視点位置及び視線方向の少なくとも一方の情報)や、プログラムなどに基づいて、ゲーム処理(シミュレーション処理)、仮想空間設定処理、移動体処理、仮想カメラ制御処理、表示処理、或いは音処理などを行う。   The processing unit 100 (processor) is used for operation information from the operation unit 160, tracking information in the HMD 200 (information on at least one of the position and direction of the HMD, information on at least one of the viewpoint position and the line-of-sight direction), a program, and the like. Based on this, game processing (simulation processing), virtual space setting processing, moving body processing, virtual camera control processing, display processing, sound processing, or the like is performed.

処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。   Each processing (each function) of this embodiment performed by each unit of the processing unit 100 can be realized by a processor (a processor including hardware). For example, each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program. In the processor, for example, the function of each unit may be realized by individual hardware, or the function of each unit may be realized by integrated hardware. For example, the processor may include hardware, and the hardware may include at least one of a circuit that processes a digital signal and a circuit that processes an analog signal. For example, the processor can be configured by one or a plurality of circuit devices (for example, ICs) mounted on a circuit board or one or a plurality of circuit elements (for example, resistors, capacitors, etc.). The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Signal Processor) can be used. The processor may be an ASIC hardware circuit. The processor may include an amplifier circuit, a filter circuit, and the like that process an analog signal. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD) or an optical storage device such as an optical disk device. For example, the memory stores instructions that can be read by a computer, and the processing (function) of each unit of the processing unit 100 is realized by executing the instructions by the processor. The instruction here may be an instruction set constituting a program, or an instruction for instructing an operation to the hardware circuit of the processor.

処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。演算処理部110は、情報取得部111、仮想空間設定部112、移動体処理部113、仮想カメラ制御部114、ゲーム処理部115、制御部118、表示処理部120、音処理部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 100 includes an input processing unit 102, an arithmetic processing unit 110, and an output processing unit 140. The arithmetic processing unit 110 includes an information acquisition unit 111, a virtual space setting unit 112, a moving body processing unit 113, a virtual camera control unit 114, a game processing unit 115, a control unit 118, a display processing unit 120, and a sound processing unit 130. As described above, each process of the present embodiment executed by these units can be realized by a processor (or a processor and a memory). Various modifications such as omitting some of these components (each unit) or adding other components are possible.

入力処理部102は、操作情報やトラッキング情報を受け付ける処理や、記憶部170から情報を読み出す処理や、通信部196を介して情報を受信する処理を、入力処理として行う。例えば入力処理部102は、操作部160を用いてユーザが入力した操作情報やHMD200のセンサ部210等により検出されたトラッキング情報を取得する処理や、読み出し命令で指定された情報を、記憶部170から読み出す処理や、外部装置(サーバ等)からネットワークを介して情報を受信する処理を、入力処理として行う。ここで受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。   The input processing unit 102 performs processing for receiving operation information and tracking information, processing for reading information from the storage unit 170, and processing for receiving information via the communication unit 196 as input processing. For example, the input processing unit 102 stores, in the storage unit 170, processing for acquiring operation information input by the user using the operation unit 160, tracking information detected by the sensor unit 210 of the HMD 200, and the information specified by the read command. A process for reading data from a computer or a process for receiving information from an external device (such as a server) via a network is performed as an input process. Here, the reception process includes a process of instructing the communication unit 196 to receive information, a process of acquiring information received by the communication unit 196, and writing the information in the storage unit 170, and the like.

演算処理部110は、各種の演算処理を行う。例えば情報取得処理、仮想空間設定処理、移動体処理、仮想カメラ制御処理、ゲーム処理(シミュレーション処理)、制御処理、表示処理、或いは音処理などの演算処理を行う。   The arithmetic processing unit 110 performs various arithmetic processes. For example, arithmetic processing such as information acquisition processing, virtual space setting processing, moving body processing, virtual camera control processing, game processing (simulation processing), control processing, display processing, or sound processing is performed.

情報取得部111(情報取得処理のプログラムモジュール)は種々の情報の取得処理を行う。例えば情報取得部111は、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報(ユーザトラッキング情報)を取得する。   The information acquisition unit 111 (program module for information acquisition processing) performs various information acquisition processing. For example, the information acquisition unit 111 acquires user information (user tracking information) including at least one of user position information, direction information, and posture information.

仮想空間設定部112(仮想空間設定処理のプログラムモジュール)は、複数のオブジェクトが配置される仮想空間(オブジェクト空間)の設定処理を行う。例えば、移動体(人、ロボット、車、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)を仮想空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクト情報記憶部172には、仮想空間でのオブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報がオブジェクト番号に対応づけて記憶される。仮想空間設定部112は、例えば各フレーム毎にこのオブジェクト情報を更新する処理などを行う。   The virtual space setting unit 112 (program module for virtual space setting processing) performs setting processing for a virtual space (object space) in which a plurality of objects are arranged. For example, various objects representing display objects such as moving objects (people, robots, cars, trains, airplanes, ships, monsters, animals, etc.), maps (terrain), buildings, auditoriums, courses (roads), trees, walls, water surfaces, etc. A process of placing and setting an object (an object composed of a primitive surface such as a polygon, a free-form surface, or a subdivision surface) in a virtual space is performed. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, in the object information storage unit 172 of the storage unit 170, object information that is information such as the position, rotation angle, moving speed, and moving direction of an object (part object) in the virtual space is associated with the object number. Is remembered. The virtual space setting unit 112 performs a process of updating the object information for each frame, for example.

移動体処理部113(移動体処理のプログラムモジュール)は、仮想空間内で移動する移動体についての種々の処理を行う。例えば仮想空間(オブジェクト空間、ゲーム空間)において移動体を移動させる処理や、移動体を動作させる処理を行う。例えば移動体処理部113は、操作部160によりユーザが入力した操作情報や、取得されたトラッキング情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(モデルオブジェクト)を仮想空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。移動体は、例えば実空間のユーザ(プレーヤ)に対応する仮想空間の仮想ユーザ(仮想プレーヤ、アバター)や、或いは当該仮想ユーザが搭乗(操作)する搭乗移動体(操作移動体)などである。   The moving body processing unit 113 (moving body processing program module) performs various processes on a moving body that moves in the virtual space. For example, processing for moving the moving body in virtual space (object space, game space) and processing for moving the moving body are performed. For example, the mobile object processing unit 113 is based on operation information input by the user through the operation unit 160, acquired tracking information, a program (movement / motion algorithm), various data (motion data), and the like. Control processing for moving the model object) in the virtual space or moving the moving object (motion, animation) is performed. Specifically, a simulation for sequentially obtaining movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) of a moving body for each frame (for example, 1/60 second). Process. A frame is a unit of time for performing a moving / movement process (simulation process) and an image generation process of a moving object. The moving body is, for example, a virtual user (virtual player, avatar) in a virtual space corresponding to a user (player) in real space, or a boarding moving body (operation moving body) on which the virtual user is boarded (operated).

ゲーム処理部115(ゲーム処理のプログラムモジュール)はユーザがゲームをプレイするための種々のゲーム処理を行う。別の言い方をすれば、ゲーム処理部115(シミュレーション処理部)は、ユーザが仮想現実(バーチャルリアリティ)を体験するための種々のシミュレーション処理を実行する。ゲーム処理は、例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、開始したゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、或いはゲーム成績を演算する処理などである。ゲーム処理部115はヒット演算処理部116を含む。ヒット演算処理部116は、ヒット判定処理などのヒット演算処理を実行する。   The game processing unit 115 (game processing program module) performs various game processes for the user to play a game. In other words, the game processing unit 115 (simulation processing unit) executes various simulation processes for the user to experience virtual reality (virtual reality). The game process is, for example, a process for starting a game when a game start condition is satisfied, a process for advancing the started game, a process for ending a game when a game end condition is satisfied, or calculating a game result. Processing. The game processing unit 115 includes a hit calculation processing unit 116. The hit calculation processing unit 116 executes hit calculation processing such as hit determination processing.

制御部118(制御処理のプログラムモジュール)は発射部50の制御を行う。制御部118の詳細については後述する。   The control unit 118 (control processing program module) controls the launch unit 50. Details of the control unit 118 will be described later.

表示処理部120(表示処理のプログラムモジュール)は、ゲーム画像(シミュレーション画像)の表示処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、HMD200の表示部220に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間(仮想空間)において仮想カメラ(所与の視点。左目用、右目用の第1、第2の視点)から見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。   The display processing unit 120 (display processing program module) performs display processing of a game image (simulation image). For example, a drawing process is performed based on the results of various processes (game process, simulation process) performed by the processing unit 100, thereby generating an image and displaying it on the display unit 220 of the HMD 200. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 178 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. As a result, an image that can be seen from the virtual camera (given viewpoint, left eye and right eye first and second viewpoints) is generated in the object space (virtual space). Note that the drawing processing performed by the display processing unit 120 can be realized by vertex shader processing, pixel shader processing, or the like.

音処理部130(音処理のプログラムモジュール)は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。なお音処理部130の音処理の一部(例えば3次元音響処理)を、HMD200の処理部240により実現してもよい。   The sound processing unit 130 (sound processing program module) performs sound processing based on the results of various processes performed by the processing unit 100. Specifically, game sounds such as music (music, BGM), sound effects, or sounds are generated, and the game sounds are output to the sound output unit 192. Note that part of the sound processing of the sound processing unit 130 (for example, three-dimensional sound processing) may be realized by the processing unit 240 of the HMD 200.

出力処理部140は各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理や、通信部196を介して情報を送信する処理を、出力処理として行う。例えば出力処理部140は、書き込み命令で指定された情報を、記憶部170に書き込む処理や、外部の装置(サーバ等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。   The output processing unit 140 performs various types of information output processing. For example, the output processing unit 140 performs processing for writing information in the storage unit 170 and processing for transmitting information via the communication unit 196 as output processing. For example, the output processing unit 140 performs a process of writing information specified by a write command in the storage unit 170 or a process of transmitting information to an external apparatus (server or the like) via a network. The transmission process is a process of instructing the communication unit 196 to transmit information, or instructing the communication unit 196 to transmit information.

そして本実施形態のシミュレーションシステムは、情報取得部111と、仮想空間設定部112と、ゲーム処理部115と、制御部118と、表示処理部120を含む。   The simulation system of this embodiment includes an information acquisition unit 111, a virtual space setting unit 112, a game processing unit 115, a control unit 118, and a display processing unit 120.

情報取得部111は、HMD200(頭部装着型表示装置)を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する。例えば情報取得部111は、HMD200のトラッキング情報などに基づいて、実空間でのユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報(ユーザトラッキング情報)を取得する。位置情報は、実空間でのユーザの視点の位置情報であってもよく、方向情報は、実空間でのユーザの視線の方向情報であってもよい。位置情報、方向情報は、ユーザが実空間(現実世界)のフィールド(プレイフィールド、シミュレーションフィールド、プレイエリア)に位置する場合に、そのフィールドでの位置情報、方向情報(所与の位置を原点とする座標系での位置座標、各座標軸回りでの回転角度)であってもよい。姿勢情報は、ユーザの各姿勢(立ち姿勢、しゃがみ姿勢又は座り姿勢等)を特定したり、或いはユーザの各部位(胴体、頭、手又は足等)の位置、方向を特定するための情報である。例えば情報取得部111は、HMD200の位置情報、方向情報を、当該HMD200を装着するユーザの位置情報、方向情報として取得してもよい。   The information acquisition unit 111 acquires user information including at least one of position information, direction information, and posture information of a user wearing the HMD 200 (head-mounted display device). For example, the information acquisition unit 111 acquires user information (user tracking information) including at least one of user position information, direction information, and posture information in real space based on tracking information of the HMD 200 and the like. The position information may be position information of the user's viewpoint in real space, and the direction information may be direction information of the user's line of sight in real space. When the user is located in a field (play field, simulation field, play area) in the real space (real world), the position information and direction information (the given position is used as the origin). Position coordinates in a coordinate system to be rotated, and rotation angles around each coordinate axis). Posture information is information for specifying each posture of the user (standing posture, crouching posture, sitting posture, etc.) or specifying the position and direction of each part of the user (body, head, hand, foot, etc.). is there. For example, the information acquisition unit 111 may acquire the position information and direction information of the HMD 200 as the position information and direction information of the user wearing the HMD 200.

仮想空間設定部112は仮想空間の設定処理を行う。例えば、移動体、障害物、背景又はマップ等のオブジェクトを仮想空間に配置設定する処理を行う。例えば実空間でのユーザの位置情報、方向情報が取得された場合に、取得された位置情報、方向情報に基づいて、ユーザに対応するユーザ移動体(ユーザキャラクタ等)の位置、方向を設定して、仮想空間に配置する処理を行う。オブジェクトであるユーザ移動体の位置、方向等の情報は、例えばオブジェクト情報記憶部172に記憶される。ユーザ移動体は、例えば実空間でユーザの移動に追従して仮想空間(オブジェクト空間)において移動するオブジェクト(表示物)である。ユーザ移動体としては、ユーザに対応するアバター移動体(ユーザキャラクタ、仮想ユーザ)や、アバター移動体が搭乗する搭乗移動体や、アバター移動体が装着する外殻移動体などがある。外殻移動体は、アバター移動体(ゴースト)に重なるように配置されて仮想空間を移動する。外殻移動体は、アバター移動体を内包する移動体であり、ユーザの義体として表現されるものある。   The virtual space setting unit 112 performs a virtual space setting process. For example, a process of setting an object such as a moving object, an obstacle, a background, or a map in the virtual space is performed. For example, when the position information and direction information of the user in real space are acquired, the position and direction of the user moving body (user character etc.) corresponding to the user are set based on the acquired position information and direction information. Then, processing for placement in the virtual space is performed. Information such as the position and direction of the user moving object that is an object is stored in the object information storage unit 172, for example. The user moving body is an object (display object) that moves in a virtual space (object space) following the movement of the user in real space, for example. Examples of the user moving body include an avatar moving body (user character, virtual user) corresponding to the user, a boarding moving body on which the avatar moving body is mounted, and an outer shell moving body worn by the avatar moving body. The outer shell moving body is arranged to overlap the avatar moving body (ghost) and moves in the virtual space. The outer shell moving body is a moving body including the avatar moving body, and is expressed as a user's body.

ゲーム処理部115は、仮想空間でのゲームの処理を行う。例えばゲームを開始する処理、ゲームを進行させる処理、ゲームを終了する処理、或いはゲーム成績を演算する処理などのゲーム処理を行う。   The game processing unit 115 performs game processing in a virtual space. For example, a game process such as a process for starting a game, a process for advancing the game, a process for ending the game, or a process for calculating game results is performed.

制御部118は、ユーザに対して気体の発射が可能な発射部50の制御を行う。例えば制御部118は、発射部50自体の制御を行ったり、発射部50の複数の発射装置CN1〜CNMの制御を行う。   The control unit 118 controls the launch unit 50 that can emit gas to the user. For example, the control unit 118 controls the launch unit 50 itself, or controls a plurality of launch devices CN1 to CNM of the launch unit 50.

表示処理部120は、ゲーム処理の結果に基づいて表示画像を生成する。例えばユーザが視界を覆うように装着するHMD200の表示画像を生成する。例えば仮想空間において仮想カメラから見える画像を、表示画像として生成する。例えば仮想カメラ制御部114は、ユーザの視点に対応する仮想カメラの制御処理を行う。例えば仮想カメラ制御部114は、ユーザの一人称視点として設定される仮想カメラの制御を行う。例えば仮想空間において移動する移動体(仮想プレーヤ等)の視点に対応する位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置(位置座標)や姿勢(回転軸回りでの回転角度)を制御する。そして表示処理部120は、HMD200等の表示画像(表示映像)として、仮想空間において仮想カメラ(ユーザ視点)から見える画像を生成する。例えば仮想空間であるオブジェクト空間において所与の視点から見える画像を生成する。生成される画像は例えば立体視用の画像である。   The display processing unit 120 generates a display image based on the result of the game process. For example, a display image of the HMD 200 that the user wears so as to cover the field of view is generated. For example, an image viewed from a virtual camera in the virtual space is generated as a display image. For example, the virtual camera control unit 114 performs a virtual camera control process corresponding to the user's viewpoint. For example, the virtual camera control unit 114 controls the virtual camera set as the first-person viewpoint of the user. For example, by setting a virtual camera at a position corresponding to the viewpoint of a moving body (such as a virtual player) that moves in the virtual space, and setting the viewpoint position and line-of-sight direction of the virtual camera, the position (positional coordinates) of the virtual camera And control the attitude (rotation angle around the rotation axis). And the display process part 120 produces | generates the image seen from a virtual camera (user viewpoint) in virtual space as display images (display video), such as HMD200. For example, an image that is visible from a given viewpoint is generated in an object space that is a virtual space. The generated image is, for example, a stereoscopic image.

発射部50には、複数の発射装置CN1〜CNMが配置される。そして制御部118は、仮想空間でのゲーム状況に応じて、発射部50の制御処理を行う。具体的には制御部118は、仮想空間でのゲーム状況とユーザ情報に応じて、発射部50の制御処理を行う。即ち、ゲーム状況や、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報に応じて、発射部50での発射装置CN1〜CNMの選定や、気体の発射タイミングや、気体の発射出力度合いや、気体の発射方向や、或いは気体の加工などの制御を行う。   In the launch unit 50, a plurality of launch devices CN1 to CNM are arranged. And the control part 118 performs the control process of the discharge part 50 according to the game condition in virtual space. Specifically, the control unit 118 performs control processing of the launching unit 50 according to the game situation in the virtual space and the user information. That is, according to the user information including at least one of the game situation, the user position information, the direction information, and the posture information, the selection of the launching devices CN1 to CNM in the launching unit 50, the gas firing timing, Control of the firing output degree, the gas firing direction, or the gas processing is performed.

ここでゲーム状況は、例えばユーザのゲームプレイの状況、ゲームの進行状況、ゲームでのイベントの状況、ゲームの戦闘状況、ゲームの対戦状況、ゲームに出現する敵の攻撃状況、ゲームでのヒット判定の状況、ゲームに登場する移動体(キャラクタ又は被ヒットオブジェクト等)の状況、キャラクタやユーザのステータスパラメータ(体力値、レベル、攻撃力又は守備力等)の状況、或いはゲームの成績の状況などであり、例えばゲームのパラメータ等で表される種々の状況である。ゲーム状況は例えばゲーム処理部115でのゲーム処理により特定される。例えばゲーム処理で使用される各種のゲームパラメータ等の情報に基づいてユーザのゲーム状況が特定される。また発射部50の制御処理は、例えば発射部50での発射装置CN1〜CNMの選定の制御処理、気体の発射タイミングの制御処理、気体の発射出力度合いの制御処理、発射部50の方向変更の制御処理、発射装置CN1〜CNMの方向変更の制御処理、或いは発射部50が発射する気体の加工の制御処理などである。   Here, the game situation includes, for example, the user's game play situation, game progress situation, game event situation, game battle situation, game battle situation, enemy attack situation appearing in the game, game hit determination Status of a moving object (such as a character or hit object) appearing in a game, status of a character or user status parameter (such as health value, level, attack power or defensive power), or status of game results There are various situations represented by, for example, game parameters. The game situation is specified by, for example, game processing in the game processing unit 115. For example, the user's game situation is specified based on information such as various game parameters used in the game process. The control process of the launch unit 50 includes, for example, a control process for selecting the launch devices CN1 to CNM in the launch unit 50, a control process for the gas firing timing, a control process for the gas firing output degree, and a direction change of the launch unit 50. Control processing, control processing for changing the direction of the launching devices CN1 to CNM, control processing for processing the gas emitted by the launching unit 50, and the like.

このように制御部118は、ゲームのプレイ状況、進行状況、イベント状況、戦闘状況、対戦状況、攻撃状況、ヒット判定の状況、移動体の状況、ステータスパラメータの状況又は成績の状況などのゲーム状況に応じて、発射装置の選定、発射タイミング、発射出力度合い、方向変更又は気体加工などについての制御処理を行う。このようにすれば、仮想空間のゲーム状況に対応するように、発射部50の複数の発射装置により気体を発射できるようになる。   In this way, the control unit 118 can play game situations such as game play status, progress status, event status, battle status, battle status, attack status, hit determination status, moving object status, status parameter status, or results status. In response to this, control processing for selecting a launching device, firing timing, firing output degree, direction change, gas processing, or the like is performed. If it does in this way, it will become possible to discharge gas by a plurality of launching devices of launching part 50 so as to correspond to the game situation of virtual space.

更に制御部118は、ユーザの位置情報、方向情報又は姿勢情報などのユーザ情報に応じて、発射部50の制御を行う。例えば実空間でのユーザの位置や方向に応じた発射方向又は発射出力度合い等で気体が発射するように、発射部50を制御する。またユーザの姿勢などに応じて、発射部50での気体の発射方向又は発射出力度合い等を変化させる。このようにすれば、ユーザの位置、方向又は姿勢に応じた最適な発射部50の気体の発射制御を行うことが可能になる。例えば本実施形態の制御処理は、取得されたユーザ情報に基づきゲームを進行させるなどのゲーム処理を行い、ゲーム処理の結果に基づくゲーム状況に応じて、発射部50の制御を行うものであってもよい。またユーザ情報に基づきユーザを検知し、検知されたユーザのゲーム状況に応じて発射部50の制御を行ってもよい。例えば検知されたユーザに対して敵が攻撃して来るようなゲーム状況になった場合に、発射部50に気体を発射させる制御を行う。   Furthermore, the control unit 118 controls the launch unit 50 according to user information such as user position information, direction information, or posture information. For example, the emission unit 50 is controlled so that gas is emitted in the emission direction or the emission output level according to the position and direction of the user in the real space. Further, the gas emission direction or the emission output level in the emission unit 50 is changed according to the user's posture and the like. If it does in this way, it becomes possible to perform optimal gas emission control of the emission part 50 according to a user's position, direction, or attitude | position. For example, the control processing of the present embodiment performs game processing such as advancing the game based on the acquired user information, and controls the launch unit 50 according to the game situation based on the result of the game processing. Also good. Further, the user may be detected based on the user information, and the launch unit 50 may be controlled according to the detected game situation of the user. For example, when the game situation is such that the enemy attacks the detected user, the launch unit 50 is controlled to emit gas.

また発射部50には、複数の発射装置CN1〜CNMがマトリクス状に配置される。そして制御部118は、マトリクス状に配置された複数の発射装置CN1〜CNMの制御を行う。例えば発射装置CN1〜CNMが2次元マトリクス状に配置される。例えば発射装置CN1〜CNMがK行、N列のマトリクス状に配列される。例えばK、Nは1以上の整数であり、望ましくはK、Nは2以上の整数である。この場合に発射装置CN1〜CNMを格子状に配置してもよい。但しCN1〜CNMの発射装置間の距離は一定距離である必要はなく、異なる距離になってもよい。またK行、N列のマトリクス状の配列において、1行に並ぶN個の発射装置は直線状に配置されてもよいし、曲線状に配置されていてもよい。また1列に並ぶK個の発射装置は直線状に配置されてもよいし、曲線状に配置されていてもよい。   In the launching unit 50, a plurality of launching devices CN1 to CNM are arranged in a matrix. Then, the control unit 118 controls the plurality of launchers CN1 to CNM arranged in a matrix. For example, the launchers CN1 to CNM are arranged in a two-dimensional matrix. For example, the launchers CN1 to CNM are arranged in a matrix of K rows and N columns. For example, K and N are integers of 1 or more, preferably K and N are integers of 2 or more. In this case, the launchers CN1 to CNM may be arranged in a grid pattern. However, the distance between the CN1 to CNM launchers need not be a constant distance, and may be a different distance. Further, in the matrix arrangement of K rows and N columns, N launching devices arranged in one row may be arranged linearly or may be arranged in a curved shape. Further, the K launching devices arranged in a line may be arranged in a straight line or may be arranged in a curved line.

また制御部118は、仮想空間において気体に対応する被ヒットオブジェクト(被ヒット物)がヒットするヒットイベントが発生した場合に、発射部50での発射装置CN1〜CNMの選定処理、気体の発射タイミングの制御処理、及び気体の発射出力度合いの制御処理の少なくとも1つを行う。被ヒットオブジェクトは現実世界の気体に対応する仮想空間のオブジェクトであり、仮想空間において画像として表示されるオブジェクトであってもよいし、仮想空間において画像として非表示の仮想的なオブジェクトであってもよい。また仮想空間においてユーザに対応するユーザ移動体が移動する場合に、ヒットイベントは、気体に対応する被ヒットオブジェクトがユーザ移動体等にヒットするイベントである。被ヒットオブジェクトがヒットしたか否かのヒット判定処理は、ゲーム処理部115が行う。具体的には、ヒット判定処理等のヒット演算処理は、ゲーム処理部115のヒット演算処理部116が行う。ヒット演算処理は、被ヒットオブジェクトがヒットしたか否かを判定するヒット判定処理や、ヒットによるダメージ量の演算処理や、ヒット用の演出処理などである。   In addition, when a hit event occurs in which the hit object (hit) corresponding to the gas hits in the virtual space, the control unit 118 selects the launch devices CN1 to CNM in the launch unit 50, and the gas firing timing. At least one of the control process and the control process of the gas emission output degree. The hit object is an object in a virtual space corresponding to a gas in the real world, and may be an object displayed as an image in the virtual space, or a virtual object that is not displayed as an image in the virtual space. Good. Further, when the user moving object corresponding to the user moves in the virtual space, the hit event is an event in which the hit object corresponding to the gas hits the user moving object or the like. The game processing unit 115 performs hit determination processing for determining whether or not the hit object has been hit. Specifically, hit calculation processing such as hit determination processing is performed by the hit calculation processing unit 116 of the game processing unit 115. The hit calculation process includes a hit determination process for determining whether or not the hit object has been hit, a calculation process for a damage amount due to a hit, an effect process for a hit, and the like.

発射部50での発射装置CN1〜CNMの選定処理は、例えば発射装置CN1〜CNMのいずれの発射装置から気体を発射させるかを選定する処理である。気体を発射させる発射装置として選定される発射装置は、1個の発射装置であってもよいし、複数個の発射装置であってもよい。例えば発射装置CN1〜CNMがK行、N列のマトリクス状に配置される場合に、制御部118は、1行に並ぶN個の発射装置に気体を発射させる選定処理を行ったり、1列に並ぶK個の発射装置に気体を発射させる選定処理を行ってもよい。気体の発射タイミングの制御処理は、いずれのタイミングで気体を発射するかを制御する処理である。この場合に制御部118は、発射部50の全ての発射装置CN1〜CNMが一斉に気体を発射する場合の発射タイミングを制御してもよい、発射装置CN1〜CNMのうちの1又は複数の発射装置が気体を発射する場合に、当該1又は複数の発射装置の気体の発射タイミングを制御してもよい。気体の発射出力度合いの制御処理は、発射される気体の強さや速さなどを制御する処理である。即ち、どのような強さ、速さで気体を発射させるかを制御する処理である。例えば発射装置CN1〜CNMの気体の発射が発射制御信号に基づいて制御される場合に、気体の発射出力度合いは、この発射制御信号の電圧レベル、電流レベル又は信号波形等により制御できる。   The selection process of the launching devices CN1 to CNM in the launching unit 50 is a process of selecting which of the launching devices CN1 to CNM is to emit gas. The launching device selected as the launching device for firing the gas may be one launching device or a plurality of launching devices. For example, when the launching devices CN1 to CNM are arranged in a matrix of K rows and N columns, the control unit 118 performs a selection process for causing the N launching devices arranged in one row to emit gas, or in one column. You may perform the selection process which discharges gas to the K discharge devices arranged. The gas emission timing control process is a process for controlling at which timing the gas is emitted. In this case, the control unit 118 may control the emission timing when all the emission devices CN1 to CNM of the emission unit 50 simultaneously emit gas, and one or more of the emission devices CN1 to CNM. When the device emits gas, the gas emission timing of the one or more emission devices may be controlled. The gas emission output degree control process is a process for controlling the strength and speed of the emitted gas. That is, it is a process for controlling the strength and speed at which the gas is emitted. For example, when the gas emission of the emission devices CN1 to CNM is controlled based on the emission control signal, the gas emission output level can be controlled by the voltage level, current level, signal waveform, or the like of the emission control signal.

また制御部118は、被ヒットオブジェクトのヒット方向又はヒットベクトルに応じて、発射部50での発射装置CN1〜CNMの選定処理、気体の発射タイミングの制御処理、及び気体の発射出力度合いの制御処理の少なくとも1つを行う。ヒット方向(攻撃方向)は、被ヒットオブジェクトがユーザ移動体等のオブジェクトにヒットしたときの被ヒットオブジェクトの移動方向である。例えばヒット方向は、ユーザ移動体等のオブジェクトに向かって飛翔する被ヒットオブジェクトの軌道に基づいて特定できる。ヒットベクトルは、ヒット方向に加えてヒットの強さを表すものである。ユーザ移動体等のオブジェクトに被ヒットオブジェクトがヒットした場合のヒットの強さは、ヒットベクトルの大きさに基づき特定される。これのらヒット方向、ヒットベクトルは、ゲーム処理部115(ヒット演算処理部116)でのヒット演算処理に基づき求められる。即ち、ゲーム処理部115は、ゲーム処理の結果に基づき、ヒット方向、ヒットベクトル等のヒット情報を求める。そして制御部118は、ゲーム処理の結果に基づき求められたヒット方向、ヒットベクトル等のヒット情報に基づいて、発射装置CN1〜CNMの選定処理、発射タイミングの制御処理、或いは発射出力度合いの制御処理などを行う。   Further, the control unit 118 selects the launching devices CN1 to CNM in the launching unit 50, controls the gas firing timing, and controls the gas firing output degree according to the hit direction or hit vector of the hit object. Do at least one of the following: The hit direction (attack direction) is the movement direction of the hit object when the hit object hits an object such as a user moving object. For example, the hit direction can be specified based on the trajectory of the hit object flying toward the object such as the user moving body. The hit vector represents the hit strength in addition to the hit direction. The hit strength when the hit object hits an object such as a user moving body is specified based on the size of the hit vector. After this, the hit direction and the hit vector are obtained based on the hit calculation processing in the game processing unit 115 (hit calculation processing unit 116). That is, the game processing unit 115 obtains hit information such as a hit direction and a hit vector based on the result of the game processing. Then, the control unit 118 selects the launching devices CN1 to CNM, launch timing control processing, or launch output degree control processing based on hit information such as the hit direction and hit vector obtained based on the game processing result. Etc.

また複数の発射装置CN1〜CNMは、鉛直方向に交差する第1の方向に沿った第1〜第Nの発射装置を含む。発射装置CN1〜CNMがK行、N列のマトリクス状に配置される場合に、第1〜第Nの発射装置は、K行のうちの1行に並ぶ発射装置である。そして制御部118は、ユーザに対応するユーザ移動体に対して被ヒットオブジェクトが斜め方向にヒットするヒットイベントが発生した場合に、第1の発射装置から第Nの発射装置へと順次に気体が発射されるように発射部を制御する。   In addition, the plurality of launchers CN1 to CNM include first to Nth launchers along a first direction that intersects the vertical direction. When the launchers CN1 to CNM are arranged in a matrix of K rows and N columns, the first to Nth launchers are launchers arranged in one of the K rows. Then, when a hit event occurs in which the hit object hits in an oblique direction with respect to the user moving object corresponding to the user, the control unit 118 sequentially supplies gas from the first launching device to the Nth launching device. Control the launcher to be fired.

例えば被ヒットオブジェクトが斜め方向にヒットするヒットイベントが発生した場合に、第1の発射装置から気体を発射させ、次に第2の発射装置から気体を発射させ、次に第3の発射装置から気体を発射させるというように順次に時系列に各発射装置から気体を発射させ、最後に第Nの発射装置から気体を発射させる。この場合に順次に時系列に気体を発射させる発射装置は、1個ずつの単位であってもよいし、複数個ずつの単位であってもよい。例えば第1、第2の発射装置から気体を発射させ、次に第3、第4の発射装置から気体を発射させ、次に第5、第6の気体装置から気体を発射させるというような制御であってもよい。   For example, when a hit event occurs in which the hit object hits in an oblique direction, gas is fired from the first launch device, then gas is fired from the second launch device, and then from the third launch device. Gas is fired sequentially from each launching device in time series, such as firing gas, and finally the gas is fired from the Nth launching device. In this case, the launching device that sequentially fires the gas in time series may be a unit of one or a plurality of units. For example, control is performed such that gas is emitted from the first and second emission devices, then gas is emitted from the third and fourth emission devices, and then gas is emitted from the fifth and sixth gas devices. It may be.

またユーザ移動体に対して被ヒットオブジェクトが斜め方向にヒットする場合の斜め方向とは、ユーザ移動体の向く方向に対する斜め方向であってもよし、ユーザ移動体の向く方向に依らない斜め方向であってもよい。例えば仮想空間のユーザ移動体は、現実世界のユーザの動きに連動して、位置や方向を変化させる。この場合に斜め方向は、ユーザの向く方向に対する斜め方向であってもよいし、ユーザの向く方向に依らない斜め方向であってもよい。   Also, the diagonal direction when the hit object hits the user moving body in an oblique direction may be an oblique direction with respect to the direction in which the user moving body faces, or an oblique direction that does not depend on the direction in which the user moving body faces. There may be. For example, the user moving body in the virtual space changes the position and direction in conjunction with the movement of the user in the real world. In this case, the oblique direction may be an oblique direction with respect to the direction that the user faces, or may be an oblique direction that does not depend on the direction that the user faces.

また発射部50は、発射部50の方向を変更する発射部方向変更部52を含む。例えば発射部方向変更部52は、発射部50自体の向く方向(気体の発射方向)を変更する。このように発射部50の方向が変更されると、発射部50の発射装置CN1〜CNMの気体の発射方向が一斉に変更される。そして制御部118は、ゲーム状況やユーザ情報に応じて、発射部方向変更部52の制御を行う。例えばユーザのゲームプレイの状況、ゲームの進行状況、ゲームのイベントの状況、ゲームの戦闘状況、ゲームの対戦状況、敵の攻撃状況、ゲームでのヒット判定の状況、ゲームに登場する移動体の状況、キャラクタやユーザのステータスパラメータの状況、或いはゲームの成績の状況などに応じて、発射部方向変更部52の制御を行い、発射部50の向く方向(気体の発射方向)を変更する。発射部方向変更部52は、発射部50の方向を変更するためアクチュエータ(モータ等)や機械機構により実現できる。   In addition, the launch unit 50 includes a launch unit direction changing unit 52 that changes the direction of the launch unit 50. For example, the launching unit direction changing unit 52 changes the direction in which the launching unit 50 faces (the gas firing direction). When the direction of the launching unit 50 is changed in this way, the gas firing directions of the launching devices CN1 to CNM of the launching unit 50 are changed all at once. And the control part 118 controls the launching part direction change part 52 according to a game condition or user information. For example, the user's game play status, game progress status, game event status, game battle status, game battle status, enemy attack status, game hit determination status, status of mobile objects appearing in the game The launching direction changing unit 52 is controlled in accordance with the status parameter status of the character or user, the game results, etc., and the direction in which the launching unit 50 faces (the gas firing direction) is changed. The launcher direction changing unit 52 can be realized by an actuator (such as a motor) or a mechanical mechanism in order to change the direction of the launcher 50.

また発射部50は、複数の発射装置CN1〜CNMの方向を変更する発射装置方向変更部54を含む。この発射装置方向変更部54は、CN1〜CNMの各発射装置の向く方向(気体の発射方向)を制御する。この場合に発射装置方向変更部54は、1個ずつの単位で発射装置の方向を変更してもよし、複数個ずつの単位で発射装置の方向を変更してもよい。そして制御部118は、ゲーム状況やユーザ情報に応じて、発射装置方向変更部54の制御を行う。例えばユーザのゲームプレイの状況、ゲームの進行状況、ゲームのイベントの状況、ゲームの戦闘状況、ゲームの対戦状況、敵の攻撃状況、ゲームでのヒット判定の状況、ゲームに登場するキャラクタの状況、キャラクタやユーザのステータスパラメータの状況、或いはゲームの成績の状況などに応じて、発射装置方向変更部54の制御を行い、CN1〜CNMの各発射装置の向く方向(気体の発射方向)を変更する。発射装置方向変更部54は、発射装置CN1〜CNMの方向を変更するためアクチュエータ(モータ等)や機械機構により実現できる。   The launching unit 50 includes a launching device direction changing unit 54 that changes the direction of the plurality of launching devices CN1 to CNM. The launching device direction changing unit 54 controls the direction in which each of the launching devices CN1 to CNM faces (gas firing direction). In this case, the launcher direction changing unit 54 may change the direction of the launcher in units of one by one, or may change the direction of the launcher in units of multiple. Then, the control unit 118 controls the launching device direction changing unit 54 according to the game situation and user information. For example, the user's game play status, game progress status, game event status, game battle status, game battle status, enemy attack status, game hit determination status, character status in the game, The launching device direction changing unit 54 is controlled in accordance with the status of the status parameters of the character and the user, the situation of the game results, etc., and the direction in which each launching device CN1 to CNM faces (gas firing direction) is changed. . The launching device direction changing unit 54 can be realized by an actuator (motor or the like) or a mechanical mechanism in order to change the direction of the launching devices CN1 to CNM.

また仮想空間設定部112は、仮想空間において気体に対応する被ヒットオブジェクトがヒットするヒットイベントにおける被ヒットオブジェクトの発生源オブジェクトを、実空間での発射部50の位置に対応する仮想空間の位置に配置する処理を行う。例えばヒットイベントにおいては、敵キャラクタ等の発生源オブジェクト(発射源オブジェクト)が被ヒットオブジェクトを発生(発射)し、この被ヒットオブジェクトがユーザ移動体等のオブジェクトにヒットする。この場合に仮想空間設定部112は、当該発生源オブジェクトを、実空間での発射部50の位置(位置又は方向)に対応する仮想空間の位置(位置又は方向)に配置する。そして、このような仮想空間の位置に配置された発生源オブジェクトからの被ヒットオブジェクトが、ユーザ移動体等のオブジェクトにヒットする。このようにすれば、被ヒットオブジェクトを発生する発生源オブジェクトの位置と、被ヒットオブジェクトに対応する気体を発射する発射部50の位置とを対応させることが可能になる。これにより、あたかも発生源オブジェクトの位置から気体が発生したかのような仮想現実を実現できるようになる。   The virtual space setting unit 112 sets the hit object generation source object in the hit event in which the hit object corresponding to the gas hits in the virtual space to the position of the virtual space corresponding to the position of the launch unit 50 in the real space. Perform the placement process. For example, in a hit event, a source object (emission source object) such as an enemy character generates (fires) a hit object, and this hit object hits an object such as a user moving object. In this case, the virtual space setting unit 112 arranges the source object at a position (position or direction) in the virtual space corresponding to the position (position or direction) of the launching unit 50 in the real space. Then, the hit object from the source object arranged at such a position in the virtual space hits an object such as a user moving object. In this way, it is possible to associate the position of the source object that generates the hit object with the position of the launch unit 50 that emits the gas corresponding to the hit object. This makes it possible to realize a virtual reality as if gas was generated from the position of the source object.

またゲーム処理部115は、発射部50での気体の発射に対して、音、振動又は画像を連動させるゲーム演出処理を行う。例えば発射部50での気体の発射に連動して、気体の発射音やヒット音などの音や出力したり、気体の発射やヒットを表す振動を発生したり、気体の発射やヒットを表す演出画像を表示するゲーム演出処理を行う。このようなゲーム演出処理は、例えば制御部118からの発射制御信号に基づいて発射部50を制御する場合に、この発射制御信号に連動した演出処理を行うことなどにより実現できる。   In addition, the game processing unit 115 performs a game effect process in which sound, vibration, or an image is linked to the gas emission from the emission unit 50. For example, in conjunction with gas emission at the emission unit 50, sound such as gas emission sound or hit sound is output, vibration that indicates gas emission or hit is generated, or gas emission or hit is expressed A game effect process for displaying an image is performed. Such a game effect process can be realized, for example, by performing an effect process in conjunction with the launch control signal when the launch unit 50 is controlled based on the launch control signal from the control unit 118.

また発射部50は、発射する気体を加工する加工部56を含む。そして発射部50は、制御部118の制御の下で、加工部56により加工された気体を発射する。   The launching unit 50 includes a processing unit 56 that processes the gas to be fired. The launching unit 50 launches the gas processed by the processing unit 56 under the control of the control unit 118.

ここで加工部56での気体の加工としては種々の態様が考えられる。例えば発射する気体に香りを混ぜるような加工をしてもよい。また発射する気体の温度を変化させるような加工を行ってもよい。例えば発射する気体の温度を上げたり、温度を下げる加工を行う。例えば温度を下げる加工の一態様として、気体に氷や雪を混ぜるような加工を行って、発射してもよい。或いは、発射する気体の湿度を変化させる加工を行ってもよい。例えば発射する気体の湿度を上げたり、湿度を下げる加工を行う。例えば、ミストを発射するような加工を行ってもよい。このように気体の加工を行って発射すれば、加工した気体を利用して、ユーザに対して多種多様な仮想現実を体感させることが可能になる。例えば吹雪が吹き付けるようなHMD200の映像シーンに連動して、氷や雪が混ざった気体を発射するような加工を行う。また、火山などの暑い場所でのHMD200の映像シーンに連動して、熱風の気体を発射するような加工を行う。また、お花畑などの映像シーンに連動して、花の香りが混ざった気体を発射するような加工を行う。これにより、ユーザの仮想現実感を更に向上できるようになる。   Here, various modes can be considered as gas processing in the processing unit 56. For example, processing such as mixing a scent into the gas to be fired may be performed. Moreover, you may perform the process which changes the temperature of the gas to discharge. For example, the temperature of the gas to be fired is increased or decreased. For example, as one aspect of the processing for lowering the temperature, the processing may be performed by mixing ice or snow with the gas and firing. Or you may perform the process which changes the humidity of the gas to discharge. For example, processing to increase the humidity of the gas to be emitted or to reduce the humidity is performed. For example, processing such as firing a mist may be performed. If gas is processed and fired in this way, the user can experience a variety of virtual reality using the processed gas. For example, in conjunction with a video scene of the HMD 200 that blows snow, processing is performed such that a gas mixed with ice and snow is emitted. In addition, processing is performed such that hot air gas is emitted in conjunction with a video scene of the HMD 200 in a hot place such as a volcano. In addition, in conjunction with video scenes such as flower gardens, processing is performed to emit gas mixed with flower scents. As a result, the virtual reality of the user can be further improved.

また加工部56は、複数の発射装置CN1〜CNMの第1の発射装置と第2の発射装置とで、発射する気体に対して異なる加工を行う。例えば各発射装置毎に異なる気体の加工を行う。このようにすれば、複数の発射装置CN1〜CNMを用いて、様々に加工された気体をユーザに対して発射することが可能になる。なお、複数の発射装置CN1〜CNMにおいて、1個ずつの単位で発射装置が発射する気体の加工を異ならせてもよいし、複数個ずつの単位で発射装置が発射する気体の加工を異ならせてもよい。   Moreover, the process part 56 performs a different process with respect to the gas emitted with the 1st launching device and the 2nd launching device of the some launching devices CN1-CNM. For example, different gas processing is performed for each launching device. If it does in this way, it will become possible to discharge the gas processed variously to a user using a plurality of launching devices CN1-CNM. In addition, in the plurality of launching devices CN1 to CNM, the processing of the gas emitted by the launching device may be different in units of one, or the processing of the gas emitted by the launching device in different units may be different. May be.

なお移動体処理部113は、仮想空間を移動するユーザ移動体の移動処理を行う。例えば移動体処理部113は、ユーザに対応するユーザ移動体(アバター移動体、搭乗移動体、外殻移動体)を、情報取得部111により取得されたユーザ情報(位置情報、方向情報)に基づいて、仮想空間において移動させる処理を行う。例えば実空間でのユーザの移動に追従して移動するように、仮想空間でユーザ移動体を移動させる。例えばユーザ移動体の移動速度や移動加速度に基づいて、ユーザ移動体の位置等をフレーム毎に更新する処理を行って、ユーザ移動体を仮想空間(仮想フィールド)において移動させる。また移動体処理部113は、情報取得部111により取得されたユーザ情報(姿勢情報)に基づいて、ユーザ移動体を動作させる処理を行う。例えばモーションデータに基づいて、ユーザ移動体の姿勢等を変化させるモーション処理を行う。   The moving body processing unit 113 performs a moving process of the user moving body that moves in the virtual space. For example, the moving body processing unit 113 selects a user moving body (avatar moving body, boarding moving body, outer shell moving body) corresponding to the user based on the user information (position information, direction information) acquired by the information acquisition unit 111. Then, the process of moving in the virtual space is performed. For example, the user moving body is moved in the virtual space so as to move following the movement of the user in the real space. For example, based on the moving speed and moving acceleration of the user moving body, a process of updating the position of the user moving body for each frame is performed to move the user moving body in the virtual space (virtual field). In addition, the moving body processing unit 113 performs processing for operating the user moving body based on the user information (posture information) acquired by the information acquisition unit 111. For example, based on the motion data, motion processing for changing the posture of the user moving body is performed.

また仮想カメラ制御部114は、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御する。   Further, the virtual camera control unit 114 controls the virtual camera so as to follow the change in the user's viewpoint based on the tracking information of the user's viewpoint information.

例えば入力処理部102(入力受け付け部)は、HMD200を装着するユーザの視点情報のトラッキング情報を取得する。例えばユーザの視点位置、視線方向の少なくとも1つである視点情報のトラッキング情報(視点トラッキング情報)を取得する。このトラッキング情報は、例えばHMD200のトラッキング処理を行うことで取得できる。なおトラッキング処理によりユーザの視点位置、視線方向を直接に取得するようにしてもよい。一例としては、トラッキング情報は、ユーザの初期視点位置からの視点位置の変化情報(視点位置の座標の変化値)、及び、ユーザの初期視線方向からの視線方向の変化情報(視線方向の回転軸回りでの回転角度の変化値)の少なくとも一方を含むことができる。このようなトラッキング情報が含む視点情報の変化情報に基づいて、ユーザの視点位置や視線方向(ユーザの頭部の位置、姿勢の情報)を特定できる。   For example, the input processing unit 102 (input reception unit) acquires tracking information of viewpoint information of the user wearing the HMD 200. For example, tracking information (viewpoint tracking information) of viewpoint information that is at least one of the user's viewpoint position and line-of-sight direction is acquired. This tracking information can be acquired by performing tracking processing of the HMD 200, for example. Note that the user's viewpoint position and line-of-sight direction may be directly acquired by tracking processing. As an example, the tracking information includes the change information of the viewpoint position from the initial viewpoint position of the user (change value of the coordinate of the viewpoint position), and the change information of the gaze direction from the initial gaze direction of the user (the rotation axis in the gaze direction). At least one of the rotation angle change values around the rotation angle). Based on the change information of the viewpoint information included in such tracking information, the user's viewpoint position and line-of-sight direction (information on the user's head position and posture) can be specified.

そして仮想カメラ制御部114は、取得されたトラッキング情報(ユーザの視点位置及び視線方向の少なくとも一方の情報)に基づいて仮想カメラの視点位置、視線方向を変化させる。例えば、仮想カメラ制御部114は、実空間でのユーザの視点位置、視線方向の変化に応じて、仮想空間での仮想カメラの視点位置、視線方向(位置、姿勢)が変化するように、仮想カメラを設定する。このようにすることで、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御できる。   Then, the virtual camera control unit 114 changes the viewpoint position and the line-of-sight direction of the virtual camera based on the acquired tracking information (information on at least one of the user's viewpoint position and the line-of-sight direction). For example, the virtual camera control unit 114 is configured so that the viewpoint position and the line-of-sight direction (position and posture) of the virtual camera change in the virtual space according to changes in the viewpoint position and the line-of-sight direction of the user in the real space. Set up the camera. By doing in this way, a virtual camera can be controlled to follow a user's viewpoint change based on tracking information of a user's viewpoint information.

また本実施形態では、ユーザがプレイするゲームのゲーム処理として、仮想現実のシミュレーション処理を行う。仮想現実のシミュレーション処理は、実空間での事象を仮想空間で模擬するためのシミュレーション処理であり、当該事象をユーザに仮想体験させるための処理である。例えば実空間のユーザに対応するアバター移動体(仮想ユーザ)やその搭乗移動体などのユーザ移動体を、仮想空間で移動させたり、移動に伴う環境や周囲の変化をユーザに体感させるための処理を行う。   In the present embodiment, a virtual reality simulation process is performed as the game process of the game played by the user. The virtual reality simulation process is a simulation process for simulating an event in the real space in the virtual space, and is a process for causing the user to experience the event virtually. For example, a process for moving a user moving body such as an avatar moving body (virtual user) corresponding to a user in the real space or its boarding moving body in the virtual space, or causing the user to experience changes in the environment and surroundings accompanying the movement. I do.

なお図1の本実施形態のシミュレーションシステムの処理は、施設に設置されるPC等の処理装置、ユーザが装着する処理装置、或いはこれらの処理装置の分散処理などにより実現できる。或いは、本実施形態のシミュレーションシステムの処理を、サーバシステムと端末装置により実現してもよい。例えばサーバシステムと端末装置の分散処理などにより実現してもよい。   Note that the processing of the simulation system of this embodiment in FIG. 1 can be realized by a processing device such as a PC installed in a facility, a processing device worn by a user, or distributed processing of these processing devices. Or you may implement | achieve the process of the simulation system of this embodiment with a server system and a terminal device. For example, it may be realized by distributed processing of a server system and a terminal device.

2.トラッキング処理
次にトラッキング処理の例について説明する。図2(A)に本実施形態のシミュレーションシステムに用いられるHMD200の一例を示す。図2(A)に示すようにHMD200には複数の受光素子201、202、203(フォトダイオード)が設けられている。受光素子201、202はHMD200の前面部に設けられ、受光素子203はHMD200の右側面に設けられている。またHMDの左側面、上面等にも不図示の受光素子が設けられている。
2. Tracking Processing Next, an example of tracking processing will be described. FIG. 2A shows an example of the HMD 200 used in the simulation system of this embodiment. As shown in FIG. 2A, the HMD 200 is provided with a plurality of light receiving elements 201, 202, and 203 (photodiodes). The light receiving elements 201 and 202 are provided on the front surface portion of the HMD 200, and the light receiving element 203 is provided on the right side surface of the HMD 200. In addition, a light receiving element (not shown) is also provided on the left side, upper surface, and the like of the HMD.

またユーザUSは、手、腰等の部位にトラッキング装置251、252、253を装着している。これらのトラッキング装置251、252、253にはHMD200と同様に複数の受光素子(不図示)が設けられている。これらの受光素子を用いることで、HMD200の場合と同様に、手、腰等の部位の位置、方向を特定でき、ユーザUSの姿勢情報を取得できる。なおトラッキング装置が装着されるユーザUSの部位は手、腰には限定されず、脚、腹部、胸部等の種々の部位に装着できる。   In addition, the user US wears tracking devices 251, 252, and 253 on parts such as hands and waists. These tracking devices 251, 252 and 253 are provided with a plurality of light receiving elements (not shown) as in the HMD 200. By using these light receiving elements, as in the case of the HMD 200, the position and direction of parts such as the hand and the waist can be specified, and the posture information of the user US can be acquired. The part of the user US to which the tracking device is attached is not limited to the hand and the waist, and can be attached to various parts such as the leg, the abdomen, and the chest.

またHMD200には、ヘッドバンド260等が設けられており、ユーザUSは、より良い装着感で安定的に頭部にHMD200を装着できるようになっている。また、HMD200には、不図示のヘッドホン端子が設けられており、このヘッドホン端子にヘッドホン270(音出力部192)を接続することで、例えば3次元音響(3次元オーディオ)の処理が施されたゲーム音を、ユーザUSは聴くことが可能になる。なお、ユーザUSの頭部の頷き動作や首振り動作をHMD200のセンサ部210等により検出することで、ユーザUSの操作情報を入力できるようにしてもよい。   Further, the HMD 200 is provided with a headband 260 and the like so that the user US can stably wear the HMD 200 on the head with a better wearing feeling. In addition, the HMD 200 is provided with a headphone terminal (not shown). By connecting a headphone 270 (sound output unit 192) to the headphone terminal, for example, processing of three-dimensional sound (three-dimensional audio) is performed. The user US can listen to the game sound. Note that the operation information of the user US may be input by detecting the head movement or the swinging movement of the user US by the sensor unit 210 of the HMD 200 or the like.

図2(B)に示すように、ユーザUSの周辺には、ベースステーション280、284が設置されている。ベースステーション280には発光素子281、282が設けられ、ベースステーション284には発光素子285、286が設けられている。発光素子281、282、285、286は、例えばレーザー(赤外線レーザー等)を出射するLEDにより実現される。ベースステーション280、284は、これら発光素子281、282、285、286を用いて、例えばレーザーを放射状に出射する。そして図2(A)のHMD200に設けられた受光素子201〜203等が、ベースステーション280、284からのレーザーを受光することで、HMD200のトラッキングが実現され、ユーザUSの頭の位置や向く方向(視点位置、視線方向)を検出できるようになる。   As shown in FIG. 2B, base stations 280 and 284 are installed around the user US. The base station 280 is provided with light emitting elements 281 and 282, and the base station 284 is provided with light emitting elements 285 and 286. The light emitting elements 281, 282, 285, and 286 are realized by LEDs that emit laser (infrared laser or the like), for example. The base stations 280 and 284 use these light emitting elements 281, 282, 285, and 286 to emit, for example, a laser beam radially. The light receiving elements 201 to 203 and the like provided in the HMD 200 in FIG. 2A receive the lasers from the base stations 280 and 284, thereby realizing the tracking of the HMD 200 and the position and direction of the head of the user US. (Viewpoint position, line-of-sight direction) can be detected.

またトラッキング装置251、252、253に設けられる受光素子が、ベースステーション280、284からのレーザーを受光することで、ユーザUSの各部位の位置及び方向の少なくとも一方を検出できるようになる。   The light receiving elements provided in the tracking devices 251, 252, and 253 receive the laser beams from the base stations 280 and 284, so that at least one of the position and direction of each part of the user US can be detected.

図3(A)にHMD200の他の例を示す。図3(A)では、HMD200に対して複数の発光素子231〜236が設けられている。これらの発光素子231〜236は例えばLEDなどにより実現される。発光素子231〜234は、HMD200の前面部に設けられ、発光素子235や不図示の発光素子236は、背面側に設けられる。これらの発光素子231〜236は、例えば可視光の帯域の光を出射(発光)する。具体的には発光素子231〜236は、互いに異なる色の光を出射する。またユーザUSが手、腰等の部位に装着するトラッキング装置251、252、253にも発光素子(不図示)が設けられている。   FIG. 3A shows another example of the HMD 200. In FIG. 3A, a plurality of light emitting elements 231 to 236 are provided for the HMD 200. These light emitting elements 231 to 236 are realized by, for example, LEDs. The light emitting elements 231 to 234 are provided on the front side of the HMD 200, and the light emitting element 235 and the light emitting element 236 (not shown) are provided on the back side. These light emitting elements 231 to 236 emit (emit) light in a visible light band, for example. Specifically, the light emitting elements 231 to 236 emit light of different colors. In addition, light emitting elements (not shown) are also provided in the tracking devices 251, 252, and 253 that the user US wears on parts such as hands and waists.

そして図3(B)に示す撮像部150を、ユーザUSの周囲の少なくとも1つの場所(例えば前方側、或いは前方側及び後方側など)に設置し、この撮像部150により、HMD200の発光素子231〜236の光を撮像する。即ち、撮像部150の撮像画像には、これらの発光素子231〜236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、ユーザUSの頭部(HMD)のトラッキングを実現する。即ちユーザUSの頭部の3次元位置や向く方向(視点位置、視線方向)を検出する。   The imaging unit 150 shown in FIG. 3B is installed in at least one place around the user US (for example, the front side, the front side, the rear side, or the like). ˜236 images of light. That is, the spot light of these light emitting elements 231 to 236 is reflected in the captured image of the imaging unit 150. And the tracking of the user's US head (HMD) is implement | achieved by performing the image process of this captured image. That is, the three-dimensional position of the head of the user US and the facing direction (viewpoint position, line of sight direction) are detected.

例えば図3(B)に示すように撮像部150には第1、第2のカメラ151、152が設けられており、これらの第1、第2のカメラ151、152の第1、第2の撮像画像を用いることで、ユーザUSの頭部の奥行き方向での位置等が検出可能になる。またHMD200に設けられたモーションセンサのモーション検出情報に基づいて、ユーザUSの頭部の回転角度(視線)も検出可能になっている。従って、このようなHMD200を用いることで、ユーザUSが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想空間(仮想3次元空間)での画像(ユーザの視点に対応する仮想カメラから見える画像)を、HMD200の表示部220に表示することが可能になる。   For example, as illustrated in FIG. 3B, the imaging unit 150 includes first and second cameras 151 and 152, and the first and second cameras 151 and 152 of the first and second cameras 151 and 152 are provided. By using the captured image, the position of the head of the user US in the depth direction can be detected. Further, based on the motion detection information of the motion sensor provided in the HMD 200, the rotation angle (line of sight) of the head of the user US can also be detected. Therefore, by using such an HMD 200, when the user US faces in any direction of all 360 degrees around the image, the image (the user's virtual space in the virtual space (virtual three-dimensional space)) Image viewed from a virtual camera corresponding to the viewpoint) can be displayed on the display unit 220 of the HMD 200.

また撮像部150により、トラッキング装置251、252、253の発光素子の光を撮像することで、HMD200の場合と同様に、ユーザUSの各部位の位置及び方向の少なくとも一方を検出できる。   Further, by imaging the light of the light emitting elements of the tracking devices 251, 252, and 253 by the imaging unit 150, as in the case of the HMD 200, at least one of the position and direction of each part of the user US can be detected.

なお、発光素子231〜236として、可視光ではなく赤外線のLEDを用いてもよい。また、例えばデプスカメラ等を用いるなどの他の手法で、ユーザの頭部の位置や動き等を検出するようにしてもよい。   Note that instead of visible light, infrared LEDs may be used as the light emitting elements 231 to 236. Further, the position or movement of the user's head may be detected by another method such as using a depth camera.

また、ユーザの視点位置、視線方向(ユーザの位置、方向)を検出するトラッキング処理の手法は、図2(A)〜図3(B)で説明した手法には限定されない。例えばHMD200に設けられたモーションセンサ等を用いて、HMD200の単体でトラッキング処理を実現してもよい。即ち、図2(B)のベースステーション280、284、図3(B)の撮像部150などの外部装置を設けることなく、トラッキング処理を実現する。或いは、公知のアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの種々の視点トラッキング手法により、ユーザの視点位置、視線方向などの視点情報等を検出してもよい。またトラッキング装置251、252、253によるユーザUSの各部位の位置、方向の検出を、トラッキング装置251、252、253に設けられたモーションセンサを用いて実現してもよい。   Further, the tracking processing method for detecting the user viewpoint position and the line-of-sight direction (user position and direction) is not limited to the method described with reference to FIGS. For example, the tracking process may be realized by a single unit of the HMD 200 using a motion sensor or the like provided in the HMD 200. That is, tracking processing is realized without providing external devices such as the base stations 280 and 284 in FIG. 2B and the imaging unit 150 in FIG. Or you may detect viewpoint information, such as a user's viewpoint position and a gaze direction, by various viewpoint tracking methods, such as well-known eye tracking, face tracking, or head tracking. Further, the detection of the position and direction of each part of the user US by the tracking devices 251, 252, and 253 may be realized by using a motion sensor provided in the tracking devices 251, 252, and 253.

3.本実施形態の手法
次に本実施形態の手法について詳細に説明する。なお、以下では本実施形態の手法を、対戦ゲームに適用した場合を主に例にとり説明する。但し、本実施形態はこれに限定されず、種々のゲーム(RPG、アクションゲーム、競争ゲーム、スポーツゲーム、ホラー体験ゲーム、電車や飛行機等の乗り物のシミュレーションゲーム、パズルゲーム、コミュニケーションゲーム、或いは音楽ゲーム等)に適用でき、ゲーム以外にも適用可能である。また以下では、ユーザ移動体が、ユーザのアバター移動体(仮想ユーザ、ユーザキャラクタ)である場合を例にとり説明するが、ユーザ移動体は、ユーザが搭乗する搭乗移動体(例えばロボット、戦車、戦闘機又は車等)などであってもよい。また以下では発射装置により発射される気体が空気であるとして主に説明を行うが、本実施形態はこれに限定されるものではない。
3. Next, the method of this embodiment will be described in detail. In the following description, the method of the present embodiment will be described mainly using an example where the method is applied to a battle game. However, the present embodiment is not limited to this, and various games (RPG, action game, competition game, sports game, horror experience game, simulation game of vehicles such as trains and airplanes, puzzle games, communication games, or music games) Etc.) and can be applied to other than games. Hereinafter, a case where the user moving body is a user's avatar moving body (virtual user, user character) will be described as an example. However, the user moving body is a boarding moving body (for example, a robot, a tank, a battle) Machine or car). In the following description, it is assumed that the gas emitted by the emission device is air, but the present embodiment is not limited to this.

3.1 ゲームの説明
まず本実施形態により実現されるゲームについて説明する。図4は本実施形態のシミュレーションシステムに用いられる筐体40の一例である。本実施形態では、HMDを装着したユーザが、図4に示すような筐体40上においてゲームをプレイする。
3.1 Description of Game First, a game realized by the present embodiment will be described. FIG. 4 is an example of a housing 40 used in the simulation system of this embodiment. In the present embodiment, the user wearing the HMD plays a game on the housing 40 as shown in FIG.

筐体40は、ユーザUSがゲームをプレイするフィールドFL(床面)、発射部50、処理装置60を含む。フィールドFLには領域AR1、AR2、AR3が設定され、領域AR1、AR2、AR3の下方には、フィールドFLの床を振動させる振動部VB1、VB2、VB3が設けられている。例えば真ん中に設けられた振動部VB1は振動モータにより実現され、両端に設けられた振動部VB2、VB3はトランスデューサーにより実現される。振動モータは、例えば、偏芯した錘を回転させることで振動を発生する。具体的には駆動軸(ローター軸)の両端に偏心した錘を取り付けてモータ自体が揺れるようにする。トランスデューサーは、音信号を変換するものであり、ハイパワーのサブウーハーに相当するものである。例えば図1の制御部118が音ファイルの再生処理を行うと、それによる音信号がトランスデューサーに入力される。そして例えば音信号の低域成分に基づいて振動が発生する。   The housing 40 includes a field FL (floor surface) where the user US plays a game, a launching unit 50, and a processing device 60. Areas AR1, AR2, and AR3 are set in the field FL, and vibration parts VB1, VB2, and VB3 that vibrate the floor of the field FL are provided below the areas AR1, AR2, and AR3. For example, the vibration part VB1 provided in the middle is realized by a vibration motor, and the vibration parts VB2 and VB3 provided at both ends are realized by a transducer. For example, the vibration motor generates vibration by rotating an eccentric weight. Specifically, eccentric weights are attached to both ends of the drive shaft (rotor shaft) so that the motor itself swings. The transducer converts a sound signal and corresponds to a high-power subwoofer. For example, when the control unit 118 of FIG. 1 performs a sound file reproduction process, a sound signal is input to the transducer. For example, vibration is generated based on a low frequency component of the sound signal.

処理装置60は、本実施形態のシミュレーションシステムの種々の処理を行うものであり、図1の処理部100、記憶部170等に相当するものである。図4で処理装置60はパーソナルコンピュータ(PC)により実現されている。   The processing device 60 performs various processes of the simulation system of the present embodiment, and corresponds to the processing unit 100, the storage unit 170, and the like of FIG. In FIG. 4, the processing device 60 is realized by a personal computer (PC).

発射部50は、フィールドFLに設けられた支持部62、64により支持されている。そして発射部50は、フィールドFLに立つユーザUSに対してその主面が正対するように設けられている。発射部50には、複数の発射装置CN1〜CN18がマトリクス状に配置されている。発射装置CN1〜CN18は、発射部50に正対するユーザUSに対して空気(広義には気体。以下、同様)を発射する。発射装置CN1〜CN18の下方には送風機FN1、FN2、FN3が設けられている。送風機FN1、FN2、FN3は例えばシロッコファン等により実現される。そして発射部50に正対するユーザUSに対して空気(気体)を送風する。   The launch unit 50 is supported by support units 62 and 64 provided in the field FL. The launching unit 50 is provided so that its main surface faces the user US standing in the field FL. In the launch unit 50, a plurality of launch devices CN1 to CN18 are arranged in a matrix. The launchers CN1 to CN18 launch air (gas in a broad sense, hereinafter the same) to the user US facing the launch unit 50. Blowers FN1, FN2, and FN3 are provided below launchers CN1 to CN18. The blowers FN1, FN2, and FN3 are realized by, for example, a sirocco fan. Then, air (gas) is blown to the user US facing the launching unit 50.

図5(A)、図5(B)は、発射部50、発射装置70(CN1〜CN18)の詳細例を説明する図である。発射部50は、ユーザに対して空気(気体)の発射が可能な装置であり、マトリクス状に配置された発射装置CN1〜CN18を有する。図5(A)では、発射装置CN1〜CN18は3行、6列のマトリクス状の配置となっている。但し本実施形態はこれには限定されず、K行、N列(K、Lは2以上の整数)のマトリクス状の配置であればよい。また図5(A)では発射装置間の距離は等間隔になっているが、発射装置間の距離が異なっていてもよい。例えば図5(A)に示すような格子状の配列には限定されず、例えば各行、各列が直線状の配列ではなく、曲線状の配列であってもよい。また1次元配列も可能である。   FIGS. 5A and 5B are diagrams illustrating detailed examples of the launching unit 50 and the launching device 70 (CN1 to CN18). The launching unit 50 is a device that can emit air (gas) to the user, and includes launching devices CN1 to CN18 arranged in a matrix. In FIG. 5A, the launchers CN1 to CN18 are arranged in a matrix of 3 rows and 6 columns. However, the present embodiment is not limited to this and may be arranged in a matrix of K rows and N columns (K and L are integers of 2 or more). In FIG. 5A, the distances between the launching devices are equal, but the distances between the firing devices may be different. For example, the arrangement is not limited to the lattice arrangement as shown in FIG. 5A, and for example, each row and each column may be a curved arrangement instead of a linear arrangement. A one-dimensional array is also possible.

また図5(A)において発射装置CN1〜CN18は、いわゆる空気砲のように空気を強い圧力(強い静圧)で発射するのに対して、送風機FN1、FN2、FN3は、シロッコファン等により弱い圧力(弱い静圧)で空気を送風する。   In FIG. 5A, the launchers CN1 to CN18 launch air at a strong pressure (strong static pressure) like a so-called air cannon, whereas the blowers FN1, FN2, and FN3 are weaker by a sirocco fan or the like. Air is blown with pressure (weak static pressure).

図5(B)は、発射装置70(CN1〜CN18)の構成例である。発射装置70は、スピーカ72と、空気蓄積部76(気体蓄積部)を有する。スピーカ72は、音信号(低域信号)に基づいて振動板74を振動させる。振動板74が振動すると、空気蓄積部76に蓄積された空気(空気の塊)が、発射口78から空気砲のように発射される。例えば渦状の空気として発射される。なお発射装置70は図5(B)の構成に限定されず、種々の変形実施が可能である。例えばスピーカ72の代わりに、トランスデューサー、振動モータ又はソレノイド等の振動デバイスを用いて振動板74を振動させて、空気を発射してもよい。   FIG. 5B is a configuration example of the launching device 70 (CN1 to CN18). The launching device 70 includes a speaker 72 and an air storage unit 76 (gas storage unit). The speaker 72 vibrates the diaphragm 74 based on the sound signal (low frequency signal). When the vibration plate 74 vibrates, the air (a mass of air) accumulated in the air accumulating unit 76 is launched from the launch port 78 like an air cannon. For example, it is launched as vortex air. The launching device 70 is not limited to the configuration shown in FIG. 5B, and various modifications can be made. For example, instead of the speaker 72, the vibration plate 74 may be vibrated using a vibration device such as a transducer, a vibration motor, or a solenoid to emit air.

図6は仮想空間に設定されるフィールドVFL(プレイフィールド、ゲームステージ)の一例である。フィールドVFLには、ユーザに対応しユーザが操作するユーザキャラクタ(広義にはユーザ移動体)や、相手プレーヤやコンピュータが操作する敵キャラクタCHE1、CHE2、CHE3が配置されている。ここでは四角形の各コーナの位置にユーザキャラクタCH、敵キャラクタCHE1、CHE2、CHE3が配置されている。そしてこれらキャラクタ間で、気弾(空気弾)の攻撃による対戦が行われる。   FIG. 6 shows an example of a field VFL (play field, game stage) set in the virtual space. In the field VFL, user characters (user moving bodies in a broad sense) corresponding to the user and user-operated characters CHE1, CHE2, and CHE3 operated by the opponent player and the computer are arranged. Here, a user character CH and enemy characters CHE1, CHE2, and CHE3 are arranged at the positions of the square corners. Then, a battle is performed between these characters by an air bullet attack.

図7〜図10は本実施形態により生成されるゲーム画像の例である。図7において敵キャラクタCHE1(広義には発生源オブジェクト)は、気弾AR(広義には被ヒットオブジェクト)を用いてユーザキャラクタCH(図6)に対して攻撃を行っている。例えば図7で気弾ARが発射された後、図8、図9では気弾ARがユーザキャラクタCHに近づいており、図10において気弾ARがユーザキャラクタCHにヒットしている。   7 to 10 are examples of game images generated according to the present embodiment. In FIG. 7, an enemy character CHE1 (a generation source object in a broad sense) attacks a user character CH (FIG. 6) using a bullet AR (a hit object in a broad sense). For example, after the air balloon AR is fired in FIG. 7, the air balloon AR approaches the user character CH in FIGS. 8 and 9, and the air balloon AR hits the user character CH in FIG.

本実施形態では、このように敵キャラクタCHE1(発生源オブジェクト)が発射(発生)した気弾AR(被ヒットオブジェクト)がユーザキャラクタCH(ユーザ移動体)にヒットするヒットイベントが発生した場合に、この気弾ARのヒットを、ユーザの触覚により体感させるための体感装置として、図4の発射部50を用いている。即ち、気弾ARのヒット時に、発射部50がユーザUSに対して空気を発射し、あたかも本当の気弾ARがヒットしたかのような仮想現実をユーザUSに体感させている。即ち、発射部50が発射した空気の塊が身体に当たることによる触覚による体感を、ユーザUSに与えている。   In the present embodiment, when a hit event occurs in which the bullet AR (hit object) fired (generated) by the enemy character CHE1 (source object) hits the user character CH (user moving object), The firing unit 50 of FIG. 4 is used as a bodily sensation device for experiencing the hit of the air balloon AR by the sense of touch of the user. That is, when the air bullet AR is hit, the launch unit 50 emits air to the user US, so that the user US can feel a virtual reality as if the real air balloon AR was hit. That is, the user US is given a tactile sensation when the air mass fired by the launching unit 50 hits the body.

図4に示すようにユーザUSは視界を覆うようにHMDを装着している。このため、図7〜図10に示すようなHMDの表示画像(映像)に連動して、発射部50からの空気の塊が空気砲のようにユーザUSに当たることで、ユーザUSは、本物の気弾ARがヒットしたかのような仮想現実を体感できるようになる。そして、このような空気の発射部50を用いた体感装置は、衛生面や、安全面や、シミュレーションシステムの運営面においても適切な装置であり、装置の規模もそれほど大規模化しないという利点がある。例えば空気をユーザUSに当てるだけであれば、衛生面や安全面の問題は生じない。また図4のようにユーザUSに正対する位置にだけ発射部50を設ける構成であれば、シミュレーションシステムの規模もコンパクトにできる。   As shown in FIG. 4, the user US is wearing an HMD so as to cover the field of view. For this reason, in conjunction with the display images (videos) of the HMD as shown in FIGS. 7 to 10, the mass of air from the launching unit 50 hits the user US like an air gun, so that the user US is genuine. You will be able to experience the virtual reality as if the bomb AR was hit. The sensation apparatus using the air emitting unit 50 is an appropriate device in terms of hygiene, safety, and operation of the simulation system, and has an advantage that the scale of the device does not increase so much. is there. For example, if only air is applied to the user US, there will be no sanitary or safety problems. Further, if the launcher 50 is provided only at a position facing the user US as shown in FIG. 4, the scale of the simulation system can be made compact.

3.2 ゲーム状況に応じた発射部の制御
次に本実施形態での発射部50の制御手法について詳細に説明する。本実施形態では、複数の発射装置CN1〜CN18がマトリクス状(2次元)に配置された発射部50を用い、この発射部50を、図7〜図10に示すような仮想空間のゲーム状況に応じて制御している。具体的には、ゲーム状況やユーザ情報(位置、方向又は姿勢等)じ応じて発射部50を制御する。例えば本実施形態のシミュレーションシステムは、視界を覆うHMDを装着したユーザが実空間のプレイ場所に位置し、ユーザの例えば位置や方向を検知してプレイするゲームにおけるシミュレーションシステムである。そして本実施形態のシミュレーションシステムでは、仮想空間上のゲーム状況やユーザ情報に応じて、ユーザに対して空気等の気体を吹き出すことが可能な発射装置が複数配置されている発射部50と、それぞれの発射を制御する制御部118とを有し、発射部50は、実空間のユーザのプレイ場所を向いた方向に設置されている。このようなシミュレーションシステムによれば、複数の発射装置CN1〜CN18を用いた多様な制御処理が可能になり、ゲーム状況に応じた最適な空気の発射制御を実現できるようになる。
3.2 Control of launching unit according to game situation Next, the control method of the launching unit 50 in this embodiment will be described in detail. In the present embodiment, a launching unit 50 in which a plurality of launching devices CN1 to CN18 are arranged in a matrix (two-dimensional) is used, and this launching unit 50 is turned into a virtual space game situation as shown in FIGS. It is controlled accordingly. Specifically, the launch unit 50 is controlled according to the game situation and user information (position, direction, posture, etc.). For example, the simulation system according to the present embodiment is a simulation system in a game in which a user wearing an HMD that covers a field of view is positioned at a play location in real space and the user plays, for example, by detecting the position and direction of the user. And in the simulation system of this embodiment, according to the game situation in virtual space, and user information, the launching part 50 by which multiple launching devices which can blow off gas, such as air, are arranged with respect to a user, respectively, The launcher 50 is installed in a direction facing the play place of the user in real space. According to such a simulation system, various control processes using the plurality of launchers CN1 to CN18 can be performed, and optimal air launch control according to the game situation can be realized.

例えば本実施形態のシミュレーションシステムでは、ゲーム状況やユーザ情報に応じて、発射部50での発射装置CN1〜CN18の選定処理、空気(気体)の発射タイミングの制御処理、或いは空気の発射出力度合いの制御処理を行う。具体的に、仮想空間(ゲーム空間)において空気(気体)に対応する気弾(被ヒットオブジェクト)がヒットする図7〜図10に示すようなヒットイベントが発生した場合に、発射装置CN1〜CN18の選定処理、発射タイミングの制御処理、或いは発射出力度合いの制御処理を行う。   For example, in the simulation system of the present embodiment, depending on the game situation and user information, the launching unit 50 selects the launching devices CN1 to CN18, the air (gas) firing timing control process, or the air firing output degree. Perform control processing. Specifically, when a hit event as shown in FIGS. 7 to 10 occurs in which a bullet (hit object) corresponding to air (gas) hits in the virtual space (game space), the launching devices CN1 to CN18. Selection processing, firing timing control processing, or firing output degree control processing.

例えば通常の気弾がユーザキャラクタCHにヒットした場合には、図11(A)、図11(B)に示すような発射部50の制御処理を行う。即ち、通常の気弾のヒット時には、図11(A)において斜線により示されている発射装置CN7〜CN12が空気を発射する。具体的には図11(B)に示すように、発射部50の中段に設けられた発射装置CN7〜CN12から発射された空気(空気の塊)が、ユーザUSに対して当たるようになる。また仮想空間での気弾のヒットに合わせて、図4のようにフィールドFLの床に設けられた振動部VB1、VB2、VB3(振動モータ、トランスデューサー)が振動する。   For example, when a normal bullet hits the user character CH, control processing of the launching unit 50 as shown in FIGS. 11A and 11B is performed. That is, when a normal bullet is hit, the launchers CN7 to CN12 indicated by hatching in FIG. Specifically, as shown in FIG. 11 (B), air (a mass of air) emitted from the emission devices CN7 to CN12 provided in the middle stage of the emission unit 50 comes into contact with the user US. Further, in accordance with the hit of a bullet in the virtual space, the vibration parts VB1, VB2, and VB3 (vibration motors and transducers) provided on the floor of the field FL vibrate as shown in FIG.

このように図11(A)、図11(B)では、通常の気弾がヒットするヒットイベントの発生時に、発射部50の発射装置CN1〜CN18のうちの中段の発射装置CN7〜CN12を選定するという選定処理が行われている。   11A and 11B, the middle launchers CN7 to CN12 are selected from the launchers CN1 to CN18 of the launcher 50 when a hit event occurs that hits a normal bullet. The selection process is performed.

また図10に示すように、ユーザUSのHMDの表示画像において気弾(AR)がヒットするタイミングに応じて、発射装置CN7〜CN12が空気を発射するように、発射タイミングの制御処理が行われている。例えば気弾の到達時間を算出して、気弾がヒットするヒットイベントの発生前に、予め空気を発射させるように発射装置CN7〜CN12の発射タイミングを制御する。この発射タイミングの制御処理は、図1の制御部118が生成する発射制御信号の出力タイミングを制御することなどで実現できる。   Also, as shown in FIG. 10, the firing timing control process is performed so that the launchers CN <b> 7 to CN <b> 12 launch air according to the timing when the bullet (AR) hits in the display image of the HMD of the user US. ing. For example, the arrival time of a bullet is calculated, and the firing timing of the launching devices CN7 to CN12 is controlled so that air is fired in advance before the occurrence of a hit event that hits the bullet. This firing timing control process can be realized by controlling the output timing of the firing control signal generated by the control unit 118 of FIG.

また気弾のヒットイベントの発生時に、フィールドFLの床に設けられた振動部VB1、VB2、VB3を振動させるというゲーム演出処理も行われる。   Also, a game effect process is performed in which vibration parts VB1, VB2, and VB3 provided on the floor of the field FL are vibrated when a balloon hit event occurs.

なお気弾のヒットイベント発生時において、空気の発射出力度合いの制御処理を行ってもよい。例えば通常の気弾のヒットイベント発生時には、後述する特殊気弾のヒットイベント発生時に比べて、空気の発射出力度合いを弱くする制御処理を行う。このような制御処理は、例えば図5(B)の振動板74の振動の強さを制御することで実現できる。例えば通常の気弾のヒットイベント発生時には、特殊気弾のヒットイベント発生時に比べて、振動板74の振動が弱くなるように制御する。例えば音信号に基づいてスピーカ72の振動板74を振動させる場合には、音信号の振幅を小さくすることで、振動板74の振動を弱くする制御を実現できる。   It should be noted that control processing of the air emission output degree may be performed at the time of occurrence of a bullet hit event. For example, when a normal balloon hit event occurs, a control process is performed to weaken the air emission output level as compared to the case of a special bullet hit event described later. Such a control process can be realized by controlling the strength of vibration of the diaphragm 74 in FIG. 5B, for example. For example, when a normal bullet hit event occurs, the vibration of the diaphragm 74 is controlled to be weaker than when a special bullet hit event occurs. For example, when the diaphragm 74 of the speaker 72 is vibrated based on the sound signal, it is possible to realize control for weakening the vibration of the diaphragm 74 by reducing the amplitude of the sound signal.

一方、通常の気弾に比べて攻撃力(威力)が高い特殊気弾が、ユーザキャラクタCHにヒットした場合には、図12(A)、図12(B)に示すような発射部50の制御処理を行う。即ち、特殊気弾のヒット時には、図12(A)において斜線により示されている全ての発射装置CN1〜CN18が空気を発射する。即ち図12(B)に示すように、発射部50の下段、中段、上段に設けられた発射装置CN1〜CN18から発射された空気(空気の塊)が、ユーザUSに対して当たるようになる。また特殊気弾のヒットに合わせて、図4のようにフィールドFLの床に設けられた振動部VB1、VB2、VB3が振動する。また特殊気弾がヒットした後に、送風機FN1〜FN3がユーザUSに対して送風を行い、特殊気弾がヒットしたことによる余韻をユーザUSに体感させる。この場合に特殊気弾の攻撃力(威力)のレベルに応じて、送風機FN1〜FN3の送風の強さを変化させてもよい。例えば特殊気弾の攻撃力のレベルが高いほど強い送風にする。更に振動部VB1、VB2、VB3の振動の強さについても、特殊気弾の攻撃力のレベルが高いほど強い振動になるように制御する。   On the other hand, when a special bullet having a higher attack power (power) than a normal bullet hits the user character CH, the launch unit 50 as shown in FIGS. 12 (A) and 12 (B). Perform control processing. That is, at the time of hitting a special air bomb, all the launchers CN1 to CN18 indicated by hatching in FIG. That is, as shown in FIG. 12B, air (air lump) fired from the launching devices CN1 to CN18 provided in the lower, middle, and upper stages of the launching unit 50 comes to hit the user US. . Further, in accordance with the hit of the special bullet, the vibration parts VB1, VB2, and VB3 provided on the floor of the field FL vibrate as shown in FIG. In addition, after the special air bomb hits, the fans FN1 to FN3 blow air to the user US, and the user US feels the reverberation due to the hit of the special air bomb. In this case, the strength of the blower FN1 to FN3 may be changed according to the level of the attack power (power) of the special bullet. For example, the higher the level of attack power of special bullets, the stronger the air blow. Further, the vibration strength of the vibration parts VB1, VB2, and VB3 is also controlled so that the higher the attack power level of the special bullet, the stronger the vibration.

このように図12(A)、図12(B)では、特殊気弾がヒットするヒットイベントの発生時に、発射部50の全ての発射装置CN1〜CN18を選定するという選定処理が行われている。   As described above, in FIGS. 12A and 12B, the selection process of selecting all the launching devices CN1 to CN18 of the launching unit 50 at the time of occurrence of a hit event in which a special bullet is hit is performed. .

またユーザUSのHMDの表示画像において特殊気弾がヒットするタイミングに応じて、発射装置CN1〜CN18が空気を発射するように、発射タイミングの制御処理が行われている。例えば特殊気弾の到達時間を算出して、特殊気弾がヒットするヒットイベントの発生前に、予め空気を発射させるように発射装置CN1〜CN18の発射タイミングを制御する。また特殊気弾のヒットイベントの発生時に、フィールドFLの床に設けられた振動部VB1、VB2、VB3を振動させるというゲーム演出処理も行われている。   In addition, the firing timing control process is performed so that the launchers CN1 to CN18 launch air in accordance with the timing at which the special bullets are hit in the display image of the HMD of the user US. For example, the arrival time of the special bullet is calculated, and the firing timing of the launching devices CN1 to CN18 is controlled so that air is fired in advance before the occurrence of the hit event that hits the special bullet. In addition, a game effect process is performed in which the vibration parts VB1, VB2, and VB3 provided on the floor of the field FL are vibrated when a special balloon hit event occurs.

この場合に特殊気弾のヒットイベント発生時において、空気の発射出力度合いの制御処理を行ってもよい。例えば特殊気弾のヒットイベント発生時には、図11(A)、図11(B)の通常気弾のヒットイベント発生時に比べて、空気の発射出力度合いを強くする制御処理を行う。例えば特殊気弾のヒットイベント発生時には、通常の気弾のヒットイベント発生時に比べて、図5(B)の振動板74の振動が強くなるように制御する。例えばスピーカ72に入力される音信号の振幅を大きくする。また特殊気弾の攻撃力のレベルが高いほど、空気の発射出力度合いを強くする制御処理を行ってもよい。例えば特殊気弾の攻撃力のレベルに応じて、音信号の振幅を変化させる。このような音信号の振幅等を変化させる制御は、音信号を生成するための音ファイルの切り替えを行うだけという簡素な処理で実現できるという利点がある。   In this case, control processing of the degree of air emission output may be performed at the time of occurrence of a special air bullet hit event. For example, when a special balloon hit event occurs, a control process is performed to increase the degree of air emission output compared to when a normal bullet hit event occurs in FIGS. 11 (A) and 11 (B). For example, when a special balloon hit event occurs, the vibration of the diaphragm 74 in FIG. 5B is controlled to be stronger than when a normal bullet hit event occurs. For example, the amplitude of the sound signal input to the speaker 72 is increased. Moreover, you may perform the control process which strengthens the firing output degree of air, so that the level of the attack power of a special air bullet is high. For example, the amplitude of the sound signal is changed according to the level of the attack power of the special bullet. Such control for changing the amplitude or the like of the sound signal has an advantage that it can be realized by a simple process of simply switching the sound file for generating the sound signal.

図11(A)〜図12(B)で説明したように本実施形態では、仮想空間でのゲーム状況に応じて、発射部50の制御処理を行っている。例えば通常の気弾がヒットするというゲーム状況では、図11(A)、図11(B)に示すように、発射部50の中段の発射装置CN7〜CN12だけから空気を発射する。また空気の発射出力度合いも、特殊気弾のヒット時に比べて弱くする。また発射部50の送風機FN1〜FN3の送風も行わない。   As described with reference to FIGS. 11A to 12B, in the present embodiment, the control process of the launching unit 50 is performed in accordance with the game situation in the virtual space. For example, in a game situation in which a normal bullet is hit, as shown in FIGS. 11 (A) and 11 (B), air is fired only from the middle launchers CN7 to CN12 of the launch unit 50. In addition, the air firing output level is also weaker than when a special bullet is hit. Further, the blowers FN1 to FN3 of the launch unit 50 are not blown.

一方、特殊気弾がヒットするというゲーム状況では、図12(A)、図12(B)に示すように、発射部50の全ての発射装置CN1〜CN18から空気を発射する。また空気の発射出力度合いも、通常の気弾のヒット時に比べて弱くする。また特殊気弾のヒットの余韻をユーザUSに体感させるために、発射部50の送風機FN1〜FN3の送風も行うようにする。   On the other hand, in a game situation where a special air bomb hits, air is fired from all of the launchers CN1 to CN18 of the launcher 50 as shown in FIGS. 12 (A) and 12 (B). In addition, the air firing output level is also weaker than when a normal bullet is hit. Further, in order for the user US to experience the reverberation of the hit of special air bullets, the fans FN1 to FN3 of the launch unit 50 are also blown.

このようにすることで本実施形態では、仮想空間のゲーム状況に応じた発射部50の最適な制御を実現している。例えば本実施形態ではHMDに映る仮想空間のゲーム状況の画像に応じた空気の発射制御を行っている。例えば通常の気弾がヒットするゲーム状況の画像がHMDに表示される場合と、特殊気弾がヒットするゲーム状況の画像がHMDに表示される場合とで、空気の発射制御が異なるようになり、ユーザに与える体感も異なるようになるため、ユーザの仮想現実感を大幅に向上できる。   In this way, in this embodiment, optimal control of the launch unit 50 according to the game situation in the virtual space is realized. For example, in the present embodiment, air emission control is performed in accordance with an image of a game situation in a virtual space reflected on the HMD. For example, when the image of a game situation where a normal bullet is hit is displayed on the HMD, and when the image of a game situation where a special bullet is hit is displayed on the HMD, air emission control is different. Since the experience given to the user is also different, the virtual reality of the user can be greatly improved.

3.3 ヒット方向、ヒットベクトルに応じた発射制御
本実施形態では被ヒットオブジェクトのヒット方向又はヒットベクトルに応じて、発射部50での発射装置の選定処理、気体の発射タイミングの制御処理、或いは気体の発射出力度合いの制御処理を行っている。例えば図5(A)の複数の発射装置CN1〜CN18は、鉛直方向に交差する第1の方向に沿った発射装置CN7〜CN12(第1〜第Nの発射装置)を有している。そしてユーザに対応するユーザキャラクタ(ユーザ移動体)に対して、気弾(被ヒットオブジェクト)が斜め方向にヒットするヒットイベントが発生したとする。この場合に、発射装置CN7(第1の発射装置)から発射装置CN12(第Nの発射装置)へと順次に空気(気体)が発射されるように発射部50が制御される。
3.3 Firing Control According to Hit Direction and Hit Vector In the present embodiment, according to the hit direction or hit vector of the hit object, a firing device selection process at the firing unit 50, a gas firing timing control process, or Control processing of the gas emission output degree is performed. For example, the plurality of launchers CN1 to CN18 in FIG. 5A include launchers CN7 to CN12 (first to Nth launchers) along a first direction that intersects the vertical direction. Assume that a hit event occurs in which a bullet (hit object) hits in an oblique direction with respect to a user character (user moving body) corresponding to the user. In this case, the launching unit 50 is controlled so that air (gas) is sequentially fired from the launcher CN7 (first launcher) to the launcher CN12 (Nth launcher).

例えば図13(A)では、発生源オブジェクトである敵キャラクタCHEが気弾AR(被ヒットオブジェクト)を発射している。そしてこの気弾ARが、ヒット方向DH(又はヒットベクトルVH)で、ユーザキャラクタCH(ユーザ移動体)にヒットするヒットイベントが発生している。この場合に気弾のヒット方向DH(又はヒットベクトルVH)に応じて、発射装置の選定処理、発射タイミングの制御処理、或いは発射出力度合いの制御処理が行われる。   For example, in FIG. 13A, the enemy character CHE, which is the source object, is firing a bullet AR (hit object). A hit event is generated in which the air balloon AR hits the user character CH (user moving body) in the hit direction DH (or hit vector VH). In this case, according to the hit direction DH (or hit vector VH) of the bullet, a selection process of the launching device, a firing timing control process, or a firing output degree control process is performed.

具体的には図13(A)では、ユーザUSに対応するユーザキャラクタCHに対して気弾が左斜め方向からヒットするヒットイベントが発生している。即ちヒット方向DH(ヒットベクトルVH)が、ユーザキャラクタCHに対して左斜め方向になっている。例えば図13(A)ではユーザキャラクタCHの向く向きに対して、ヒット方向DHが左斜め方向になっている。   Specifically, in FIG. 13A, a hit event has occurred in which a bullet hits the user character CH corresponding to the user US from an oblique left direction. In other words, the hit direction DH (hit vector VH) is oblique to the left with respect to the user character CH. For example, in FIG. 13A, the hit direction DH is an oblique left direction with respect to the direction of the user character CH.

この場合に本実施形態では、図13(B)に示すように、発射装置CN7(第1の発射装置)から発射装置CN12(第Nの発射装置)へと順次に空気が発射されるように発射部50が制御される。ここで発射装置CN7〜CN12(第1〜第Nの発射装置)は、鉛直方向DRVに交差(直交)する第1の方向DR1(水平方向)に沿って配置される発射装置である。具体的には図14に示すように、まず発射装置CN7が空気を発射し、次に発射装置CN8が空気を発射する。その後、発射装置CN9、CN10、CN11が時系列に順次に空気を発射し、最後に発射装置CN12が空気を発射する。   In this case, in this embodiment, as shown in FIG. 13B, air is sequentially fired from the launcher CN7 (first launcher) to the launcher CN12 (Nth launcher). The launcher 50 is controlled. Here, the launchers CN7 to CN12 (first to Nth launchers) are launchers arranged along a first direction DR1 (horizontal direction) that intersects (orthogonally) the vertical direction DRV. Specifically, as shown in FIG. 14, the launching device CN7 first launches air, and then the launching device CN8 launches air. Thereafter, the launchers CN9, CN10, and CN11 sequentially fire air in time series, and finally, the launcher CN12 launches air.

図13(B)、図14に示すように発射装置CN7〜CN11が時系列に順次に空気を発射すれば、あたかも自身の左側方向に配置される発射部から空気が発射したかのように、ユーザUSに感じさせることが可能になる。即ち図4に示すように本実施形態では、ユーザUSの正面方向に発射部50が配置されている。この場合にも、図13(B)、図14に示すように発射装置CN7〜CN11が時系列に順次に空気を発射することで、ユーザUSの左斜め方向から空気を発射しているかのように、ユーザUSが錯覚する。従って、例えばユーザUSの左側方向に発射部を設けなくても、左斜め方向から空気が当たるような触覚の体感を与えることができる体感装置を実現できる。従って、発射部50をユーザUSの正面方向に設けるだけでよく、左側方向に設けなくても済むため、体感装置の小規模化を図れる。即ち本実施形態ではユーザUSの視界はHMDで覆われており、実空間の状況が見えていないHMDの装着状態だからこそ、正面方向からの複数の発射装置CN7〜CN12の空気の塊が、ユーザUSの身体に衝突するタイミングをずらすことによって、あたかも斜め方向から放たれたと錯覚させることが可能になる。   As shown in FIG. 13B and FIG. 14, if the launching devices CN7 to CN11 sequentially fire air in time series, as if the air was fired from the launching unit arranged in the left direction of itself. It becomes possible to make the user US feel. That is, as shown in FIG. 4, in the present embodiment, the launcher 50 is arranged in the front direction of the user US. Also in this case, as shown in FIG. 13B and FIG. 14, the launching devices CN7 to CN11 sequentially fire air in time series, so that the user US is firing air from the diagonally left direction. In addition, the user US has an illusion. Therefore, for example, it is possible to realize a sensation apparatus that can provide a tactile sensation such that air strikes from an oblique left direction without providing a launching unit in the left direction of the user US. Accordingly, it is only necessary to provide the launch unit 50 in the front direction of the user US, and it is not necessary to provide the launch unit 50 in the left direction. That is, in the present embodiment, the field of view of the user US is covered with the HMD, and the air mass of the plurality of launchers CN7 to CN12 from the front direction is created by the user US because the HMD is not visible in the real space. By shifting the timing of the collision with the body, it is possible to make an illusion that it was released from an oblique direction.

一方、図15(A)では、ユーザUSに対応するユーザキャラクタCHに対して気弾が右斜め方向からヒットするヒットイベントが発生している。即ちヒット方向DH(ヒットベクトルVH)が、ユーザキャラクタCHに対して右斜め方向になっている。例えば図15(A)ではユーザキャラクタCHの向く向きに対して、ヒット方向DHが右斜め方向になっている。   On the other hand, in FIG. 15A, a hit event has occurred in which a bullet hits the user character CH corresponding to the user US from an obliquely right direction. That is, the hit direction DH (hit vector VH) is oblique to the right with respect to the user character CH. For example, in FIG. 15A, the hit direction DH is oblique to the right with respect to the direction of the user character CH.

この場合に本実施形態では図15(B)に示すように、発射装置CN12から発射装置CN7へと順次に空気が発射されるように発射部50が制御される。即ち、鉛直方向DRVに交差(直交)する第2の方向DR2(DR1の反対方向)に沿って発射装置CN12〜CN7が順次に空気を発射する。例えば発射装置CN12が空気を発射し、その後、発射装置CN11、CN10、CN9、CN8が時系列に順次に空気を発射し、最後に発射装置CN7が空気を発射する。   In this case, in this embodiment, as shown in FIG. 15B, the launching unit 50 is controlled so that air is sequentially fired from the launching device CN12 to the launching device CN7. That is, the emission devices CN12 to CN7 sequentially emit air along a second direction DR2 (a direction opposite to DR1) intersecting (orthogonal) with the vertical direction DRV. For example, the launcher CN12 launches air, and then the launchers CN11, CN10, CN9, and CN8 sequentially launch air in time series, and finally the launcher CN7 launches air.

このようにすれば、あたかも自身の右側方向に配置される発射部から空気が発射したかのように、ユーザUSに感じさせることが可能になる。即ち図4に示すように本実施形態では、ユーザUSの正面方向に発射部50が配置されている。この場合にも、図15(B)に示すように発射装置CN12〜CN7が時系列に順次に空気を発射することで、ユーザUSの右斜め方向から空気を発射しているかのようにユーザUSが錯覚する。従って、例えばユーザUSの右側方向に発射部を設けなくても、このような右斜め方向から空気が当たるような体感装置を実現できるようになり、体感装置の小規模化を図れる。   If it does in this way, it will become possible to make the user US feel as if the air has fired from the launching part arranged in the right direction of itself. That is, as shown in FIG. 4, in the present embodiment, the launcher 50 is arranged in the front direction of the user US. Also in this case, as shown in FIG. 15 (B), the launchers CN12 to CN7 sequentially fire air in time series so that the user US looks as if it is firing air from the right diagonal direction of the user US. Illusion. Therefore, for example, even if a launching unit is not provided on the right side of the user US, it is possible to realize such a sensation device in which air hits from the right oblique direction, and the sensation device can be reduced in size.

そして本実施形態では、図13(A)に示すようにヒット方向DH(ヒットベクトルVH)が左斜め方向なのか、図15(A)に示すように右斜め方向なのかに応じて、発射装置の選定処理、発射タイミングの制御処理、或いは発射出力度合いの制御処理を行う。   In the present embodiment, the launching device depends on whether the hit direction DH (hit vector VH) is a left diagonal direction as shown in FIG. 13 (A) or a right diagonal direction as shown in FIG. 15 (A). Selection processing, firing timing control processing, or firing output degree control processing.

例えばヒット方向DHが左斜め方向である場合には、図13(B)に示すように、CN7、CN8、CN9、CN10、CN11、CN12の順に空気を発射するように発射装置を選定し、それぞれの発射タイミングで空気を発射させる。またこの際に、例えばユーザUSから距離が遠い発射装置CN7、CN12については、ユーザUSから距離が近い発射装置CN9、CN10に比べて、発射出力度合いを強くしてもよい。   For example, when the hit direction DH is the left diagonal direction, as shown in FIG. 13B, the launching device is selected so as to fire air in the order of CN7, CN8, CN9, CN10, CN11, CN12, Air is fired at the firing timing. At this time, for example, for the launchers CN7 and CN12 that are far from the user US, the launch output degree may be stronger than the launchers CN9 and CN10 that are close to the user US.

またヒット方向DHが右斜め方向である場合には、図15(B)に示すように、CN12、CN11、CN10、CN9、CN8、CN7の順に空気を発射するように発射装置を選定し、それぞれの発射タイミングで空気を発射させる。またこの際に、例えばユーザUSから距離が遠い発射装置CN7、CN12については、ユーザUSから距離が近い発射装置CN9、CN10に比べて、発射出力度合いを強くしてもよい。   If the hit direction DH is diagonally rightward, as shown in FIG. 15 (B), the launcher is selected to launch air in the order of CN12, CN11, CN10, CN9, CN8, CN7. Air is fired at the firing timing. At this time, for example, for the launchers CN7 and CN12 that are far from the user US, the launch output degree may be stronger than the launchers CN9 and CN10 that are close to the user US.

このようにすればヒット方向DH(ヒットベクトルVH)に応じた最適な空気の発射制御を実現でき、ユーザの仮想現実感の向上を図れるようになる。   In this way, optimal air emission control according to the hit direction DH (hit vector VH) can be realized, and the virtual reality of the user can be improved.

なお図13(A)〜図15(B)では、中段(中段の行)の発射装置CN7〜CN12に順次に空気を発射させているが、本実施形態はこれに限定されない。例えば中段の発射装置CN7〜CN12に加えて、下段(下段の行)の発射装置CN1〜CN6や上段(上段の行)の発射装置CN13〜CN18についても順次に空気を発射するように制御してもよい。   In FIG. 13A to FIG. 15B, air is sequentially emitted to the middle (row) middle row launching devices CN7 to CN12, but the present embodiment is not limited to this. For example, in addition to the middle launchers CN7 to CN12, the lower (lower row) launchers CN1 to CN6 and the upper (upper row) launchers CN13 to CN18 are controlled so as to sequentially fire air. Also good.

例えば前述した通常の気弾のヒットイベント発生時では、中段の発射装置CN7〜CN12に順次に空気を発射させる。一方、特殊気弾のヒットイベント発生時では、下段、中段、上段の発射装置CN1〜CN6、CN7〜CN12、CN13〜CN18に順次に空気を発射させる。例えば発射装置CN1、CN7、CN13が空気を発射し、次に発射装置CN2、CN8、CN14が空気を発射するというように、各列の発射装置が時系列に順次に空気を発射し、最後に発射装置CN6、CN12、CN18が空気を発射する。このようにすることで、発射部50の発射出力度合いを実質的に強くする制御処理を実現できるようになる。   For example, at the time of occurrence of the above-described normal air-hit hit event, air is sequentially fired to the middle stage launching devices CN7 to CN12. On the other hand, when a special balloon hit event occurs, the lower, middle, and upper launching devices CN1 to CN6, CN7 to CN12, and CN13 to CN18 are sequentially fired. For example, launchers CN1, CN7, CN13 launch air, then launchers CN2, CN8, CN14 launch air, and so on. Launchers CN6, CN12, CN18 launch air. By doing in this way, the control processing which makes the firing output degree of the launching part 50 substantially strong can be realized.

また図13(A)〜図15(B)では、ユーザキャラクタCH(ユーザUS)の向く方向を基準としてヒット方向DH(ヒットベクトルVH)が斜め方向になる場合について説明したが、本実施形態はこれに限定されない。例えばヒット方向DH(ヒットベクトルVH)は、ユーザキャラクタCH(ユーザUS)の向く方向には依存せず、仮想空間のフィールドにおいて配置されるユーザキャラクタCHの位置に対して斜め方向であればよい。例えば図13(A)において、ユーザUSが正面方向ではなく左斜め方向を向き、それに連動してユーザキャラクタCHが左斜め方向を向いた場合にも、図13(B)〜図14のような発射部50の制御処理を行ってもよい。図15(A)においてユーザUSが正面方向ではなく右斜め方向を向き、それに連動してユーザキャラクタCHが右斜め方向を向いた場合も同様である。   In addition, in FIGS. 13A to 15B, the case where the hit direction DH (hit vector VH) is oblique with respect to the direction in which the user character CH (user US) faces is described. It is not limited to this. For example, the hit direction DH (hit vector VH) does not depend on the direction in which the user character CH (user US) faces, and may be an oblique direction with respect to the position of the user character CH arranged in the virtual space field. For example, in FIG. 13A, even when the user US turns to the left oblique direction instead of the front direction, and the user character CH turns to the left oblique direction in conjunction therewith, as shown in FIG. 13B to FIG. You may perform the control process of the discharge part 50. FIG. The same applies to the case where the user US turns to the right diagonal direction instead of the front direction in FIG. 15A and the user character CH turns to the right diagonal direction in conjunction therewith.

3.4 発射方向の制御
本実施形態では図1に示すように、発射部50は、発射部50の方向を変更する発射部方向変更部52を含み、ゲーム状況に応じて、発射部方向変更部52の制御を行う。或いは発射部50は、複数の発射装置の方向を変更する発射装置方向変更部54を含み、ゲーム状況に応じて、発射装置方向変更部54の制御を行う。
3.4 Control of Launch Direction In this embodiment, as shown in FIG. 1, launch unit 50 includes launch unit direction changing unit 52 that changes the direction of launch unit 50, and changes the launch unit direction according to the game situation. The unit 52 is controlled. Alternatively, the launching unit 50 includes a launching device direction changing unit 54 that changes the directions of a plurality of launching devices, and controls the firing device direction changing unit 54 according to the game situation.

例えば図16(A)〜図16(C)では、発射部方向変更部52が、ゲーム状況に応じて発射部50の方向を変更している。例えば図16(A)では、ユーザUSの正面方向から空気を発射するように、発射部50の方向DRA(発射部の主面に直交する方向)が設定されている。一方、図16(B)ではユーザUSの左斜め方向から空気を発射するように、発射部方向変更部52により発射部50の方向DRAが変更されている。また図16(C)ではユーザUSの右斜め方向から空気を発射するように、発射部方向変更部52により発射部50の方向DRAが変更されている。このようにすれば、ゲーム状況に応じた適切な方向から空気が発射されるように、発射部50の方向DRAを制御できるようになる。   For example, in FIGS. 16A to 16C, the launching unit direction changing unit 52 changes the direction of the launching unit 50 according to the game situation. For example, in FIG. 16A, the direction DRA of the launch unit 50 (the direction orthogonal to the main surface of the launch unit) is set so as to launch air from the front direction of the user US. On the other hand, in FIG. 16B, the direction DRA of the launching unit 50 is changed by the launching unit direction changing unit 52 so as to launch air from the diagonally left direction of the user US. In FIG. 16C, the direction DRA of the launching unit 50 is changed by the launching unit direction changing unit 52 so that air is launched from the diagonally right direction of the user US. In this way, the direction DRA of the launching unit 50 can be controlled so that air is launched from an appropriate direction according to the game situation.

また図17(A)〜図17(C)では、ユーザUSの位置を検出して、発射部方向変更部52により発射部50の方向を制御している。   17A to 17C, the position of the user US is detected, and the direction of the launching unit 50 is controlled by the launching unit direction changing unit 52.

例えば図17(A)では、ユーザUSは、発射部50の正面側の真ん中の場所に位置するため、ユーザUSの正面方向から空気を発射するように、発射部50の方向DRAが設定されている。一方、図17(B)ではユーザUSが、発射部50に対して右方向に移動しているため、この右方向に移動したユーザUSに対してその正面方向から適切に空気が発射されるように、発射部方向変更部52により発射部50の方向DRAが変更されている。また図17(C)ではユーザUSが、発射部50に対して左方向に移動しているため、この左方向に移動したユーザUSに対してその正面方向から適切に空気が発射されるように、発射部方向変更部52により発射部50の方向DRAが変更されている。   For example, in FIG. 17A, since the user US is located at the middle position on the front side of the launch unit 50, the direction DRA of the launch unit 50 is set so that air is emitted from the front direction of the user US. Yes. On the other hand, in FIG. 17B, since the user US is moving in the right direction with respect to the launching unit 50, air is appropriately fired from the front direction to the user US that has moved in the right direction. Further, the direction DRA of the launch unit 50 is changed by the launch unit direction changing unit 52. In FIG. 17C, since the user US is moving leftward with respect to the launching unit 50, air is appropriately fired from the front direction of the user US moving in the leftward direction. The direction DRA of the launch unit 50 is changed by the launch unit direction changing unit 52.

このように発射部方向変更部52により発射部50の方向を制御することで、ユーザUSに対してより精度良く空気を発射することができるようになる。またユーザの位置が変化した場合にも、より適切な方向で空気をユーザに対して発射できるようになる。   In this way, by controlling the direction of the emitting unit 50 by the emitting unit direction changing unit 52, it becomes possible to emit air to the user US with higher accuracy. Further, even when the position of the user changes, air can be emitted to the user in a more appropriate direction.

また図18(A)、図18(B)では、発射装置方向変更部54により、発射部50の発射装置CN7〜CN12の方向を制御している。   In FIGS. 18A and 18B, the direction of the launching devices CN7 to CN12 of the launching unit 50 is controlled by the launching device direction changing unit 54.

例えば図18(A)では、発射装置CN7、CN8、CN9、CN10、CN11、CN12の方向(空気の発射方向)が、各々、D7、D8、D9、D10、D11、D12に設定されており、ユーザUSの方に向く方向に変更されている。例えば、あたかもレンズの焦点をユーザUSに合わせるかのように、発射装置CN7〜CN12の方向D7〜D12を変更している。こうすることで、ユーザUSの場所に空気の発射弾が集中するように、発射装置CN7〜CN12から空気を発射することが可能になる。   For example, in FIG. 18A, the directions of the launching devices CN7, CN8, CN9, CN10, CN11, CN12 (air launching directions) are set to D7, D8, D9, D10, D11, D12, respectively. The direction is changed toward the user US. For example, the directions D7 to D12 of the launchers CN7 to CN12 are changed as if the lens is focused on the user US. By doing so, it becomes possible to fire air from the launching devices CN7 to CN12 so that the projectiles of air are concentrated at the location of the user US.

また図18(B)では二人にユーザUS1、US2がマルチプレイのゲームをプレイしている。この場合に発射装置CN7、CN8、CN9の方向D7、D8、D9については、ユーザUS1の方に集中して向くように変更され、発射装置CN10、CN11、CN12の方向D10、D11、D12については、ユーザUS2の方に集中して向くように変更される。こうすることで、ユーザUS1、US2の各々に対して、空気の発射弾が集中するように発射装置CN7〜CN12の空気の発射方向を制御できるようになり、マルチプレイゲームに最適な発射方向の制御を実現できるようになる。   In FIG. 18B, two users US1 and US2 play a multiplayer game. In this case, the directions D7, D8, and D9 of the launchers CN7, CN8, and CN9 are changed so as to be concentrated toward the user US1, and the directions D10, D11, and D12 of the launchers CN10, CN11, and CN12 are changed. , It is changed so as to concentrate on the user US2. By doing so, it becomes possible to control the air firing direction of the launching devices CN7 to CN12 so that the air projecting bullets are concentrated on each of the users US1 and US2, and control of the firing direction optimal for the multiplayer game. Can be realized.

3.5 種々の制御処理
次の本実施形態の発射部50の種々の制御処理について説明する。
3.5 Various Control Processes Various control processes of the launch unit 50 according to this embodiment will be described below.

本実施形態では、仮想空間において気弾がヒットするヒットイベントにおける気弾の発生源オブジェクトを、実空間での発射部50の位置に対応する仮想空間の位置に配置(移動)する処理を行う。例えばヒットイベントにおける、気弾の発生源オブジェクトである敵キャラクタは、ヒットイベント前に、仮想空間上の位置が制御され、実空間の発射部50の方向に位置取りするようにする。例えば発射部50が対応可能な範囲に敵キャラクタが移動する。   In the present embodiment, a process of arranging (moving) a bullet generation source object in a hit event in which a bullet hits in the virtual space at a position in the virtual space corresponding to the position of the launching unit 50 in the real space is performed. For example, an enemy character that is a balloon generation source object in a hit event is controlled in position in the virtual space and positioned in the direction of the launch unit 50 in the real space before the hit event. For example, the enemy character moves within a range that can be handled by the launching unit 50.

例えば図19(A)では、実空間において正面方向に位置する発射部50に対して、ユーザUSの向きは左斜め方向を向いている。従って、この状態で発射部50が空気を発射すると、ユーザUSの右肩等の右側部分に空気が当たることになる。そして図19(B)では、仮想空間において、ユーザUSに対応するユーザキャラクタCHに対して、敵キャラクタCHEが気弾ARを発射する攻撃を行う。この場合に図19(B)の敵キャラクタCHEが、図19(A)に示す実空間での発射部50の位置に対応する仮想空間の位置に移動する。即ち、ユーザキャラクタCHの向く向きに位置していた敵キャラクタCHEが、ユーザキャラクタCHの向く向きに対して右斜め方向に移動している。そしてこのような位置関係で敵キャラクタCHEが気弾ARを発射し、気弾ARのヒット時に、図19(A)に示す位置関係で発射部50が空気をユーザUSに対して発射する。   For example, in FIG. 19A, the direction of the user US is directed to the left oblique direction with respect to the launching unit 50 located in the front direction in the real space. Therefore, when the launch unit 50 emits air in this state, the air hits the right side portion such as the right shoulder of the user US. In FIG. 19B, the enemy character CHE attacks the user character CH corresponding to the user US in the virtual space. In this case, the enemy character CHE in FIG. 19B moves to a position in the virtual space corresponding to the position of the launching unit 50 in the real space shown in FIG. That is, the enemy character CHE located in the direction facing the user character CH is moving in an obliquely right direction with respect to the direction facing the user character CH. Then, the enemy character CHE fires a balloon AR in such a positional relationship, and when the balloon AR hits, the launching unit 50 fires air to the user US in the positional relationship shown in FIG.

このようにすれば、図19(B)の仮想空間においてユーザキャラクタCHの右斜め方向に位置する敵キャラクタCHEが気弾ARを発射して、ユーザキャラクタCHの右側部分にヒットすると、それに応じて図19(A)の実空間においても、ユーザUSの右側部分に発射部50からの空気がヒットするようになる。従って、仮想空間での事象(気弾が右斜め方向からヒットする事象)と、実空間での事象(空気が右斜め方向から当たる事象)が一致するようになり、ユーザUSの仮想現実感を向上できるようになる。   In this way, when the enemy character CHE located in the right diagonal direction of the user character CH in the virtual space of FIG. 19B fires a bullet AR and hits the right side portion of the user character CH, accordingly. Even in the real space of FIG. 19A, the air from the launching unit 50 hits the right portion of the user US. Therefore, an event in the virtual space (an event in which a bullet hits from the right diagonal direction) and an event in the real space (an event in which air hits from the right diagonal direction) coincide with each other. Can be improved.

また図20(A)では、実空間において正面方向に位置する発射部50に対して、ユーザUSの向きは正面方向を向いている。この場合に図20(B)に示すように敵キャラクタCHEがユーザキャラクタCHの左側方向に移動し、図20(C)に示すように発射装置CN7〜CN12を時系列に順次に空気を発射させる制御を行ってもよい。即ち鉛直方向DRVに交差する第1の方向DR1に沿って、発射装置CN7〜CN12が順次に空気を発射する。このように空気の発射を制御すれば、図13(A)〜図14で説明したように、あたかもユーザUSの左斜め方向から発射された空気が当たったような体感をユーザUSに与えることができる。従って、図20(B)のように敵キャラクタCHEがユーザキャラクタCHの左斜め方向に移動して、左斜め方向から気弾ARを発射した場合に、図20(C)に示すように発射部50の発射制御を行うことで、仮想空間での事象と実空間での事象が一致するようになり、ユーザUSの仮想現実感を向上できるようになる。   In FIG. 20A, the direction of the user US faces the front direction with respect to the launching unit 50 located in the front direction in the real space. In this case, the enemy character CHE moves to the left of the user character CH as shown in FIG. 20 (B), and the launching devices CN7 to CN12 are fired sequentially in time series as shown in FIG. 20 (C). Control may be performed. That is, the launchers CN7 to CN12 sequentially fire air along the first direction DR1 that intersects the vertical direction DRV. By controlling the air emission in this way, as described with reference to FIGS. 13A to 14, it is possible to give the user US a sensation as if the air emitted from the left diagonal direction of the user US was hit. it can. Therefore, when the enemy character CHE moves in the diagonally left direction of the user character CH as shown in FIG. 20B and fires a bullet AR from the diagonally left direction, as shown in FIG. By performing 50 launch control, the event in the virtual space and the event in the real space coincide with each other, and the virtual reality of the user US can be improved.

また本実施形態では、HMDを装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報(ユーザトラッキング情報)を取得し、取得したユーザ情報に応じた発射部50の制御を行う。   Further, in the present embodiment, user information (user tracking information) including at least one of position information, direction information, and posture information of the user wearing the HMD is acquired, and control of the launch unit 50 according to the acquired user information is performed. Do.

例えば図21は、フィールドFLにおいて複数のユーザUS1〜US4がプレイするガンシューティングゲーム(FPS)の例である。ユーザUS1〜US4は、HMD1〜HMD4を装着すると共にガン型コントローラGN1〜GN4を所持している。これらのユーザUS1〜US4は、例えばチーム対戦ゲームのためにチーム(グループ)を組んでいる。HMD1〜HMD4には仮想空間での映像が映し出されており、ユーザUS1〜US4は、この映像を見ながらガンシューティングゲームをプレイする。   For example, FIG. 21 shows an example of a gun shooting game (FPS) played by a plurality of users US1 to US4 in the field FL. The users US1 to US4 wear HMD1 to HMD4 and have gun type controllers GN1 to GN4. These users US1 to US4 form a team (group) for a team battle game, for example. A video in the virtual space is displayed on the HMD1 to HMD4, and the users US1 to US4 play a gun shooting game while watching the video.

そして図22ではユーザUS1がフィールドFLにおいてA1、A2に示すように移動している。またフィールドFLには発射部50A〜50Fが配置されている。この場合に、取得されたユーザUS1の位置情報に基づいて、発射部50A〜50Fの制御を行う。例えばユーザUS1が発射部50Aの近くにいることがユーザUS1の位置情報に基づき検出された場合には、発射部50AによりユーザUS1に対して空気を発射する。またユーザUS1が発射部50Dの近くにいることが位置情報に基づき検出された場合には、発射部50Dにより空気を発射する。ユーザUS1が発射部50Eの近くにいることが位置情報に基づき検出された場合には、発射部50Eにより空気を発射する。このようにすれば、ユーザUS1の位置に応じた適切な空気の発射制御を実現できる。この場合に発射部50A〜50Fにより発射する空気は、その場所にいる仮想空間での敵からの攻撃に基づくものであってもよい。或いはユーザUS1に対してフィールドFLの境界等を知らせるために、発射部50A〜50Fにより空気を発射してもよい。   In FIG. 22, the user US1 is moving as indicated by A1 and A2 in the field FL. In addition, launch sections 50A to 50F are arranged in the field FL. In this case, the launchers 50A to 50F are controlled based on the acquired position information of the user US1. For example, when it is detected based on the position information of the user US1 that the user US1 is near the launch unit 50A, the launch unit 50A launches air to the user US1. When it is detected based on the position information that the user US1 is near the launch unit 50D, the launch unit 50D launches air. When it is detected based on the position information that the user US1 is near the launch unit 50E, the launch unit 50E launches air. In this way, it is possible to realize appropriate air emission control according to the position of the user US1. In this case, the air fired by the launchers 50A to 50F may be based on an attack from an enemy in the virtual space in the place. Alternatively, in order to inform the user US1 of the boundary of the field FL, air may be emitted by the emission units 50A to 50F.

また、取得されたユーザの方向情報に基づいて発射部を制御してもよい。例えば実空間のフィールドに複数の発射部が配置される場合に、ユーザの向く方向に対して正対して位置する発射部を優先的に選択し、選択された発射部から空気を発射するようにしてもよい。このようにすれば、ユーザの向く方向に応じた適切な空気の発射制御を実現できるようになる。   Further, the launching unit may be controlled based on the acquired user direction information. For example, when a plurality of projecting units are arranged in a real space field, a projecting unit that is positioned in front of the user is preferentially selected, and air is emitted from the selected projecting unit. May be. In this way, it is possible to realize appropriate air emission control according to the direction in which the user faces.

また、取得されたユーザの姿勢情報に基づいて発射部を制御してもよい。例えばユーザが地面に伏している姿勢である場合には、図5(A)の下段の発射装置CN1〜CN6に空気を発射させる制御を行う。ユーザがしゃがみ姿勢である場合には中段の発射装置CN7〜CN12に空気を発射させる制御を行う。ユーザが立ち姿勢である場合には、上段の発射装置CN13〜CN18に空気を発射させる制御を行う。このようにすればユーザの姿勢に応じた適切な空気の発射制御を実現できるようになる。   Further, the launching unit may be controlled based on the acquired user posture information. For example, when the user is in a posture lying on the ground, control is performed so that the lower launching devices CN1 to CN6 in FIG. When the user is in a squatting posture, control is performed to cause the middle stage launching devices CN7 to CN12 to emit air. When the user is in a standing posture, control is performed so that the upper launch devices CN13 to CN18 emit air. In this way, it is possible to realize appropriate air emission control according to the user's posture.

また本実施形態では発射部50での空気(気体)の発射に対して、音、振動又は画像を連動させるゲーム演出処理を行う。   Further, in the present embodiment, a game effect process is performed in which sound, vibration, or an image is interlocked with the emission of air (gas) in the emission unit 50.

例えば図23に示すように、ユーザUSがプレイするフィールドFLの領域AR1、AR2、AR3には、振動部VB1、VB2、VB3が設けられる。そして図11(A)〜図12(B)で説明したように、発射部50での空気の発射に連動して、振動部VB1、VB2、VB3が振動する。例えば空気の発射タイミングや、空気がユーザUSに当たると予想されるタイミングで、振動部VB1、VB2、VB3が振動する。振動部VB1は例えば振動モータにより実現され、比較的、激しい振動のゲーム演出が可能になる。振動部VB2、VB3はトランスデューサーにより実現され、例えば音信号を用いた柔軟な振動制御によるゲーム演出が可能になる。   For example, as shown in FIG. 23, the vibration parts VB1, VB2, and VB3 are provided in the areas AR1, AR2, and AR3 of the field FL where the user US plays. Then, as described with reference to FIGS. 11A to 12B, the vibration units VB1, VB2, and VB3 vibrate in conjunction with the air emission from the emission unit 50. For example, the vibration parts VB1, VB2, and VB3 vibrate at the timing when the air is emitted or when the air is expected to hit the user US. The vibration part VB1 is realized by, for example, a vibration motor, and a relatively vigorous vibration game effect can be achieved. The vibration parts VB2 and VB3 are realized by transducers, and for example, a game effect by flexible vibration control using sound signals becomes possible.

また発射部50での空気の発射に対して音を連動させるゲーム演出処理を行ってもよい。例えば図23では立体音響を実現するスピーカSP1〜SP5が配置設定されている。これらのスピーカSP1〜SP5は実物のスピーカであってもよいし、ヘッドホンなどにより実現される仮想的なスピーカであってもよい。そしてこれらのスピーカSP1〜SP5を用いて、サラウンドや疑似サラウンドと呼ばれる立体音響のゲーム演出処理を行う。そして例えば図13(A)のようにユーザキャラクタCHに対して左斜め方向から気弾が飛んで来た場合には、左斜め方向から気弾が飛んで来るように聞こえるサラウンド効果を、スピーカSP1〜SP5を用いて実現する。この際に、例えば気弾の画像に対して、エフェクト画像を付加するなどの画像によるゲーム演出を行ってもよい。即ち、発射部50での空気の発射に対して、エフェクト画像を連動させるゲーム演出処理を行う。更に図23に示すように発射部50に設けられた送風機FN1〜FN3を用いたゲーム演出処理を行ってもよい。例えば前述したように、特殊気弾がユーザキャラクタCHにヒットした場合に、そのヒットの余韻を実現するために、ヒット後に送風機FN1〜FN3からユーザUSに対して送風を行う。この場合に特殊気弾の威力(攻撃力)に応じた送風機FN1〜FN3の送風時間や送風の強さを制御するゲーム演出処理を行ってもよい。   Moreover, you may perform the game production | presentation process which makes a sound interlock | cooperate with the discharge of the air in the discharge part 50. For example, in FIG. 23, speakers SP1 to SP5 that realize stereophonic sound are arranged and set. These speakers SP1 to SP5 may be real speakers or virtual speakers realized by headphones or the like. Then, a stereophonic game effect process called surround or pseudo-surround is performed using these speakers SP1 to SP5. Then, for example, as shown in FIG. 13A, when a bullet is blown from the left diagonal direction with respect to the user character CH, the surround effect that sounds like a bullet is blown from the left diagonal direction is given by the speaker SP1. Implemented using ~ SP5. At this time, for example, a game effect by an image such as adding an effect image may be performed on an image of a bullet. That is, a game effect process is performed in which the effect image is linked to the air emission from the emission unit 50. Furthermore, as shown in FIG. 23, game effect processing using the fans FN1 to FN3 provided in the launching unit 50 may be performed. For example, as described above, when a special balloon hits the user character CH, in order to realize the reverberation of the hit, the fans US are blown from the fans FN1 to FN3 after the hit. In this case, you may perform the game production | presentation process which controls the ventilation time and the intensity | strength of ventilation of the air blowers FN1-FN3 according to the power (attack power) of a special air bullet.

また本実施形態では図1に示すように、発射部50は加工部56を有しており、この加工部56により、発射部50が発射する空気(気体)に対して加工を行う。例えば加工部56は、発射する空気の温度を変化させるような加工を行ったり、発射する空気に香りを付けるような加工を行う。また発射する空気の湿度を変化させる加工を行って、ミストのような空気を発射したり、水や雪などを空気に混ぜる加工を行ってもよい。また加工部56は、発射装置CN1〜CN18が発射する空気に対して加工を行ってもよいし、送風機FN1〜FN3が送風する空気に対して加工を行ってもよい。   In the present embodiment, as shown in FIG. 1, the launch unit 50 includes a processing unit 56, and the processing unit 56 processes the air (gas) emitted by the launch unit 50. For example, the process part 56 performs the process which changes the temperature of the air to discharge | emit, or performs the process which gives a scent to the air to discharge | release. Moreover, the process which changes the humidity of the air to discharge | release may be performed and the process which mixes water, snow, etc. with air may be performed, or air like a mist may be discharged. Moreover, the process part 56 may process with respect to the air which the discharge devices CN1-CN18 discharge, and may process with respect to the air which the air blowers FN1-FN3 blow.

この場合に本実施形態では複数の発射装置の第1の発射装置と第2の発射装置とで、発射する空気(気体)に対して異なる加工を行うことが望ましい。   In this case, in the present embodiment, it is desirable to perform different processing on the air (gas) to be fired between the first launching device and the second launching device of the plurality of launching devices.

例えば図24では、発射部50の発射装置CN1〜CN18のうち、下段の発射装置CN1〜CN6が発射する空気に対しては加工Xを行い、中段の発射装置CN7〜CN12が発射する空気に対しては加工Yを行い、上段の発射装置CN13〜CN18が発射する空気に対しては加工Zを行う。加工X、Y、Zは異なる加工であり、例えば空気の温度や湿度を変化させるような加工を行う場合には、加工X、Y、Zは、互いに異なる温度、湿度の空気にする加工である。また空気に香りを付けるような加工を行う場合には、加工X、Y、Zは、互いに異なる香りを付ける加工である。   For example, in FIG. 24, among the launching devices CN1 to CN18 of the launching unit 50, processing X is performed on the air fired by the lower launching devices CN1 to CN6, and the air fired by the middle launching devices CN7 to CN12 is performed. Then, processing Y is performed, and processing Z is performed on the air emitted by the upper launching devices CN13 to CN18. Processes X, Y, and Z are different processes. For example, when performing processes that change the temperature and humidity of the air, the processes X, Y, and Z are processes that change the air to temperatures and humidity that are different from each other. . Further, when processing that adds scent to air is performed, the processing X, Y, and Z are processing that give different scents.

また図25では、図22で説明したようにユーザUS1がA1、A2に示すようにフィールドFLを移動している。この場合に例えば発射部50A、50Bから発射される空気に対しては加工Xを行い、発射部50C、50Dから発射される空気に対しては加工Yを行い、発射部50E、50Fから発射される空気に対しては加工Zを行う。このようにすれば、ユーザUS1が位置するエリアに応じて、異なった加工が行われた空気がユーザUS1に対して発射されるようになる。例えば発射部50A、50BのエリアにユーザUS1が位置する場合には、第1の温度又は第1の湿度の空気を発射したり、第1の香りの空気を発射する。また発射部50C、50DのエリアにユーザUS1が位置する場合には、第2の温度又は第2の湿度の空気を発射したり、第2の香りの空気を発射する。発射部50E、50FのエリアにユーザUS1が位置する場合には、第3の温度又は第3の湿度の空気を発射したり、第3の香りの空気を発射する。   In FIG. 25, as described with reference to FIG. 22, the user US1 moves the field FL as indicated by A1 and A2. In this case, for example, processing X is performed on air emitted from the launch units 50A and 50B, processing Y is performed on air emitted from the launch units 50C and 50D, and fired from the launch units 50E and 50F. Machining Z is performed on the air. If it does in this way, according to the area where user US1 is located, the air in which different processing was performed will be launched to user US1. For example, when the user US1 is located in the area of the launch units 50A and 50B, the air of the first temperature or the first humidity is fired or the air of the first scent is fired. When the user US1 is located in the area of the launch units 50C and 50D, air of the second temperature or second humidity is fired or air of the second scent is fired. When the user US1 is located in the area of the launch units 50E and 50F, the air of the third temperature or the third humidity is fired or the air of the third scent is fired.

このようにすれば、ユーザUS1が位置するエリアに応じて、異なった温度又は湿度の空気、或いは異なった香りの空気がユーザに対して発射されるようになり、より多様でゲーム演出効果の高い空気の発射制御を実現できるようになる。   If it does in this way, according to the area where user US1 is located, the air of different temperature or humidity, or the air of a different fragrance will be discharged with respect to a user, and it is more diverse and has high game production effect. Air emission control can be realized.

4.詳細な処理
次に本実施形態の詳細な処理例について図26のフローチャートを用いて説明する。
4). Detailed Processing Next, a detailed processing example of this embodiment will be described with reference to the flowchart of FIG.

まず気弾が発射されたか否かを判断する(ステップS1)。例えば仮想空間において、発生源オブジェクトである敵キャラクタが気弾を発射したか否かを判断する。そして、気弾が発射された場合には、発射された気弾がユーザキャラクタにヒットしたか否かを判断する(ステップS2)。例えば気弾の軌道とユーザキャラクタのヒットボリュームの交差判定等を行うなどのヒット判定処理を行って、気弾がユーザキャラクタにヒットするか否かを判断する。そして気弾がヒットする場合には、気弾のヒット方向又はヒットベクトルを取得する(ステップS3)。例えば気弾がユーザキャラクタにヒットする際の気弾の移動方向、移動速度などに基づいて、ヒット方向、ヒットベクトルを求める。そして気弾のヒット方向又はヒットベクトルに応じた発射装置の選定処理、発射タイミングの制御処理、発射出力度合いの制御処理を行って、空気を発射する(ステップS4)。   First, it is determined whether or not a bullet has been fired (step S1). For example, in the virtual space, it is determined whether the enemy character that is the source object has fired a bullet. If a bullet is fired, it is determined whether the fired bullet has hit the user character (step S2). For example, hit determination processing such as intersection determination between the trajectory of the bullet and the hit volume of the user character is performed to determine whether the bullet hits the user character. When a bullet is hit, the hit direction or hit vector of the bullet is acquired (step S3). For example, the hit direction and hit vector are obtained based on the movement direction and movement speed of the bullet when the bullet hits the user character. Then, a launching device selection process, a firing timing control process, and a firing output degree control process corresponding to the hit direction or hit vector of the air bullet are performed to fire the air (step S4).

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(気体、被ヒットオブジェクト、発生源オブジェクト、ユーザ移動体等)と共に記載された用語(空気、気弾、敵キャラクタ、ユーザキャラクタ等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、仮想空間の設定処理、ゲーム処理、発射部の制御処理、発射装置の制御処理、表示処理、ユーザ情報の取得処理、移動体の移動処理、ヒット演算処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、又は多数のユーザが参加する大型アトラクションシステム等の種々のシミュレーションシステムに適用できる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, in the specification or drawings, terms (air, air bombs, enemy characters, user characters) described at least once together with different terms (gas, hit object, source object, user moving object, etc.) having a broader meaning or the same meaning Etc.) may be replaced by the different terms anywhere in the specification or drawings. The virtual space setting process, game process, launcher control process, launcher control process, display process, user information acquisition process, moving object move process, hit calculation process, and the like have also been described in this embodiment. The present invention is not limited to these, and techniques, processes, and configurations equivalent to these are also included in the scope of the present invention. The present invention can be applied to various games. Further, the present invention can be applied to various simulation systems such as a business game device, a home game device, or a large attraction system in which a large number of users participate.

CN1〜CNM 発射装置、FN1〜FN3 送風機、FL、VFL フィールド、
AR1〜AR3 領域、VB1〜VB3 振動部、
CH ユーザキャラクタ、AR 気弾(被ヒットオブジェクト)、
CHE、CHE1〜CHE3 敵キャラクタ(発生源オブジェクト)、
HMD、HMD1〜HMD4 頭部装着型表示装置、SP1〜SP4 スピーカ、
US、US1〜US4 ユーザ、GN1〜GN4 ガン型コントローラ、
DH ヒット方向、VH ヒットベクトル、DR1、DR2 第1、第2の方向、
DRV 鉛直方向、DRA、D7〜D12 方向、
40 筐体、50、50A〜50F 発射部、52 発射部方向変更部、
54 発射装置方向変更部、60 処理装置、62、64 支持部、70 発射装置、
72 スピーカ、74 振動板、76 空気蓄積部、78 発射口、
100 処理部、102 入力処理部、110 演算処理部、111 情報取得部、
112 仮想空間設定部、113 移動体処理部、114 仮想カメラ制御部、
115 ゲーム処理部、116 ヒット演算処理部、118 制御部、
120 表示処理部、130 音処理部、140 出力処理部、
150 撮像部、151、152 カメラ、160 操作部、
170 記憶部、172 オブジェクト情報記憶部、178 描画バッファ、
180 情報記憶媒体、192 音出力部、194 I/F部、
195 携帯型情報記憶媒体、196 通信部、
200 HMD(頭部装着型表示装置)、201〜203 受光素子、210 センサ部、
220 表示部、231〜236 発光素子、240 処理部、
251、252、253 トラッキング装置、260 ヘッドバンド、
270 ヘッドホン、280、284 ベースステーション、
281、282、285、286 発光素子
CN1-CNM launcher, FN1-FN3 blower, FL, VFL field,
AR1 to AR3 region, VB1 to VB3 vibration part,
CH User character, AR bullet (object hit),
CHE, CHE1 to CHE3 Enemy character (source object),
HMD, HMD1 to HMD4 head-mounted display device, SP1 to SP4 speaker,
US, US1-US4 user, GN1-GN4 gun type controller,
DH hit direction, VH hit vector, DR1, DR2 first and second directions,
DRV vertical direction, DRA, D7-D12 direction,
40 housing, 50, 50A to 50F launching unit, 52 launching unit direction changing unit,
54 launching device direction changing unit, 60 processing device, 62, 64 support unit, 70 launching device,
72 Speaker, 74 Diaphragm, 76 Air accumulator, 78 Launch port,
100 processing units, 102 input processing units, 110 arithmetic processing units, 111 information acquisition units,
112 virtual space setting unit, 113 moving body processing unit, 114 virtual camera control unit,
115 game processing unit, 116 hit calculation processing unit, 118 control unit,
120 display processing unit, 130 sound processing unit, 140 output processing unit,
150 imaging unit, 151, 152 camera, 160 operation unit,
170 storage unit, 172 object information storage unit, 178 drawing buffer,
180 Information storage medium, 192 sound output unit, 194 I / F unit,
195 portable information storage medium, 196 communication unit,
200 HMD (head-mounted display device), 201-203 light receiving element, 210 sensor unit,
220 display unit, 231 to 236 light emitting element, 240 processing unit,
251, 252, 253 tracking device, 260 headband,
270 headphones, 280, 284 base station,
281, 282, 285, 286 Light emitting element

Claims (12)

視界を覆うように頭部装着型表示装置を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、
仮想空間の設定処理を行う仮想空間設定部と、
前記仮想空間でのゲームの処理を行うゲーム処理部と、
前記ユーザに対して気体の発射が可能な発射部の制御を行う制御部と、
前記ユーザが装着する前記頭部装着型表示装置の表示画像を生成する表示処理部と、
を含み、
前記発射部には、複数の発射装置が配置され、
前記制御部は、
前記仮想空間でのゲーム状況と前記ユーザ情報に応じて、前記発射部の制御処理を行うことを特徴とするシミュレーションシステム。
An information acquisition unit that acquires user information including at least one of position information, direction information, and posture information of a user who wears the head-mounted display device so as to cover the field of view;
A virtual space setting unit for performing virtual space setting processing;
A game processing unit for processing a game in the virtual space;
A control unit for controlling a launching unit capable of emitting a gas to the user;
A display processing unit that generates a display image of the head-mounted display device worn by the user;
Including
In the launch unit, a plurality of launch devices are arranged,
The controller is
The simulation system characterized by performing the control process of the said emission part according to the game condition and the said user information in the said virtual space.
請求項1において、
前記発射部には、複数の前記発射装置がマトリクス状に配置され、
前記制御部は、
マトリクス状に配置された複数の前記発射装置の制御処理を行うことを特徴とするシミュレーションシステム。
In claim 1,
In the launch unit, a plurality of the launch devices are arranged in a matrix,
The controller is
A simulation system that performs control processing of a plurality of the launching devices arranged in a matrix.
請求項1又は2において、
前記制御部は、
前記仮想空間において前記気体に対応する被ヒットオブジェクトがヒットするヒットイベントが発生した場合に、前記発射部での前記発射装置の選定処理、前記気体の発射タイミングの制御処理、及び前記気体の発射出力度合いの制御処理の少なくとも1つを行うことを特徴とするシミュレーションシステム。
In claim 1 or 2,
The controller is
When a hit event that hits the hit object corresponding to the gas occurs in the virtual space, the launching device selection process in the launching unit, the gas firing timing control process, and the gas firing output A simulation system characterized by performing at least one of degree control processing.
請求項3において、
前記制御部は、
前記被ヒットオブジェクトのヒット方向又はヒットベクトルに応じて、前記発射部での前記発射装置の選定処理、前記気体の発射タイミングの制御処理、及び前記気体の発射出力度合いの制御処理の少なくとも1つを行うことを特徴とするシミュレーションシステム。
In claim 3,
The controller is
Depending on the hit direction or hit vector of the hit object, at least one of the selection process of the launching device in the launching unit, the control process of the gas firing timing, and the control process of the gas firing output degree is performed. A simulation system characterized by performing.
請求項3又は4において、
複数の前記発射装置は、鉛直方向に交差する第1の方向に沿った第1〜第Nの発射装置を含み、
前記制御部は、
前記ユーザに対応するユーザ移動体に対して前記被ヒットオブジェクトが斜め方向にヒットする前記ヒットイベントが発生した場合に、前記第1の発射装置から前記第Nの発射装置へと順次に前記気体が発射されるように前記発射部を制御することを特徴とするシミュレーションシステム。
In claim 3 or 4,
The plurality of launchers include first to Nth launchers along a first direction intersecting a vertical direction,
The controller is
When the hit event occurs in which the hit object hits in an oblique direction with respect to the user moving object corresponding to the user, the gas is sequentially supplied from the first launching device to the Nth launching device. A simulation system, characterized in that the launching unit is controlled to be fired.
請求項1乃至5のいずれかにおいて、
前記発射部は、前記発射部の方向を変更する発射部方向変更部を含み、
前記制御部は、
前記ゲーム状況に応じて、前記発射部方向変更部の制御を行うことを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 5,
The launcher includes a launcher direction changer that changes the direction of the launcher,
The controller is
A simulation system that controls the launching unit direction changing unit according to the game situation.
請求項1乃至6のいずれかにおいて、
前記発射部は、複数の前記発射装置の方向を変更する発射装置方向変更部を含み、
前記制御部は、
前記ゲーム状況に応じて、前記発射装置方向変更部の制御を行うことを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 6.
The launcher includes a launcher direction changing unit that changes the direction of the plurality of launchers,
The controller is
A simulation system that controls the launching device direction changing unit according to the game situation.
請求項1乃至7のいずれかにおいて、
前記仮想空間設定部は、
前記仮想空間において前記気体に対応する被ヒットオブジェクトがヒットするヒットイベントにおける前記被ヒットオブジェクトの発生源オブジェクトを、実空間での前記発射部の位置に対応する仮想空間の位置に配置する処理を行うことを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 7,
The virtual space setting unit
A process of placing the generation object of the hit object in a hit event where the hit object corresponding to the gas hits in the virtual space at a position in the virtual space corresponding to the position of the launching unit in real space is performed. A simulation system characterized by that.
請求項1乃至8のいずれかにおいて、
前記ゲーム処理部は、
前記発射部での前記気体の発射に対して、音、振動又は画像を連動させるゲーム演出処理を行うことを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 8.
The game processing unit
A simulation system characterized by performing a game effect process in which sound, vibration, or an image is linked to the gas emission at the emission unit.
請求項1乃至9のいずれかにおいて、
前記発射部は、発射する前記気体を加工する加工部を含むことを特徴とするシミュレーションシステム。
In any one of Claims 1 thru | or 9,
The simulation system, wherein the launching unit includes a processing unit that processes the gas to be fired.
請求10において、
前記加工部は、
複数の前記発射装置の第1の発射装置と第2の発射装置とで、発射する前記気体に対して異なる加工を行うことを特徴とするシミュレーションシステム。
In claim 10,
The processed portion is
A simulation system characterized in that different processing is performed on the gas to be emitted by the first launching device and the second launching device of the plurality of launching devices.
視界を覆うように頭部装着型表示装置を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、
仮想空間の設定処理を行う仮想空間設定部と、
前記仮想空間でのゲームの処理を行うゲーム処理部と、
前記ユーザに対して気体の発射が可能な発射部の制御を行う制御部と、
前記ユーザが装着する前記頭部装着型表示装置の表示画像を生成する表示処理部として、
コンピュータを機能させ、
前記発射部には、複数の発射装置が配置され、
前記制御部は、
前記仮想空間でのゲーム状況と前記ユーザ情報に応じて、前記発射部の制御処理を行うことを特徴とするプログラム。
An information acquisition unit that acquires user information including at least one of position information, direction information, and posture information of a user who wears the head-mounted display device so as to cover the field of view;
A virtual space setting unit for performing virtual space setting processing;
A game processing unit for processing a game in the virtual space;
A control unit for controlling a launching unit capable of emitting a gas to the user;
As a display processing unit that generates a display image of the head-mounted display device worn by the user,
Make the computer work,
In the launch unit, a plurality of launch devices are arranged,
The controller is
The program which performs the control process of the said emission part according to the game situation in the said virtual space, and the said user information.
JP2017071996A 2017-03-31 2017-03-31 Simulation system and program Active JP6935218B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017071996A JP6935218B2 (en) 2017-03-31 2017-03-31 Simulation system and program
CN201810259103.8A CN108686371A (en) 2017-03-31 2018-03-27 Analogue system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017071996A JP6935218B2 (en) 2017-03-31 2017-03-31 Simulation system and program

Publications (2)

Publication Number Publication Date
JP2018171319A true JP2018171319A (en) 2018-11-08
JP6935218B2 JP6935218B2 (en) 2021-09-15

Family

ID=63844610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017071996A Active JP6935218B2 (en) 2017-03-31 2017-03-31 Simulation system and program

Country Status (2)

Country Link
JP (1) JP6935218B2 (en)
CN (1) CN108686371A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020103782A (en) * 2018-12-28 2020-07-09 トヨタ紡織株式会社 Space provision system
WO2021090433A1 (en) * 2019-11-07 2021-05-14 日本電信電話株式会社 Stimulus presentation device, stimulus presentation method, and stimulus presentation program
WO2023127403A1 (en) * 2021-12-27 2023-07-06 パナソニックホールディングス株式会社 System for improving realistic sensations and program for improving realistic sensations in vr

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1133224A (en) * 1997-07-22 1999-02-09 Namco Ltd Air bullet generating device, game device and producing device
WO2006006686A1 (en) * 2004-07-15 2006-01-19 Nippon Telegraph And Telephone Corporation Inner force sense presentation device, inner force sense presentation method, and inner force sense presentation program
JP2012205827A (en) * 2011-03-30 2012-10-25 Namco Bandai Games Inc Game system
JP2016126772A (en) * 2014-12-31 2016-07-11 イマージョン コーポレーションImmersion Corporation Systems and methods for generating haptically enhanced objects for augmented and virtual reality applications

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140227666A1 (en) * 2011-10-04 2014-08-14 Emil Stefanov Milanov Extreme optical shooting simulator
CN106373289A (en) * 2016-10-31 2017-02-01 中山市小榄镇丰兴包装机械厂 Virtual reality entertainment machine

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1133224A (en) * 1997-07-22 1999-02-09 Namco Ltd Air bullet generating device, game device and producing device
WO2006006686A1 (en) * 2004-07-15 2006-01-19 Nippon Telegraph And Telephone Corporation Inner force sense presentation device, inner force sense presentation method, and inner force sense presentation program
JP2012205827A (en) * 2011-03-30 2012-10-25 Namco Bandai Games Inc Game system
JP2016126772A (en) * 2014-12-31 2016-07-11 イマージョン コーポレーションImmersion Corporation Systems and methods for generating haptically enhanced objects for augmented and virtual reality applications

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020103782A (en) * 2018-12-28 2020-07-09 トヨタ紡織株式会社 Space provision system
JP7326740B2 (en) 2018-12-28 2023-08-16 トヨタ紡織株式会社 Spatial provision system
WO2021090433A1 (en) * 2019-11-07 2021-05-14 日本電信電話株式会社 Stimulus presentation device, stimulus presentation method, and stimulus presentation program
JPWO2021090433A1 (en) * 2019-11-07 2021-05-14
JP7335527B2 (en) 2019-11-07 2023-08-30 日本電信電話株式会社 Stimulus presentation device, stimulus presentation method, and stimulus presentation program
US11893879B2 (en) 2019-11-07 2024-02-06 Nippon Telegraph And Telephone Corporation Stimulus presentation apparatus, stimulus presentation method and program
WO2023127403A1 (en) * 2021-12-27 2023-07-06 パナソニックホールディングス株式会社 System for improving realistic sensations and program for improving realistic sensations in vr

Also Published As

Publication number Publication date
CN108686371A (en) 2018-10-23
JP6935218B2 (en) 2021-09-15

Similar Documents

Publication Publication Date Title
US11014000B2 (en) Simulation system, processing method, and information storage medium
US11865453B2 (en) Simulation system, process method, and information storage medium
JP5161256B2 (en) Program, information storage medium, and image generation apparatus
WO2018124280A1 (en) Simulation system, image processing method, and information storage medium
US9345972B2 (en) Information storage medium, image generation system, and image generation method
US11738270B2 (en) Simulation system, processing method, and information storage medium
US11090554B2 (en) Simulation system, image processing method, and information storage medium
JP2018010488A (en) Simulation system and program
JP7071823B2 (en) Simulation system and program
JP6774260B2 (en) Simulation system
JP6935218B2 (en) Simulation system and program
JP2018171320A (en) Simulation system and program
JP6290490B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP4363595B2 (en) Image generating apparatus and information storage medium
JP6918189B2 (en) Simulation system and program
JP4114825B2 (en) Image generating apparatus and information storage medium
JP5597869B2 (en) Program, information storage medium, and image generation apparatus
JP2018171309A (en) Simulation system and program
JP6660321B2 (en) Simulation system and program
JP2011255114A (en) Program, information storage medium, and image generation system
JP2019176934A (en) Simulation system
JP2005319108A (en) Program, information storage medium, and image forming system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20190125

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190222

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210825

R150 Certificate of patent or registration of utility model

Ref document number: 6935218

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250