JP6935218B2 - Simulation system and program - Google Patents

Simulation system and program Download PDF

Info

Publication number
JP6935218B2
JP6935218B2 JP2017071996A JP2017071996A JP6935218B2 JP 6935218 B2 JP6935218 B2 JP 6935218B2 JP 2017071996 A JP2017071996 A JP 2017071996A JP 2017071996 A JP2017071996 A JP 2017071996A JP 6935218 B2 JP6935218 B2 JP 6935218B2
Authority
JP
Japan
Prior art keywords
user
launching
unit
gas
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017071996A
Other languages
Japanese (ja)
Other versions
JP2018171319A (en
Inventor
山本 修
修 山本
雅信 伊藤
雅信 伊藤
慎也 丹羽
慎也 丹羽
規雄 江頭
規雄 江頭
兼子 英之
英之 兼子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Amusement Inc
Original Assignee
Bandai Namco Amusement Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Amusement Inc filed Critical Bandai Namco Amusement Inc
Priority to JP2017071996A priority Critical patent/JP6935218B2/en
Priority to CN201810259103.8A priority patent/CN108686371A/en
Publication of JP2018171319A publication Critical patent/JP2018171319A/en
Application granted granted Critical
Publication of JP6935218B2 publication Critical patent/JP6935218B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1037Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted for converting control signals received from the game device into a haptic signal, e.g. using force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/302Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device specially adapted for receiving control signals not targeted to a display device or game input means, e.g. vibrating driver's seat, scent dispenser
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Description

本発明は、シミュレーションシステム及びプログラム等に関する。 The present invention relates to a simulation system, a program, and the like.

従来より、HMD(頭部装着型表示装置)をユーザが頭部に装着し、HMDの画面に表示される画像をユーザが見ることで、いわゆるバーチャルリアリティー(VR)の世界を体感できるシミュレーションシステムが知られている。このようなシミュレーションシステムの従来技術としては、例えば特許文献1等に開示される技術がある。 Conventionally, a simulation system that allows the user to experience the world of so-called virtual reality (VR) by wearing the HMD (head-mounted display device) on the head and viewing the image displayed on the screen of the HMD. Are known. As a conventional technique of such a simulation system, for example, there is a technique disclosed in Patent Document 1 and the like.

特開平11−309269号公報Japanese Unexamined Patent Publication No. 11-309269

HMDを用いたシミュレーションシステムでは、ユーザの視界がHMDにより覆われてしまい、視界が外界から遮断される。一方、HMDには仮想空間(VR空間)の画像が表示されるが、仮想空間の画像だけではユーザの仮想現実感を今ひとつ高めることができない。このため、ユーザの仮想現実感を高めることができるような体感装置を用いることが望ましい。 In the simulation system using the HMD, the user's field of view is covered by the HMD, and the field of view is blocked from the outside world. On the other hand, although the image of the virtual space (VR space) is displayed on the HMD, the virtual reality of the user cannot be enhanced only by the image of the virtual space. Therefore, it is desirable to use a sensory device that can enhance the virtual reality of the user.

しかしながら、このような体感装置を設ける場合には、衛生面、運営面、安全面等について考慮する必要がある。また体感装置の規模があまりにも大規模になってしまうと、現実的ではなく、コスト面等においても問題がある。 However, when providing such a sensory device, it is necessary to consider hygiene, operation, safety, and the like. Further, if the scale of the sensory device becomes too large, it is not realistic and there is a problem in terms of cost and the like.

本発明の幾つかの態様によれば、頭部装着型表示装置を用いるシステムにおいて、気体の発射部を有効活用して仮想現実感の向上を図れるシミュレーションシステム及びプログラム等を提供できる。 According to some aspects of the present invention, in a system using a head-mounted display device, it is possible to provide a simulation system and a program that can effectively utilize a gas emitting unit to improve virtual reality.

本発明の一態様は、視界を覆うように頭部装着型表示装置を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、仮想空間の設定処理を行う仮想空間設定部と、前記仮想空間でのゲームの処理を行うゲーム処理部と、前記ユーザに対して気体の発射が可能な発射部の制御を行う制御部と、前記ユーザが装着する前記頭部装着型表示装置の表示画像を生成する表示処理部と、を含み、前記発射部には、複数の発射装置が配置され、前記制御部は、前記仮想空間でのゲーム状況と前記ユーザ情報に応じて、前記発射部の制御処理を行うシミュレーションシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。 One aspect of the present invention includes an information acquisition unit that acquires user information including at least one of position information, direction information, and attitude information of a user who wears a head-mounted display device so as to cover the field of view, and a virtual space. A virtual space setting unit that performs setting processing, a game processing unit that processes a game in the virtual space, a control unit that controls a launching unit capable of emitting gas to the user, and a control unit worn by the user. A display processing unit that generates a display image of the head-mounted display device is included, and a plurality of launching devices are arranged in the launching unit, and the control unit is used for a game situation in the virtual space and the above. It relates to a simulation system that performs control processing of the launching unit according to user information. The present invention also relates to a program that causes a computer to function as each of the above parts, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報が取得される。また仮想空間の設定処理が行われ、当該仮想空間でのゲームの処理が行われて、ユーザが装着する頭部装着型表示装置の表示画像が生成されると共に、頭部装着型表示装置を装着するユーザに対して気体の発射が可能な発射部の制御が行われる。そして発射部には複数の発射装置が配置され、このように複数の発射装置が配置される発射部の制御処理が、仮想空間でのゲーム状況やユーザ情報に応じて行われる。このようにすれば、視界を覆うように頭部装着型表示装置を装着するユーザに対して、仮想空間のゲーム状況やユーザ情報に対応するように、発射部の複数の発射装置により気体を発射できるようになる。従って、例えば頭部装着型表示装置に表示される画像に連動するように、発射部からの気体が身体等に当たることによる触覚による体感をユーザに与えることができる。また例えばユーザの位置、方向又は姿勢に応じた適切な発射部の気体の発射制御の実現も可能になる。これにより、頭部装着型表示装置を用いるシステムにおいて、気体の発射部を有効活用して仮想現実感の向上を図れるシミュレーションシステム等の提供が可能になる。 According to one aspect of the present invention, user information including at least one of the user's position information, direction information, and posture information is acquired. In addition, the virtual space setting process is performed, the game process in the virtual space is performed, the display image of the head-mounted display device worn by the user is generated, and the head-mounted display device is mounted. The launching unit capable of emitting gas is controlled for the user. Then, a plurality of launching devices are arranged in the launching unit, and the control processing of the launching unit in which the plurality of launching devices are arranged is performed according to the game situation and the user information in the virtual space. In this way, the user who wears the head-mounted display device so as to cover the field of view emits gas by a plurality of launching devices of the launching unit so as to correspond to the game situation and user information in the virtual space. become able to. Therefore, for example, the user can be given a tactile sensation due to the gas from the launching portion hitting the body or the like so as to be linked to the image displayed on the head-mounted display device. Further, for example, it is possible to realize appropriate gas emission control of the launching unit according to the position, direction or posture of the user. As a result, in a system using a head-mounted display device, it is possible to provide a simulation system or the like that can effectively utilize the gas emitting unit to improve the virtual reality.

また本発明の一態様では、前記発射部には、複数の前記発射装置がマトリクス状に配置され、前記制御部は、マトリクス状に配置された複数の前記発射装置の制御処理を行ってもよい。 Further, in one aspect of the present invention, a plurality of the launching devices may be arranged in a matrix in the launching unit, and the control unit may perform control processing of the plurality of launching devices arranged in the matrix. ..

このようにすれば、マトリクス状に配置された複数の発射装置を用いて、複数の発射装置により一斉に気体を発射したり、発射タイミングをずらして気体を発射するなどの多様な発射制御を実現できるようになる。 In this way, various launch controls such as launching gas all at once by multiple launchers or launching gas at different launch timings using multiple launchers arranged in a matrix are realized. become able to.

また本発明の一態様では、前記制御部は、前記仮想空間において前記気体に対応する被ヒットオブジェクトがヒットするヒットイベントが発生した場合に、前記発射部での前記発射装置の選定処理、前記気体の発射タイミングの制御処理、及び前記気体の発射出力度合いの制御処理の少なくとも1つを行ってもよい。 Further, in one aspect of the present invention, when a hit event in which a hit object corresponding to the gas hits occurs in the virtual space, the control unit performs a process of selecting the launching device in the launching unit, the gas. At least one of the control process of the firing timing of the gas and the control process of the firing output degree of the gas may be performed.

このようにすれば、仮想空間において気体に対応する被ヒットオブジェクトがヒットするヒットイベントが発生すると、当該ヒットイベントを触覚によりユーザに効果的に体感させるために、発射装置の選定処理、発射タイミングの制御処理、発射出力度合いの制御処理が行われるようになり、ユーザの仮想現実感の向上を図れる。 In this way, when a hit event in which the hit object corresponding to the gas hits occurs in the virtual space, the selection process of the launching device and the firing timing are performed so that the user can effectively experience the hit event by tactile sensation. Control processing and control processing of the degree of firing output will be performed, and the virtual reality of the user can be improved.

また本発明の一態様では、前記制御部は、前記被ヒットオブジェクトのヒット方向又はヒットベクトルに応じて、前記発射部での前記発射装置の選定処理、前記気体の発射タイミングの制御処理、及び前記気体の発射出力度合いの制御処理の少なくとも1つを行ってもよい。 Further, in one aspect of the present invention, the control unit performs a process of selecting the launcher at the launch unit, a process of controlling the launch timing of the gas, and the process of controlling the launch timing of the gas according to the hit direction or the hit vector of the hit object. At least one of the control processes of the degree of emission output of the gas may be performed.

このようにすれば、被ヒットオブジェクトのヒット方向又はヒットベクトルに対応するように、発射装置の選定処理、発射タイミングの制御処理、発射出力度合いの制御処理が行われるようになり、被ヒットオブジェクトのヒット方向やヒットベクトルをユーザに触覚的に認識させることが可能になる。 In this way, the launch device selection process, the launch timing control process, and the launch output degree control process are performed so as to correspond to the hit direction or hit vector of the hit object, and the hit object can be hit. It is possible to make the user tactilely recognize the hit direction and the hit vector.

また本発明の一態様では、複数の前記発射装置は、鉛直方向に交差する第1の方向に沿った第1〜第Nの発射装置を含み、前記制御部は、前記ユーザに対応するユーザ移動体に対して前記被ヒットオブジェクトが斜め方向にヒットする前記ヒットイベントが発生した場合に、前記第1の発射装置から前記第Nの発射装置へと順次に前記気体が発射されるように前記発射部を制御してもよい。 Further, in one aspect of the present invention, the plurality of launchers include first to Nth launchers along a first direction intersecting in the vertical direction, and the control unit moves the user corresponding to the user. When the hit event occurs in which the hit object hits the body in an oblique direction, the gas is fired sequentially from the first launching device to the Nth launching device. The unit may be controlled.

このようにすれば、第1の発射装置から第Nの発射装置へと順次に気体が発射してユーザに当てることで、あたかも被ヒットオブジェクトが斜め方向にヒットしたかのようにユーザに錯覚させることが可能になる。 In this way, the gas is sequentially emitted from the first launching device to the Nth launching device and hits the user, thereby giving the user the illusion that the hit object is hit in an oblique direction. Will be possible.

また本発明の一態様では、前記発射部は、前記発射部の方向を変更する発射部方向変更部を含み、前記制御部は、前記ゲーム状況に応じて、前記発射部方向変更部の制御を行ってもよい。 Further, in one aspect of the present invention, the launching unit includes a launching unit direction changing unit that changes the direction of the launching unit, and the control unit controls the launching unit direction changing unit according to the game situation. You may go.

このようにすれば、ゲーム状況に応じて、発射部方向変更部の制御を行って、発射部の方向を変更することで、発射部の気体の発射方向をゲーム状況に応じて変更できるようになる。 In this way, the launch direction of the gas in the launch section can be changed according to the game situation by controlling the launch section direction change section and changing the direction of the launch section according to the game situation. Become.

また本発明の一態様では、前記発射部は、複数の前記発射装置の方向を変更する発射装置方向変更部を含み、前記制御部は、前記ゲーム状況に応じて、前記発射装置方向変更部の制御を行ってもよい。 Further, in one aspect of the present invention, the launching unit includes a plurality of launching device direction changing units that change the direction of the launching device, and the control unit is a launching device direction changing unit according to the game situation. Control may be performed.

このようにすれば、ゲーム状況に応じて、発射装置方向変更部の制御を行って、発射装置の方向を変更することで、発射装置の気体の発射方向をゲーム状況に応じて変更できるようになる。 In this way, by controlling the launcher direction changing unit according to the game situation and changing the direction of the launcher, the launch direction of the gas of the launcher can be changed according to the game situation. Become.

また本発明の一態様では、前記仮想空間設定部は、前記仮想空間において前記気体に対応する被ヒットオブジェクトがヒットするヒットイベントにおける前記被ヒットオブジェクトの発生源オブジェクトを、実空間での前記発射部の位置に対応する仮想空間の位置に配置する処理を行ってもよい。 Further, in one aspect of the present invention, the virtual space setting unit sets the source object of the hit object in the hit event in which the hit object corresponding to the gas hits in the virtual space, and the launching unit in the real space. The process of arranging the object at the position of the virtual space corresponding to the position of may be performed.

このようにすれば、仮想空間での被ヒットオブジェクトの発生源オブジェクトの位置と、実空間での発射部の位置とを対応させることが可能になり、発射部により発射された気体がユーザに当たることによる触覚による体感を、より適切なものにすることが可能になる。 In this way, it is possible to make the position of the source object of the hit object in the virtual space correspond to the position of the launching part in the real space, and the gas emitted by the launching part hits the user. It is possible to make the tactile sensation of the object more appropriate.

また本発明の一態様では、前記ゲーム処理部は、前記発射部での前記気体の発射に対して、音、振動又は画像を連動させるゲーム演出処理を行ってもよい。 Further, in one aspect of the present invention, the game processing unit may perform game effect processing in which sound, vibration, or an image is linked to the emission of the gas by the launching unit.

このようにすれば、発射部により発射された気体が当たることによる触覚による体感に連動させて、音、振動又は画像によるゲーム演出処理を実行できるようになる。 In this way, it becomes possible to execute the game effect processing by sound, vibration, or image in conjunction with the tactile sensation caused by the gas emitted by the launching unit.

また本発明の一態様では、前記発射部は、発射する前記気体を加工する加工部を含んでもよい。 Further, in one aspect of the present invention, the launching portion may include a processing portion for processing the gas to be launched.

このようにすれば、加工部により加工された気体をユーザに対して発射できるようになり、同じ発射部を用いながらも、気体の発射による様々な体感をユーザに与えることが可能になる。 In this way, the gas processed by the processing unit can be emitted to the user, and it is possible to give the user various sensations due to the emission of the gas while using the same emission unit.

また本発明の一態様では、前記加工部は、複数の前記発射装置の第1の発射装置と第2の発射装置とで、発射する前記気体に対して異なる加工を行ってもよい。 Further, in one aspect of the present invention, the processing unit may perform different processing on the gas to be launched by the first launching device and the second launching device of the plurality of launching devices.

このようにすれば、第1の発射装置を用いる場合と、第2の発射装置を用いる場合とで、ユーザに対して、異なる加工が行われた気体を発射できるようになり、気体の発射による多様な体感をユーザに与えることが可能になる。 In this way, it becomes possible to launch a gas that has been processed differently to the user depending on whether the first launching device is used or the second launching device is used. It is possible to give users a variety of experiences.

本実施形態のシミュレーションシステムの構成例を示すブロック図。The block diagram which shows the configuration example of the simulation system of this embodiment. 図2(A)、図2(B)は本実施形態に用いられるHMDの一例。2 (A) and 2 (B) are examples of the HMD used in this embodiment. 図3(A)、図3(B)は本実施形態に用いられるHMDの他の例。3 (A) and 3 (B) are other examples of the HMD used in this embodiment. シミュレーションシステムの筺体の構成例。Configuration example of the housing of the simulation system. 図5(A)、図5(B)は発射部、発射装置の構成例。5 (A) and 5 (B) are configuration examples of the launching unit and the launching device. 仮想空間のフィールドの例。An example of a field in virtual space. 本実施形態により生成されるゲーム画像の例。An example of a game image generated by this embodiment. 本実施形態により生成されるゲーム画像の例。An example of a game image generated by this embodiment. 本実施形態により生成されるゲーム画像の例。An example of a game image generated by this embodiment. 本実施形態により生成されるゲーム画像の例。An example of a game image generated by this embodiment. 図11(A)、図11(B)は発射部の制御手法の説明図。11 (A) and 11 (B) are explanatory views of a control method for the launching unit. 図12(A)、図12(B)は発射部の制御手法の説明図。12 (A) and 12 (B) are explanatory views of a control method for the launching unit. 図13(A)、図13(B)はヒット方向又はヒットベクトルに応じた発射部の制御手法の説明図。13 (A) and 13 (B) are explanatory views of a launching unit control method according to a hit direction or a hit vector. 複数の発射装置の各発射装置から順次に気体を発射する手法の説明図。Explanatory drawing of the method of sequentially firing gas from each launcher of a plurality of launchers. 図15(A)、図15(B)はヒット方向又はヒットベクトルに応じた発射部の制御手法の説明図。15 (A) and 15 (B) are explanatory views of a launching unit control method according to a hit direction or a hit vector. 図16(A)〜図16(C)は発射部方向変更部の動作例の説明図。16 (A) to 16 (C) are explanatory views of an operation example of the launching portion direction changing portion. 図17(A)〜図17(C)は発射部方向変更部の動作例の説明図。17 (A) to 17 (C) are explanatory views of an operation example of the launching portion direction changing portion. 図18(A)、図18(B)は発射装置方向変更部の動作例の説明図。18 (A) and 18 (B) are explanatory views of an operation example of the launcher direction changing unit. 図19(A)、図19(B)は気弾を発射する敵キャラクタを発射部の位置に対応する位置に配置する手法の説明図。19 (A) and 19 (B) are explanatory views of a method of arranging an enemy character that fires an air bullet at a position corresponding to the position of the launching portion. 図20(A)〜図20(C)は気弾を発射する敵キャラクタを発射部の位置に対応する位置に配置する手法の説明図。20 (A) to 20 (C) are explanatory views of a method of arranging an enemy character that fires an air bullet at a position corresponding to the position of the launching portion. HMDを装着する複数のユーザがプレイするフィールドの例。An example of a field played by multiple users wearing an HMD. フィールドを移動するユーザに対して気体を発射する発射部の制御手法の説明図。Explanatory drawing of the control method of a launching part which emits a gas to a user moving in a field. 発射部での気体の発射に対して、音、振動等を連動させるゲーム演出手法の説明図。An explanatory diagram of a game production method in which sound, vibration, etc. are linked to the emission of gas at the launching unit. 発射部が発射する気体を加工する加工部の動作例の説明図。Explanatory drawing of the operation example of the processing part which processes the gas emitted by the launching part. 発射部が発射する気体を加工する加工部の動作例の説明図。Explanatory drawing of the operation example of the processing part which processes the gas emitted by the launching part. 本実施形態の詳細な処理例を説明するフローチャート。The flowchart explaining the detailed processing example of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. The present embodiment described below does not unreasonably limit the content of the present invention described in the claims. Moreover, not all of the configurations described in the present embodiment are essential constituent requirements of the present invention.

1.シミュレーションシステム
図1は、本実施形態のシミュレーションシステム(シミュレータ、ゲームシステム)の構成例を示すブロック図である。本実施形態のシミュレーションシステムは例えばバーチャルリアリティ(VR)をシミュレートするシステムであり、ゲームコンテンツを提供するゲームシステム、スポーツ競技シミュレータや運転シミュレータなどのリアルタイムシミュレーションシステム、SNSのサービスを提供するシステム、映像等のコンテンツを提供するコンテンツ提供システム、或いは遠隔作業を実現するオペレーティングシステムなどの種々のシステムに適用可能である。なお、本実施形態のシミュレーションシステムは図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. 1. Simulation system FIG. 1 is a block diagram showing a configuration example of a simulation system (simulator, game system) of the present embodiment. The simulation system of this embodiment is, for example, a system that simulates virtual reality (VR), a game system that provides game content, a real-time simulation system such as a sports competition simulator or a driving simulator, a system that provides SNS services, and an image. It can be applied to various systems such as a content providing system that provides such contents or an operating system that realizes remote work. The simulation system of the present embodiment is not limited to the configuration shown in FIG. 1, and various modifications such as omitting a part of its constituent elements (each part) or adding other constituent elements can be performed.

発射部50は、ユーザに対して気体の発射が可能な装置である。発射部50は、複数の発射装置CN1〜CNMを有する。発射部50は、発射部50の方向を変更する発射部方向変更部52や、発射装置CN1〜CNMの方向を変更する発射装置方向変更部54を含む。また発射される気体を加工する加工部56を含む。 The launching unit 50 is a device capable of firing gas to the user. The launching unit 50 has a plurality of launching devices CN1 to CNM. The launching unit 50 includes a launching unit direction changing unit 52 that changes the direction of the launching unit 50, and a launching device direction changing unit 54 that changes the direction of the launching devices CN1 to CNM. It also includes a processing unit 56 that processes the emitted gas.

操作部160は、ユーザ(プレーヤ)が種々の操作情報(入力情報)を入力するためのものである。操作部160は、例えば操作ボタン、方向指示キー、ジョイスティック、ハンドル、ペダル又はレバー等の種々の操作デバイスにより実現できる。 The operation unit 160 is for the user (player) to input various operation information (input information). The operation unit 160 can be realized by various operation devices such as operation buttons, turn signal keys, joysticks, handles, pedals or levers.

記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。ゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SSD、光ディスク装置などにより実現できる。記憶部170は、オブジェクト情報記憶部172、描画バッファ178を含む。 The storage unit 170 stores various types of information. The storage unit 170 functions as a work area for the processing unit 100, the communication unit 196, and the like. The game program and game data necessary for executing the game program are stored in the storage unit 170. The function of the storage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), an HDD (hard disk drive), an SSD, an optical disk device, or the like. The storage unit 170 includes an object information storage unit 172 and a drawing buffer 178.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。 The information storage medium 180 (a medium that can be read by a computer) stores programs, data, and the like, and its function can be realized by an optical disk (DVD, BD, CD), an HDD, a semiconductor memory (ROM), or the like. .. The processing unit 100 performs various processes of the present embodiment based on the program (data) stored in the information storage medium 180. That is, the information storage medium 180 is a program for causing a computer (a device including an input device, a processing unit, a storage unit, and an output unit) to function as each part of the present embodiment (a program for causing the computer to execute the processing of each part). Is remembered.

HMD200(頭部装着型表示装置)は、ユーザの頭部に装着されて、ユーザの眼前に画像を表示する装置である。HMD200は非透過型であることが望ましいが、透過型であってもよい。またHMD200は、いわゆるメガネタイプのHMDであってもよい。 The HMD200 (head-mounted display device) is a device that is worn on the user's head and displays an image in front of the user's eyes. The HMD 200 is preferably a non-transparent type, but may be a transparent type. Further, the HMD 200 may be a so-called eyeglass type HMD.

HMD200は、センサ部210、表示部220、処理部240を含む。なおHMD200に発光素子を設ける変形実施も可能である。センサ部210は、例えばヘッドトラッキングなどのトラッキング処理を実現するためものである。例えばセンサ部210を用いたトラッキング処理により、HMD200の位置、方向を特定する。HMD200の位置、方向が特定されることで、ユーザの視点位置、視線方向(ユーザの位置、方向)を特定できる。 The HMD 200 includes a sensor unit 210, a display unit 220, and a processing unit 240. It is also possible to modify the HMD 200 by providing a light emitting element. The sensor unit 210 is for realizing tracking processing such as head tracking. For example, the position and direction of the HMD 200 are specified by a tracking process using the sensor unit 210. By specifying the position and direction of the HMD 200, the user's viewpoint position and line-of-sight direction (user's position and direction) can be specified.

トラッキング方式としては種々の方式を採用できる。トラッキング方式の一例である第1のトラッキング方式では、後述の図2(A)、図2(B)で詳細に説明するように、センサ部210として複数の受光素子(フォトダイオード等)を設ける。そして外部に設けられた発光素子(LED等)からの光(レーザー等)をこれらの複数の受光素子により受光することで、現実世界の3次元空間でのHMD200(ユーザの頭部)の位置、方向を特定する。第2のトラッキング方式では、後述の図3(A)、図3(B)で詳細に説明するように、複数の発光素子(LED)をHMD200に設ける。そして、これらの複数の発光素子からの光を、外部に設けられた撮像部で撮像することで、HMD200の位置、方向を特定する。第3のトラッキング方式では、センサ部210としてモーションセンサを設け、このモーションセンサを用いてHMD200の位置、方向を特定する。モーションセンサは例えば加速度センサやジャイロセンサなどにより実現できる。例えば3軸の加速度センサと3軸のジャイロセンサを用いた6軸のモーションセンサを用いることで、現実世界の3次元空間でのHMD200の位置、方向を特定できる。なお、第1のトラッキング方式と第2のトラッキング方式の組合わせ、或いは第1のトラッキング方式と第3のトラッキング方式の組合わせなどにより、HMD200の位置、方向を特定してもよい。またHMD200の位置、方向を特定することでユーザの視点位置、視線方向を特定するのではなく、ユーザの視点位置、視線方向(位置、方向)を直接に特定するトラッキング処理を採用してもよい。 Various methods can be adopted as the tracking method. In the first tracking method, which is an example of the tracking method, a plurality of light receiving elements (photodiodes, etc.) are provided as the sensor unit 210, as will be described in detail in FIGS. 2 (A) and 2 (B) described later. Then, by receiving light (laser, etc.) from an externally provided light emitting element (LED, etc.) by these plurality of light receiving elements, the position of the HMD200 (user's head) in the three-dimensional space in the real world, Specify the direction. In the second tracking method, a plurality of light emitting elements (LEDs) are provided in the HMD 200 as described in detail in FIGS. 3 (A) and 3 (B) described later. Then, the position and direction of the HMD 200 are specified by capturing the light from these plurality of light emitting elements with an imaging unit provided outside. In the third tracking method, a motion sensor is provided as the sensor unit 210, and the position and direction of the HMD 200 are specified using this motion sensor. The motion sensor can be realized by, for example, an acceleration sensor or a gyro sensor. For example, by using a 6-axis motion sensor using a 3-axis acceleration sensor and a 3-axis gyro sensor, the position and direction of the HMD200 in a three-dimensional space in the real world can be specified. The position and direction of the HMD 200 may be specified by a combination of the first tracking method and the second tracking method, or a combination of the first tracking method and the third tracking method. Further, instead of specifying the user's viewpoint position and line-of-sight direction by specifying the position and direction of the HMD 200, a tracking process that directly specifies the user's viewpoint position and line-of-sight direction (position, direction) may be adopted. ..

HMD200の表示部220は例えば有機ELディスプレイ(OEL)や液晶ディスプレイ(LCD)などにより実現できる。例えばHMD200の表示部220には、ユーザの左目の前に設定される第1のディスプレイ又は第1の表示領域と、右目の前に設定される第2のディスプレイ又は第2の表示領域が設けられており、立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左目用画像と右目用画像を生成し、第1のディスプレイに左目用画像を表示し、第2のディスプレイに右目用画像を表示する。或いは1つのディスプレイの第1の表示領域に左目用画像を表示し、第2の表示領域に右目用画像を表示する。またHMD200には左目用、右目用の2つの接眼レンズ(魚眼レンズ)が設けられており、これによりユーザの視界の全周囲に亘って広がるVR空間が表現される。そして接眼レンズ等の光学系で生じる歪みを補正するための補正処理が、左目用画像、右目用画像に対して行われる。この補正処理は表示処理部120が行う。 The display unit 220 of the HMD 200 can be realized by, for example, an organic EL display (OEL) or a liquid crystal display (LCD). For example, the display unit 220 of the HMD 200 is provided with a first display or a first display area set in front of the user's left eye and a second display or a second display area set in front of the right eye. It is possible to display stereoscopically. In the case of stereoscopic display, for example, an image for the left eye and an image for the right eye having different parallax are generated, the image for the left eye is displayed on the first display, and the image for the right eye is displayed on the second display. Alternatively, the image for the left eye is displayed in the first display area of one display, and the image for the right eye is displayed in the second display area. Further, the HMD 200 is provided with two eyepieces (fisheye lenses) for the left eye and the right eye, thereby expressing a VR space that extends over the entire circumference of the user's field of view. Then, a correction process for correcting distortion generated in an optical system such as an eyepiece is performed on the left eye image and the right eye image. This correction process is performed by the display processing unit 120.

HMD200の処理部240は、HMD200において必要な各種の処理を行う。例えば処理部240は、センサ部210の制御処理や表示部220の表示制御処理などを行う。また処理部240が、3次元音響(立体音響)処理を行って、3次元的な音の方向や距離や広がりの再現を実現してもよい。 The processing unit 240 of the HMD 200 performs various processes necessary for the HMD 200. For example, the processing unit 240 performs control processing of the sensor unit 210, display control processing of the display unit 220, and the like. Further, the processing unit 240 may perform three-dimensional sound (stereophonic sound) processing to reproduce the three-dimensional sound direction, distance, and spread.

音出力部192は、本実施形態により生成された音を出力するものであり、例えばスピーカ又はヘッドホン等により実現できる。 The sound output unit 192 outputs the sound generated by the present embodiment, and can be realized by, for example, a speaker or headphones.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。 The I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and the function can be realized by an ASIC or the like for I / F processing. The portable information storage medium 195 is for the user to store various kinds of information, and is a storage device that holds the storage of such information even when the power is not supplied. The portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.

通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。 The communication unit 196 communicates with an external device (another device) via a wired or wireless network, and its functions include hardware such as a communication ASIC or a communication processor, and communication firmware. Can be realized by.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。 The program (data) for operating the computer as each part of the present embodiment is distributed from the information storage medium of the server (host device) to the information storage medium 180 (or storage unit 170) via the network and the communication unit 196. You may. The use of information storage media by such a server (host device) can also be included within the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作情報や、HMD200でのトラッキング情報(HMDの位置及び方向の少なくとも一方の情報。視点位置及び視線方向の少なくとも一方の情報)や、プログラムなどに基づいて、ゲーム処理(シミュレーション処理)、仮想空間設定処理、移動体処理、仮想カメラ制御処理、表示処理、或いは音処理などを行う。 The processing unit 100 (processor) provides operation information from the operation unit 160, tracking information in the HMD 200 (information on at least one of the position and direction of the HMD, information on at least one of the viewpoint position and the line-of-sight direction), a program, and the like. Based on this, game processing (simulation processing), virtual space setting processing, moving object processing, virtual camera control processing, display processing, sound processing, and the like are performed.

処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。 Each process (each function) of the present embodiment performed by each unit of the processing unit 100 can be realized by a processor (a processor including hardware). For example, each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program. In the processor, for example, the functions of each part may be realized by individual hardware, or the functions of each part may be realized by integrated hardware. For example, a processor includes hardware, which hardware can include at least one of a circuit that processes a digital signal and a circuit that processes an analog signal. For example, the processor may be composed of one or more circuit devices (for example, ICs, etc.) mounted on a circuit board, or one or more circuit elements (for example, resistors, capacitors, etc.). The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Signal Processor) can be used. Further, the processor may be a hardware circuit by ASIC. Further, the processor may include an amplifier circuit, a filter circuit, and the like for processing an analog signal. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD), or an optical storage device such as an optical disk device. For example, the memory stores instructions that can be read by a computer, and when the instructions are executed by the processor, the processing (function) of each part of the processing unit 100 is realized. The instruction here may be an instruction set that constitutes a program, or may be an instruction that instructs the hardware circuit of the processor to operate.

処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。演算処理部110は、情報取得部111、仮想空間設定部112、移動体処理部113、仮想カメラ制御部114、ゲーム処理部115、制御部118、表示処理部120、音処理部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。 The processing unit 100 includes an input processing unit 102, an arithmetic processing unit 110, and an output processing unit 140. The arithmetic processing unit 110 includes an information acquisition unit 111, a virtual space setting unit 112, a mobile body processing unit 113, a virtual camera control unit 114, a game processing unit 115, a control unit 118, a display processing unit 120, and a sound processing unit 130. As described above, each process of the present embodiment executed by each of these parts can be realized by a processor (or a processor and a memory). It is possible to carry out various modifications such as omitting a part of these components (each part) or adding other components.

入力処理部102は、操作情報やトラッキング情報を受け付ける処理や、記憶部170から情報を読み出す処理や、通信部196を介して情報を受信する処理を、入力処理として行う。例えば入力処理部102は、操作部160を用いてユーザが入力した操作情報やHMD200のセンサ部210等により検出されたトラッキング情報を取得する処理や、読み出し命令で指定された情報を、記憶部170から読み出す処理や、外部装置(サーバ等)からネットワークを介して情報を受信する処理を、入力処理として行う。ここで受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。 The input processing unit 102 performs a process of receiving operation information and tracking information, a process of reading information from the storage unit 170, and a process of receiving information via the communication unit 196 as input processes. For example, the input processing unit 102 stores the operation information input by the user using the operation unit 160, the processing of acquiring the tracking information detected by the sensor unit 210 of the HMD 200, and the information specified by the read command in the storage unit 170. The process of reading from the computer and the process of receiving information from an external device (server, etc.) via the network are performed as input processes. Here, the reception process is a process of instructing the communication unit 196 to receive information, a process of acquiring the received information by the communication unit 196 and writing it to the storage unit 170, and the like.

演算処理部110は、各種の演算処理を行う。例えば情報取得処理、仮想空間設定処理、移動体処理、仮想カメラ制御処理、ゲーム処理(シミュレーション処理)、制御処理、表示処理、或いは音処理などの演算処理を行う。 The arithmetic processing unit 110 performs various arithmetic processes. For example, arithmetic processing such as information acquisition processing, virtual space setting processing, moving object processing, virtual camera control processing, game processing (simulation processing), control processing, display processing, or sound processing is performed.

情報取得部111(情報取得処理のプログラムモジュール)は種々の情報の取得処理を行う。例えば情報取得部111は、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報(ユーザトラッキング情報)を取得する。 The information acquisition unit 111 (program module for information acquisition processing) performs various information acquisition processing. For example, the information acquisition unit 111 acquires user information (user tracking information) including at least one of the user's position information, direction information, and posture information.

仮想空間設定部112(仮想空間設定処理のプログラムモジュール)は、複数のオブジェクトが配置される仮想空間(オブジェクト空間)の設定処理を行う。例えば、移動体(人、ロボット、車、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)を仮想空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクト情報記憶部172には、仮想空間でのオブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報がオブジェクト番号に対応づけて記憶される。仮想空間設定部112は、例えば各フレーム毎にこのオブジェクト情報を更新する処理などを行う。 The virtual space setting unit 112 (program module for virtual space setting processing) performs setting processing for a virtual space (object space) in which a plurality of objects are arranged. For example, various objects that represent moving objects (people, robots, cars, trains, airplanes, ships, monsters, animals, etc.), maps (topography), buildings, spectators' seats, courses (roads), trees, walls, water surfaces, etc. Performs a process of arranging and setting an object (an object composed of primitive surfaces such as polygons, free curved surfaces, or subdivision surfaces) in a virtual space. That is, the position and rotation angle (synonymous with direction and direction) of the object in the world coordinate system are determined, and the rotation angle (rotation angle around the X, Y, Z axis) is used for the position (X, Y, Z). Place the object. Specifically, in the object information storage unit 172 of the storage unit 170, object information, which is information such as the position, rotation angle, movement speed, and movement direction of an object (part object) in the virtual space, is associated with the object number. Is remembered. The virtual space setting unit 112 performs, for example, a process of updating this object information for each frame.

移動体処理部113(移動体処理のプログラムモジュール)は、仮想空間内で移動する移動体についての種々の処理を行う。例えば仮想空間(オブジェクト空間、ゲーム空間)において移動体を移動させる処理や、移動体を動作させる処理を行う。例えば移動体処理部113は、操作部160によりユーザが入力した操作情報や、取得されたトラッキング情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(モデルオブジェクト)を仮想空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。移動体は、例えば実空間のユーザ(プレーヤ)に対応する仮想空間の仮想ユーザ(仮想プレーヤ、アバター)や、或いは当該仮想ユーザが搭乗(操作)する搭乗移動体(操作移動体)などである。 The moving body processing unit 113 (program module for moving body processing) performs various processing on the moving body moving in the virtual space. For example, a process of moving a moving body in a virtual space (object space, game space) or a process of operating a moving body is performed. For example, the mobile body processing unit 113 is based on the operation information input by the user by the operation unit 160, the tracking information acquired, the program (movement / motion algorithm), various data (motion data), and the like. Performs control processing to move the model object) in the virtual space and to move the moving body (motion, animation). Specifically, a simulation in which movement information (position, rotation angle, velocity, or acceleration) and motion information (position or rotation angle of a part object) of a moving body are sequentially obtained for each frame (for example, 1/60 second). Perform processing. A frame is a unit of time for performing movement / motion processing (simulation processing) and image generation processing of a moving body. The moving body is, for example, a virtual user (virtual player, avatar) in a virtual space corresponding to a user (player) in the real space, or a boarding moving body (operating moving body) on which the virtual user is boarding (operating).

ゲーム処理部115(ゲーム処理のプログラムモジュール)はユーザがゲームをプレイするための種々のゲーム処理を行う。別の言い方をすれば、ゲーム処理部115(シミュレーション処理部)は、ユーザが仮想現実(バーチャルリアリティ)を体験するための種々のシミュレーション処理を実行する。ゲーム処理は、例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、開始したゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、或いはゲーム成績を演算する処理などである。ゲーム処理部115はヒット演算処理部116を含む。ヒット演算処理部116は、ヒット判定処理などのヒット演算処理を実行する。 The game processing unit 115 (game processing program module) performs various game processing for the user to play the game. In other words, the game processing unit 115 (simulation processing unit) executes various simulation processes for the user to experience virtual reality (virtual reality). The game process calculates, for example, a process of starting a game when the game start condition is satisfied, a process of advancing the started game, a process of ending the game when the game end condition is satisfied, or a game result. Processing etc. The game processing unit 115 includes a hit calculation processing unit 116. The hit calculation processing unit 116 executes a hit calculation process such as a hit determination process.

制御部118(制御処理のプログラムモジュール)は発射部50の制御を行う。制御部118の詳細については後述する。 The control unit 118 (program module for control processing) controls the launch unit 50. The details of the control unit 118 will be described later.

表示処理部120(表示処理のプログラムモジュール)は、ゲーム画像(シミュレーション画像)の表示処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、HMD200の表示部220に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間(仮想空間)において仮想カメラ(所与の視点。左目用、右目用の第1、第2の視点)から見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。 The display processing unit 120 (display processing program module) performs display processing of a game image (simulation image). For example, drawing processing is performed based on the results of various processing (game processing, simulation processing) performed by the processing unit 100, an image is generated by this, and the image is displayed on the display unit 220 of the HMD 200. Specifically, geometry processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective conversion, or light source processing is performed, and drawing data (positions of vertices on the primitive surface) is performed based on the processing results. Coordinates, texture coordinates, color data, normal vector or α value, etc.) are created. Then, based on this drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is subjected to image information in pixel units such as a drawing buffer 178 (frame buffer, work buffer, etc.). Draw in a memorable buffer). As a result, an image that can be seen from a virtual camera (given viewpoint. First and second viewpoints for the left eye and the right eye) is generated in the object space (virtual space). The drawing process performed by the display processing unit 120 can be realized by a vertex shader process, a pixel shader process, or the like.

音処理部130(音処理のプログラムモジュール)は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。なお音処理部130の音処理の一部(例えば3次元音響処理)を、HMD200の処理部240により実現してもよい。 The sound processing unit 130 (sound processing program module) performs sound processing based on the results of various processing performed by the processing unit 100. Specifically, a game sound such as a musical piece (music, BGM), a sound effect, or a voice is generated, and the game sound is output to the sound output unit 192. A part of the sound processing of the sound processing unit 130 (for example, three-dimensional sound processing) may be realized by the processing unit 240 of the HMD 200.

出力処理部140は各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理や、通信部196を介して情報を送信する処理を、出力処理として行う。例えば出力処理部140は、書き込み命令で指定された情報を、記憶部170に書き込む処理や、外部の装置(サーバ等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。 The output processing unit 140 performs output processing of various information. For example, the output processing unit 140 performs a process of writing information to the storage unit 170 and a process of transmitting information via the communication unit 196 as an output process. For example, the output processing unit 140 performs a process of writing the information specified by the write instruction to the storage unit 170 and a process of transmitting the information to an external device (server or the like) via the network. The transmission process is a process of instructing the communication unit 196 to transmit information, instructing the communication unit 196 to transmit information, and the like.

そして本実施形態のシミュレーションシステムは、情報取得部111と、仮想空間設定部112と、ゲーム処理部115と、制御部118と、表示処理部120を含む。 The simulation system of the present embodiment includes an information acquisition unit 111, a virtual space setting unit 112, a game processing unit 115, a control unit 118, and a display processing unit 120.

情報取得部111は、HMD200(頭部装着型表示装置)を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する。例えば情報取得部111は、HMD200のトラッキング情報などに基づいて、実空間でのユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報(ユーザトラッキング情報)を取得する。位置情報は、実空間でのユーザの視点の位置情報であってもよく、方向情報は、実空間でのユーザの視線の方向情報であってもよい。位置情報、方向情報は、ユーザが実空間(現実世界)のフィールド(プレイフィールド、シミュレーションフィールド、プレイエリア)に位置する場合に、そのフィールドでの位置情報、方向情報(所与の位置を原点とする座標系での位置座標、各座標軸回りでの回転角度)であってもよい。姿勢情報は、ユーザの各姿勢(立ち姿勢、しゃがみ姿勢又は座り姿勢等)を特定したり、或いはユーザの各部位(胴体、頭、手又は足等)の位置、方向を特定するための情報である。例えば情報取得部111は、HMD200の位置情報、方向情報を、当該HMD200を装着するユーザの位置情報、方向情報として取得してもよい。 The information acquisition unit 111 acquires user information including at least one of position information, direction information, and posture information of the user who wears the HMD200 (head-mounted display device). For example, the information acquisition unit 111 acquires user information (user tracking information) including at least one of the user's position information, direction information, and posture information in the real space based on the tracking information of the HMD 200 and the like. The position information may be the position information of the user's viewpoint in the real space, and the direction information may be the direction information of the user's line of sight in the real space. When the user is located in a field (play field, simulation field, play area) in the real space (real world), the position information and the direction information are the position information and the direction information (with a given position as the origin) in the field. It may be the position coordinates in the coordinate system to be used, the rotation angle around each coordinate axis). Posture information is information for specifying each posture of the user (standing posture, crouching posture, sitting posture, etc.), or specifying the position and direction of each part of the user (torso, head, hands, feet, etc.). be. For example, the information acquisition unit 111 may acquire the position information and direction information of the HMD 200 as the position information and direction information of the user who wears the HMD 200.

仮想空間設定部112は仮想空間の設定処理を行う。例えば、移動体、障害物、背景又はマップ等のオブジェクトを仮想空間に配置設定する処理を行う。例えば実空間でのユーザの位置情報、方向情報が取得された場合に、取得された位置情報、方向情報に基づいて、ユーザに対応するユーザ移動体(ユーザキャラクタ等)の位置、方向を設定して、仮想空間に配置する処理を行う。オブジェクトであるユーザ移動体の位置、方向等の情報は、例えばオブジェクト情報記憶部172に記憶される。ユーザ移動体は、例えば実空間でユーザの移動に追従して仮想空間(オブジェクト空間)において移動するオブジェクト(表示物)である。ユーザ移動体としては、ユーザに対応するアバター移動体(ユーザキャラクタ、仮想ユーザ)や、アバター移動体が搭乗する搭乗移動体や、アバター移動体が装着する外殻移動体などがある。外殻移動体は、アバター移動体(ゴースト)に重なるように配置されて仮想空間を移動する。外殻移動体は、アバター移動体を内包する移動体であり、ユーザの義体として表現されるものある。 The virtual space setting unit 112 performs the virtual space setting process. For example, a process of arranging and setting an object such as a moving object, an obstacle, a background, or a map in a virtual space is performed. For example, when the user's position information and direction information in real space are acquired, the position and direction of the user moving body (user character, etc.) corresponding to the user are set based on the acquired position information and direction information. Then, the process of arranging in the virtual space is performed. Information such as the position and direction of the user moving object, which is an object, is stored in, for example, the object information storage unit 172. The user moving body is, for example, an object (display object) that moves in a virtual space (object space) following the movement of the user in the real space. Examples of the user moving body include an avatar moving body (user character, virtual user) corresponding to the user, a boarding moving body on which the avatar moving body is boarded, an outer shell moving body worn by the avatar moving body, and the like. The outer shell moving body is arranged so as to overlap the avatar moving body (ghost) and moves in the virtual space. The outer shell mobile is a mobile that includes an avatar mobile, and is expressed as a user's prosthetic body.

ゲーム処理部115は、仮想空間でのゲームの処理を行う。例えばゲームを開始する処理、ゲームを進行させる処理、ゲームを終了する処理、或いはゲーム成績を演算する処理などのゲーム処理を行う。 The game processing unit 115 processes the game in the virtual space. For example, a game process such as a process of starting a game, a process of advancing a game, a process of ending a game, or a process of calculating a game result is performed.

制御部118は、ユーザに対して気体の発射が可能な発射部50の制御を行う。例えば制御部118は、発射部50自体の制御を行ったり、発射部50の複数の発射装置CN1〜CNMの制御を行う。 The control unit 118 controls the launch unit 50 capable of emitting gas to the user. For example, the control unit 118 controls the launching unit 50 itself, or controls a plurality of launching devices CN1 to CNM of the launching unit 50.

表示処理部120は、ゲーム処理の結果に基づいて表示画像を生成する。例えばユーザが視界を覆うように装着するHMD200の表示画像を生成する。例えば仮想空間において仮想カメラから見える画像を、表示画像として生成する。例えば仮想カメラ制御部114は、ユーザの視点に対応する仮想カメラの制御処理を行う。例えば仮想カメラ制御部114は、ユーザの一人称視点として設定される仮想カメラの制御を行う。例えば仮想空間において移動する移動体(仮想プレーヤ等)の視点に対応する位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置(位置座標)や姿勢(回転軸回りでの回転角度)を制御する。そして表示処理部120は、HMD200等の表示画像(表示映像)として、仮想空間において仮想カメラ(ユーザ視点)から見える画像を生成する。例えば仮想空間であるオブジェクト空間において所与の視点から見える画像を生成する。生成される画像は例えば立体視用の画像である。 The display processing unit 120 generates a display image based on the result of the game processing. For example, a display image of the HMD 200 worn by the user so as to cover the field of view is generated. For example, an image that can be seen from a virtual camera in a virtual space is generated as a display image. For example, the virtual camera control unit 114 performs control processing of the virtual camera corresponding to the user's viewpoint. For example, the virtual camera control unit 114 controls the virtual camera set as the user's first-person view. For example, by setting a virtual camera at a position corresponding to the viewpoint of a moving object (virtual player, etc.) moving in the virtual space and setting the viewpoint position and line-of-sight direction of the virtual camera, the position (position coordinates) of the virtual camera can be set. And posture (rotation angle around the rotation axis). Then, the display processing unit 120 generates an image that can be seen from a virtual camera (user's viewpoint) in the virtual space as a display image (display image) of the HMD200 or the like. For example, an image that can be seen from a given viewpoint is generated in an object space that is a virtual space. The generated image is, for example, an image for stereoscopic viewing.

発射部50には、複数の発射装置CN1〜CNMが配置される。そして制御部118は、仮想空間でのゲーム状況に応じて、発射部50の制御処理を行う。具体的には制御部118は、仮想空間でのゲーム状況とユーザ情報に応じて、発射部50の制御処理を行う。即ち、ゲーム状況や、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報に応じて、発射部50での発射装置CN1〜CNMの選定や、気体の発射タイミングや、気体の発射出力度合いや、気体の発射方向や、或いは気体の加工などの制御を行う。 A plurality of launchers CN1 to CNM are arranged in the launch unit 50. Then, the control unit 118 performs control processing of the launch unit 50 according to the game situation in the virtual space. Specifically, the control unit 118 performs control processing of the launch unit 50 according to the game situation in the virtual space and the user information. That is, according to the game situation and the user information including at least one of the user's position information, direction information, and attitude information, the launching unit 50 selects the launching devices CN1 to CNM, the gas launch timing, and the gas. It controls the degree of firing output, the firing direction of gas, and the processing of gas.

ここでゲーム状況は、例えばユーザのゲームプレイの状況、ゲームの進行状況、ゲームでのイベントの状況、ゲームの戦闘状況、ゲームの対戦状況、ゲームに出現する敵の攻撃状況、ゲームでのヒット判定の状況、ゲームに登場する移動体(キャラクタ又は被ヒットオブジェクト等)の状況、キャラクタやユーザのステータスパラメータ(体力値、レベル、攻撃力又は守備力等)の状況、或いはゲームの成績の状況などであり、例えばゲームのパラメータ等で表される種々の状況である。ゲーム状況は例えばゲーム処理部115でのゲーム処理により特定される。例えばゲーム処理で使用される各種のゲームパラメータ等の情報に基づいてユーザのゲーム状況が特定される。また発射部50の制御処理は、例えば発射部50での発射装置CN1〜CNMの選定の制御処理、気体の発射タイミングの制御処理、気体の発射出力度合いの制御処理、発射部50の方向変更の制御処理、発射装置CN1〜CNMの方向変更の制御処理、或いは発射部50が発射する気体の加工の制御処理などである。 Here, the game status is, for example, the user's gameplay status, game progress status, game event status, game battle status, game battle status, enemy attack status appearing in the game, and hit determination in the game. In the situation of moving objects (characters or hit objects, etc.) appearing in the game, the status parameters of characters and users (physical strength value, level, offensive power or defensive power, etc.), or the status of game results, etc. There are, for example, various situations represented by game parameters and the like. The game situation is specified by, for example, game processing in the game processing unit 115. For example, the game situation of the user is specified based on information such as various game parameters used in the game processing. Further, the control process of the launching unit 50 includes, for example, a control process of selecting the launching devices CN1 to CNM in the launching unit 50, a control process of the gas launch timing, a control process of the gas launch output degree, and a direction change of the launch unit 50. Control processing, control processing for changing the direction of the launching devices CN1 to CNM, control processing for processing the gas emitted by the launching unit 50, and the like.

このように制御部118は、ゲームのプレイ状況、進行状況、イベント状況、戦闘状況、対戦状況、攻撃状況、ヒット判定の状況、移動体の状況、ステータスパラメータの状況又は成績の状況などのゲーム状況に応じて、発射装置の選定、発射タイミング、発射出力度合い、方向変更又は気体加工などについての制御処理を行う。このようにすれば、仮想空間のゲーム状況に対応するように、発射部50の複数の発射装置により気体を発射できるようになる。 In this way, the control unit 118 uses the game status such as the game play status, progress status, event status, battle status, battle status, attack status, hit judgment status, mobile status, status parameter status, or performance status. Depending on the situation, control processing is performed for selection of the launching device, launch timing, launch output degree, direction change, gas processing, and the like. In this way, the gas can be launched by the plurality of launching devices of the launching unit 50 so as to correspond to the game situation in the virtual space.

更に制御部118は、ユーザの位置情報、方向情報又は姿勢情報などのユーザ情報に応じて、発射部50の制御を行う。例えば実空間でのユーザの位置や方向に応じた発射方向又は発射出力度合い等で気体が発射するように、発射部50を制御する。またユーザの姿勢などに応じて、発射部50での気体の発射方向又は発射出力度合い等を変化させる。このようにすれば、ユーザの位置、方向又は姿勢に応じた最適な発射部50の気体の発射制御を行うことが可能になる。例えば本実施形態の制御処理は、取得されたユーザ情報に基づきゲームを進行させるなどのゲーム処理を行い、ゲーム処理の結果に基づくゲーム状況に応じて、発射部50の制御を行うものであってもよい。またユーザ情報に基づきユーザを検知し、検知されたユーザのゲーム状況に応じて発射部50の制御を行ってもよい。例えば検知されたユーザに対して敵が攻撃して来るようなゲーム状況になった場合に、発射部50に気体を発射させる制御を行う。 Further, the control unit 118 controls the launch unit 50 according to the user information such as the user's position information, direction information, or attitude information. For example, the launching unit 50 is controlled so that the gas is launched in the firing direction or the degree of firing output according to the position and direction of the user in the real space. Further, the firing direction of the gas at the launching unit 50, the firing output degree, and the like are changed according to the posture of the user and the like. In this way, it is possible to perform optimum gas emission control of the launching unit 50 according to the position, direction or posture of the user. For example, the control process of the present embodiment performs game processing such as advancing the game based on the acquired user information, and controls the launching unit 50 according to the game situation based on the result of the game processing. May be good. Further, the user may be detected based on the user information, and the launching unit 50 may be controlled according to the game situation of the detected user. For example, when the game situation is such that an enemy attacks the detected user, the launching unit 50 is controlled to emit gas.

また発射部50には、複数の発射装置CN1〜CNMがマトリクス状に配置される。そして制御部118は、マトリクス状に配置された複数の発射装置CN1〜CNMの制御を行う。例えば発射装置CN1〜CNMが2次元マトリクス状に配置される。例えば発射装置CN1〜CNMがK行、N列のマトリクス状に配列される。例えばK、Nは1以上の整数であり、望ましくはK、Nは2以上の整数である。この場合に発射装置CN1〜CNMを格子状に配置してもよい。但しCN1〜CNMの発射装置間の距離は一定距離である必要はなく、異なる距離になってもよい。またK行、N列のマトリクス状の配列において、1行に並ぶN個の発射装置は直線状に配置されてもよいし、曲線状に配置されていてもよい。また1列に並ぶK個の発射装置は直線状に配置されてもよいし、曲線状に配置されていてもよい。 Further, a plurality of launching devices CN1 to CNM are arranged in a matrix in the launching unit 50. Then, the control unit 118 controls a plurality of launchers CN1 to CNM arranged in a matrix. For example, launchers CN1 to CNM are arranged in a two-dimensional matrix. For example, launchers CN1 to CNM are arranged in a matrix of rows K and columns N. For example, K and N are integers of 1 or more, and preferably K and N are integers of 2 or more. In this case, the launchers CN1 to CNM may be arranged in a grid pattern. However, the distance between the launchers of CN1 to CNM does not have to be a constant distance, and may be different distances. Further, in the matrix-like arrangement of K rows and N columns, the N launchers arranged in one row may be arranged linearly or curvedly. Further, the K launchers arranged in a row may be arranged in a straight line or in a curved line.

また制御部118は、仮想空間において気体に対応する被ヒットオブジェクト(被ヒット物)がヒットするヒットイベントが発生した場合に、発射部50での発射装置CN1〜CNMの選定処理、気体の発射タイミングの制御処理、及び気体の発射出力度合いの制御処理の少なくとも1つを行う。被ヒットオブジェクトは現実世界の気体に対応する仮想空間のオブジェクトであり、仮想空間において画像として表示されるオブジェクトであってもよいし、仮想空間において画像として非表示の仮想的なオブジェクトであってもよい。また仮想空間においてユーザに対応するユーザ移動体が移動する場合に、ヒットイベントは、気体に対応する被ヒットオブジェクトがユーザ移動体等にヒットするイベントである。被ヒットオブジェクトがヒットしたか否かのヒット判定処理は、ゲーム処理部115が行う。具体的には、ヒット判定処理等のヒット演算処理は、ゲーム処理部115のヒット演算処理部116が行う。ヒット演算処理は、被ヒットオブジェクトがヒットしたか否かを判定するヒット判定処理や、ヒットによるダメージ量の演算処理や、ヒット用の演出処理などである。 Further, the control unit 118 selects the launchers CN1 to CNM in the launch unit 50 and the gas launch timing when a hit event in which the hit object (hit object) corresponding to the gas hits occurs in the virtual space. At least one of the control process of the above and the control process of the degree of emission output of the gas is performed. The hit object is an object in the virtual space corresponding to the gas in the real world, and may be an object displayed as an image in the virtual space or a virtual object hidden as an image in the virtual space. good. Further, when the user moving object corresponding to the user moves in the virtual space, the hit event is an event in which the hit object corresponding to the gas hits the user moving object or the like. The game processing unit 115 performs a hit determination process of whether or not the hit object is hit. Specifically, the hit calculation processing unit 116 of the game processing unit 115 performs hit calculation processing such as hit determination processing. The hit calculation process includes a hit determination process for determining whether or not a hit object has been hit, a calculation process for the amount of damage caused by a hit, an effect process for a hit, and the like.

発射部50での発射装置CN1〜CNMの選定処理は、例えば発射装置CN1〜CNMのいずれの発射装置から気体を発射させるかを選定する処理である。気体を発射させる発射装置として選定される発射装置は、1個の発射装置であってもよいし、複数個の発射装置であってもよい。例えば発射装置CN1〜CNMがK行、N列のマトリクス状に配置される場合に、制御部118は、1行に並ぶN個の発射装置に気体を発射させる選定処理を行ったり、1列に並ぶK個の発射装置に気体を発射させる選定処理を行ってもよい。気体の発射タイミングの制御処理は、いずれのタイミングで気体を発射するかを制御する処理である。この場合に制御部118は、発射部50の全ての発射装置CN1〜CNMが一斉に気体を発射する場合の発射タイミングを制御してもよい、発射装置CN1〜CNMのうちの1又は複数の発射装置が気体を発射する場合に、当該1又は複数の発射装置の気体の発射タイミングを制御してもよい。気体の発射出力度合いの制御処理は、発射される気体の強さや速さなどを制御する処理である。即ち、どのような強さ、速さで気体を発射させるかを制御する処理である。例えば発射装置CN1〜CNMの気体の発射が発射制御信号に基づいて制御される場合に、気体の発射出力度合いは、この発射制御信号の電圧レベル、電流レベル又は信号波形等により制御できる。 The process of selecting the launching devices CN1 to CNM in the launching unit 50 is, for example, a process of selecting from which launching device of the launching devices CN1 to CNM the gas is to be launched. The launching device selected as the launching device for launching the gas may be one launching device or a plurality of launching devices. For example, when the launchers CN1 to CNM are arranged in a matrix of rows K and columns N, the control unit 118 performs a selection process for emitting gas to N launchers lined up in one row, or arranges them in one column. A selection process may be performed in which the K launchers lined up are fired with gas. The gas emission timing control process is a process of controlling at which timing the gas is emitted. In this case, the control unit 118 may control the firing timing when all the launching devices CN1 to CNM of the launching unit 50 simultaneously launch the gas, and launches one or more of the launching devices CN1 to CNM. When the device launches a gas, the gas launch timing of the one or more launchers may be controlled. The process of controlling the degree of emission output of gas is a process of controlling the strength and speed of the emitted gas. That is, it is a process of controlling the strength and speed at which the gas is emitted. For example, when the gas emission of the launching devices CN1 to CNM is controlled based on the launch control signal, the degree of gas launch output can be controlled by the voltage level, current level, signal waveform, or the like of the launch control signal.

また制御部118は、被ヒットオブジェクトのヒット方向又はヒットベクトルに応じて、発射部50での発射装置CN1〜CNMの選定処理、気体の発射タイミングの制御処理、及び気体の発射出力度合いの制御処理の少なくとも1つを行う。ヒット方向(攻撃方向)は、被ヒットオブジェクトがユーザ移動体等のオブジェクトにヒットしたときの被ヒットオブジェクトの移動方向である。例えばヒット方向は、ユーザ移動体等のオブジェクトに向かって飛翔する被ヒットオブジェクトの軌道に基づいて特定できる。ヒットベクトルは、ヒット方向に加えてヒットの強さを表すものである。ユーザ移動体等のオブジェクトに被ヒットオブジェクトがヒットした場合のヒットの強さは、ヒットベクトルの大きさに基づき特定される。これのらヒット方向、ヒットベクトルは、ゲーム処理部115(ヒット演算処理部116)でのヒット演算処理に基づき求められる。即ち、ゲーム処理部115は、ゲーム処理の結果に基づき、ヒット方向、ヒットベクトル等のヒット情報を求める。そして制御部118は、ゲーム処理の結果に基づき求められたヒット方向、ヒットベクトル等のヒット情報に基づいて、発射装置CN1〜CNMの選定処理、発射タイミングの制御処理、或いは発射出力度合いの制御処理などを行う。 Further, the control unit 118 selects the launchers CN1 to CNM in the launch unit 50, controls the gas launch timing, and controls the gas launch output degree according to the hit direction or the hit vector of the hit object. Do at least one of. The hit direction (attack direction) is the movement direction of the hit object when the hit object hits an object such as a user moving object. For example, the hit direction can be specified based on the trajectory of the hit object flying toward an object such as a user moving object. The hit vector represents the strength of the hit in addition to the hit direction. The strength of a hit when a hit object hits an object such as a user moving object is specified based on the magnitude of the hit vector. From this, the hit direction and the hit vector are obtained based on the hit calculation process in the game processing section 115 (hit calculation processing section 116). That is, the game processing unit 115 obtains hit information such as a hit direction and a hit vector based on the result of the game processing. Then, the control unit 118 selects the launching devices CN1 to CNM, controls the firing timing, or controls the firing output degree based on the hit information such as the hit direction and the hit vector obtained based on the result of the game processing. And so on.

また複数の発射装置CN1〜CNMは、鉛直方向に交差する第1の方向に沿った第1〜第Nの発射装置を含む。発射装置CN1〜CNMがK行、N列のマトリクス状に配置される場合に、第1〜第Nの発射装置は、K行のうちの1行に並ぶ発射装置である。そして制御部118は、ユーザに対応するユーザ移動体に対して被ヒットオブジェクトが斜め方向にヒットするヒットイベントが発生した場合に、第1の発射装置から第Nの発射装置へと順次に気体が発射されるように発射部を制御する。 Further, the plurality of launchers CN1 to CNM include first to first launchers along a first direction intersecting in the vertical direction. When the launchers CN1 to CNM are arranged in a matrix of rows K and columns N, the first to Nth launchers are launchers arranged in one row of rows K. Then, when a hit event occurs in which the hit object hits the hit object diagonally with respect to the user moving body corresponding to the user, the control unit 118 sequentially releases gas from the first launching device to the Nth launching device. Control the launcher so that it is fired.

例えば被ヒットオブジェクトが斜め方向にヒットするヒットイベントが発生した場合に、第1の発射装置から気体を発射させ、次に第2の発射装置から気体を発射させ、次に第3の発射装置から気体を発射させるというように順次に時系列に各発射装置から気体を発射させ、最後に第Nの発射装置から気体を発射させる。この場合に順次に時系列に気体を発射させる発射装置は、1個ずつの単位であってもよいし、複数個ずつの単位であってもよい。例えば第1、第2の発射装置から気体を発射させ、次に第3、第4の発射装置から気体を発射させ、次に第5、第6の気体装置から気体を発射させるというような制御であってもよい。 For example, when a hit event occurs in which the hit object hits in an oblique direction, gas is emitted from the first launching device, then gas is launched from the second launching device, and then the gas is launched from the third launching device. Gas is fired from each launcher in chronological order, such as firing gas, and finally gas is fired from the Nth launcher. In this case, the launching device that sequentially launches the gas in chronological order may be a unit of one unit or a unit of a plurality of units. For example, control such that gas is launched from the first and second launchers, then gas is launched from the third and fourth launchers, and then gas is launched from the fifth and sixth gas devices. It may be.

またユーザ移動体に対して被ヒットオブジェクトが斜め方向にヒットする場合の斜め方向とは、ユーザ移動体の向く方向に対する斜め方向であってもよし、ユーザ移動体の向く方向に依らない斜め方向であってもよい。例えば仮想空間のユーザ移動体は、現実世界のユーザの動きに連動して、位置や方向を変化させる。この場合に斜め方向は、ユーザの向く方向に対する斜め方向であってもよいし、ユーザの向く方向に依らない斜め方向であってもよい。 Further, the diagonal direction when the hit object hits the user moving body in an oblique direction may be a diagonal direction with respect to the direction in which the user moving body faces, or a diagonal direction not depending on the direction in which the user moving body faces. There may be. For example, a user moving body in a virtual space changes its position and direction in conjunction with the movement of a user in the real world. In this case, the oblique direction may be an oblique direction with respect to the direction in which the user faces, or may be an oblique direction that does not depend on the direction in which the user faces.

また発射部50は、発射部50の方向を変更する発射部方向変更部52を含む。例えば発射部方向変更部52は、発射部50自体の向く方向(気体の発射方向)を変更する。このように発射部50の方向が変更されると、発射部50の発射装置CN1〜CNMの気体の発射方向が一斉に変更される。そして制御部118は、ゲーム状況やユーザ情報に応じて、発射部方向変更部52の制御を行う。例えばユーザのゲームプレイの状況、ゲームの進行状況、ゲームのイベントの状況、ゲームの戦闘状況、ゲームの対戦状況、敵の攻撃状況、ゲームでのヒット判定の状況、ゲームに登場する移動体の状況、キャラクタやユーザのステータスパラメータの状況、或いはゲームの成績の状況などに応じて、発射部方向変更部52の制御を行い、発射部50の向く方向(気体の発射方向)を変更する。発射部方向変更部52は、発射部50の方向を変更するためアクチュエータ(モータ等)や機械機構により実現できる。 Further, the launching unit 50 includes a launching unit direction changing unit 52 that changes the direction of the launching unit 50. For example, the launching unit direction changing unit 52 changes the direction (gas launching direction) of the launching unit 50 itself. When the direction of the launching unit 50 is changed in this way, the firing direction of the gas of the launching devices CN1 to CNM of the launching unit 50 is changed all at once. Then, the control unit 118 controls the launch unit direction changing unit 52 according to the game situation and the user information. For example, the user's gameplay status, game progress, game event status, game battle status, game battle status, enemy attack status, game hit judgment status, status of moving objects appearing in the game. , The status of the status parameter of the character or the user, the status of the result of the game, or the like, the launching unit direction changing unit 52 is controlled, and the direction in which the launching unit 50 faces (the gas firing direction) is changed. The launching unit direction changing unit 52 can be realized by an actuator (motor or the like) or a mechanical mechanism for changing the direction of the launching unit 50.

また発射部50は、複数の発射装置CN1〜CNMの方向を変更する発射装置方向変更部54を含む。この発射装置方向変更部54は、CN1〜CNMの各発射装置の向く方向(気体の発射方向)を制御する。この場合に発射装置方向変更部54は、1個ずつの単位で発射装置の方向を変更してもよし、複数個ずつの単位で発射装置の方向を変更してもよい。そして制御部118は、ゲーム状況やユーザ情報に応じて、発射装置方向変更部54の制御を行う。例えばユーザのゲームプレイの状況、ゲームの進行状況、ゲームのイベントの状況、ゲームの戦闘状況、ゲームの対戦状況、敵の攻撃状況、ゲームでのヒット判定の状況、ゲームに登場するキャラクタの状況、キャラクタやユーザのステータスパラメータの状況、或いはゲームの成績の状況などに応じて、発射装置方向変更部54の制御を行い、CN1〜CNMの各発射装置の向く方向(気体の発射方向)を変更する。発射装置方向変更部54は、発射装置CN1〜CNMの方向を変更するためアクチュエータ(モータ等)や機械機構により実現できる。 Further, the launching unit 50 includes a launching device direction changing unit 54 that changes the direction of the plurality of launching devices CN1 to CNM. The launcher direction changing unit 54 controls the direction (gas launch direction) of each launcher of CN1 to CNM. In this case, the launcher direction changing unit 54 may change the direction of the launcher in units of one, or may change the direction of the launcher in units of a plurality of units. Then, the control unit 118 controls the launching device direction changing unit 54 according to the game situation and the user information. For example, the user's gameplay status, game progress, game event status, game battle status, game battle status, enemy attack status, game hit judgment status, game character status, etc. The launcher direction changing unit 54 is controlled according to the status of the status parameters of the character or the user, the status of the game results, etc., and the direction (gas launch direction) of each launcher of CN1 to CNM is changed. .. The launcher direction changing unit 54 can be realized by an actuator (motor or the like) or a mechanical mechanism for changing the directions of the launchers CN1 to CNM.

また仮想空間設定部112は、仮想空間において気体に対応する被ヒットオブジェクトがヒットするヒットイベントにおける被ヒットオブジェクトの発生源オブジェクトを、実空間での発射部50の位置に対応する仮想空間の位置に配置する処理を行う。例えばヒットイベントにおいては、敵キャラクタ等の発生源オブジェクト(発射源オブジェクト)が被ヒットオブジェクトを発生(発射)し、この被ヒットオブジェクトがユーザ移動体等のオブジェクトにヒットする。この場合に仮想空間設定部112は、当該発生源オブジェクトを、実空間での発射部50の位置(位置又は方向)に対応する仮想空間の位置(位置又は方向)に配置する。そして、このような仮想空間の位置に配置された発生源オブジェクトからの被ヒットオブジェクトが、ユーザ移動体等のオブジェクトにヒットする。このようにすれば、被ヒットオブジェクトを発生する発生源オブジェクトの位置と、被ヒットオブジェクトに対応する気体を発射する発射部50の位置とを対応させることが可能になる。これにより、あたかも発生源オブジェクトの位置から気体が発生したかのような仮想現実を実現できるようになる。 Further, the virtual space setting unit 112 sets the source object of the hit object in the hit event in which the hit object corresponding to the gas hits in the virtual space to the position of the virtual space corresponding to the position of the launching unit 50 in the real space. Perform the process of arranging. For example, in a hit event, a source object (launch source object) such as an enemy character generates (fires) a hit object, and this hit object hits an object such as a user moving object. In this case, the virtual space setting unit 112 arranges the source object at a position (position or direction) in the virtual space corresponding to the position (position or direction) of the launching unit 50 in the real space. Then, the hit object from the source object arranged at such a position in the virtual space hits an object such as a user moving object. In this way, it is possible to make the position of the source object that generates the hit object correspond to the position of the launching unit 50 that emits the gas corresponding to the hit object. This makes it possible to realize a virtual reality as if gas was generated from the position of the source object.

またゲーム処理部115は、発射部50での気体の発射に対して、音、振動又は画像を連動させるゲーム演出処理を行う。例えば発射部50での気体の発射に連動して、気体の発射音やヒット音などの音や出力したり、気体の発射やヒットを表す振動を発生したり、気体の発射やヒットを表す演出画像を表示するゲーム演出処理を行う。このようなゲーム演出処理は、例えば制御部118からの発射制御信号に基づいて発射部50を制御する場合に、この発射制御信号に連動した演出処理を行うことなどにより実現できる。 Further, the game processing unit 115 performs a game production process in which sound, vibration, or an image is linked to the emission of gas by the launching unit 50. For example, in conjunction with the launch of gas at the launching unit 50, sounds such as gas launch sounds and hit sounds and outputs, vibrations representing gas launches and hits are generated, and effects representing gas launches and hits are generated. Performs game production processing to display an image. Such a game effect processing can be realized, for example, when the launch unit 50 is controlled based on the launch control signal from the control unit 118, the effect process linked to the launch control signal is performed.

また発射部50は、発射する気体を加工する加工部56を含む。そして発射部50は、制御部118の制御の下で、加工部56により加工された気体を発射する。 Further, the launching unit 50 includes a processing unit 56 that processes the gas to be emitted. Then, the launching unit 50 launches the gas processed by the processing unit 56 under the control of the control unit 118.

ここで加工部56での気体の加工としては種々の態様が考えられる。例えば発射する気体に香りを混ぜるような加工をしてもよい。また発射する気体の温度を変化させるような加工を行ってもよい。例えば発射する気体の温度を上げたり、温度を下げる加工を行う。例えば温度を下げる加工の一態様として、気体に氷や雪を混ぜるような加工を行って、発射してもよい。或いは、発射する気体の湿度を変化させる加工を行ってもよい。例えば発射する気体の湿度を上げたり、湿度を下げる加工を行う。例えば、ミストを発射するような加工を行ってもよい。このように気体の加工を行って発射すれば、加工した気体を利用して、ユーザに対して多種多様な仮想現実を体感させることが可能になる。例えば吹雪が吹き付けるようなHMD200の映像シーンに連動して、氷や雪が混ざった気体を発射するような加工を行う。また、火山などの暑い場所でのHMD200の映像シーンに連動して、熱風の気体を発射するような加工を行う。また、お花畑などの映像シーンに連動して、花の香りが混ざった気体を発射するような加工を行う。これにより、ユーザの仮想現実感を更に向上できるようになる。 Here, various modes can be considered as the gas processing in the processing unit 56. For example, it may be processed to mix the scent with the emitted gas. Further, processing may be performed so as to change the temperature of the emitted gas. For example, processing is performed to raise the temperature of the emitted gas or lower the temperature. For example, as one mode of processing for lowering the temperature, processing such as mixing ice or snow with gas may be performed and then fired. Alternatively, processing may be performed to change the humidity of the emitted gas. For example, processing is performed to raise the humidity of the emitted gas or lower the humidity. For example, processing such as firing mist may be performed. If the gas is processed and fired in this way, the processed gas can be used to allow the user to experience a wide variety of virtual reality. For example, in conjunction with the video scene of the HMD200 where a snowstorm blows, processing is performed such that a gas mixed with ice or snow is emitted. In addition, processing is performed so as to emit hot air gas in conjunction with the video scene of the HMD200 in a hot place such as a volcano. In addition, in conjunction with video scenes such as flower fields, processing is performed to emit gas mixed with the scent of flowers. This makes it possible to further improve the virtual reality of the user.

また加工部56は、複数の発射装置CN1〜CNMの第1の発射装置と第2の発射装置とで、発射する気体に対して異なる加工を行う。例えば各発射装置毎に異なる気体の加工を行う。このようにすれば、複数の発射装置CN1〜CNMを用いて、様々に加工された気体をユーザに対して発射することが可能になる。なお、複数の発射装置CN1〜CNMにおいて、1個ずつの単位で発射装置が発射する気体の加工を異ならせてもよいし、複数個ずつの単位で発射装置が発射する気体の加工を異ならせてもよい。 Further, the processing unit 56 performs different processing on the gas to be emitted by the first launching device and the second launching device of the plurality of launching devices CN1 to CNM. For example, different gas processing is performed for each launcher. In this way, it becomes possible to launch variously processed gases to the user by using the plurality of launchers CN1 to CNM. In the plurality of launchers CN1 to CNM, the processing of the gas emitted by the launcher may be different in units of one, or the processing of the gas emitted by the launcher may be different in units of a plurality of launchers. You may.

なお移動体処理部113は、仮想空間を移動するユーザ移動体の移動処理を行う。例えば移動体処理部113は、ユーザに対応するユーザ移動体(アバター移動体、搭乗移動体、外殻移動体)を、情報取得部111により取得されたユーザ情報(位置情報、方向情報)に基づいて、仮想空間において移動させる処理を行う。例えば実空間でのユーザの移動に追従して移動するように、仮想空間でユーザ移動体を移動させる。例えばユーザ移動体の移動速度や移動加速度に基づいて、ユーザ移動体の位置等をフレーム毎に更新する処理を行って、ユーザ移動体を仮想空間(仮想フィールド)において移動させる。また移動体処理部113は、情報取得部111により取得されたユーザ情報(姿勢情報)に基づいて、ユーザ移動体を動作させる処理を行う。例えばモーションデータに基づいて、ユーザ移動体の姿勢等を変化させるモーション処理を行う。 The moving body processing unit 113 performs a moving process of the user moving body moving in the virtual space. For example, the moving body processing unit 113 uses the user moving body (avatar moving body, boarding moving body, outer shell moving body) corresponding to the user based on the user information (position information, direction information) acquired by the information acquisition unit 111. Then, the process of moving in the virtual space is performed. For example, the user moving body is moved in the virtual space so as to follow the movement of the user in the real space. For example, the position of the user moving body is updated for each frame based on the moving speed and the moving acceleration of the user moving body, and the user moving body is moved in the virtual space (virtual field). Further, the mobile body processing unit 113 performs a process of operating the user mobile body based on the user information (posture information) acquired by the information acquisition unit 111. For example, based on the motion data, motion processing for changing the posture of the user moving body or the like is performed.

また仮想カメラ制御部114は、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御する。 Further, the virtual camera control unit 114 controls the virtual camera so as to follow the change in the viewpoint of the user based on the tracking information of the viewpoint information of the user.

例えば入力処理部102(入力受け付け部)は、HMD200を装着するユーザの視点情報のトラッキング情報を取得する。例えばユーザの視点位置、視線方向の少なくとも1つである視点情報のトラッキング情報(視点トラッキング情報)を取得する。このトラッキング情報は、例えばHMD200のトラッキング処理を行うことで取得できる。なおトラッキング処理によりユーザの視点位置、視線方向を直接に取得するようにしてもよい。一例としては、トラッキング情報は、ユーザの初期視点位置からの視点位置の変化情報(視点位置の座標の変化値)、及び、ユーザの初期視線方向からの視線方向の変化情報(視線方向の回転軸回りでの回転角度の変化値)の少なくとも一方を含むことができる。このようなトラッキング情報が含む視点情報の変化情報に基づいて、ユーザの視点位置や視線方向(ユーザの頭部の位置、姿勢の情報)を特定できる。 For example, the input processing unit 102 (input receiving unit) acquires tracking information of the viewpoint information of the user who wears the HMD 200. For example, the tracking information (viewpoint tracking information) of the viewpoint information which is at least one of the user's viewpoint position and line-of-sight direction is acquired. This tracking information can be obtained, for example, by performing tracking processing of HMD200. The user's viewpoint position and line-of-sight direction may be directly acquired by the tracking process. As an example, the tracking information includes change information of the viewpoint position from the initial viewpoint position of the user (change value of the coordinates of the viewpoint position) and change information of the line-of-sight direction from the initial line-of-sight direction of the user (rotation axis in the line-of-sight direction). It can include at least one of (changes in rotation angle around). The user's viewpoint position and line-of-sight direction (information on the position of the user's head and posture) can be specified based on the change information of the viewpoint information included in such tracking information.

そして仮想カメラ制御部114は、取得されたトラッキング情報(ユーザの視点位置及び視線方向の少なくとも一方の情報)に基づいて仮想カメラの視点位置、視線方向を変化させる。例えば、仮想カメラ制御部114は、実空間でのユーザの視点位置、視線方向の変化に応じて、仮想空間での仮想カメラの視点位置、視線方向(位置、姿勢)が変化するように、仮想カメラを設定する。このようにすることで、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御できる。 Then, the virtual camera control unit 114 changes the viewpoint position and the line-of-sight direction of the virtual camera based on the acquired tracking information (information on at least one of the user's viewpoint position and the line-of-sight direction). For example, the virtual camera control unit 114 virtually changes the viewpoint position and line-of-sight direction (position, posture) of the virtual camera in the virtual space according to changes in the user's viewpoint position and line-of-sight direction in the real space. Set the camera. By doing so, it is possible to control the virtual camera so as to follow the change in the viewpoint of the user based on the tracking information of the viewpoint information of the user.

また本実施形態では、ユーザがプレイするゲームのゲーム処理として、仮想現実のシミュレーション処理を行う。仮想現実のシミュレーション処理は、実空間での事象を仮想空間で模擬するためのシミュレーション処理であり、当該事象をユーザに仮想体験させるための処理である。例えば実空間のユーザに対応するアバター移動体(仮想ユーザ)やその搭乗移動体などのユーザ移動体を、仮想空間で移動させたり、移動に伴う環境や周囲の変化をユーザに体感させるための処理を行う。 Further, in the present embodiment, virtual reality simulation processing is performed as game processing of the game played by the user. The virtual reality simulation process is a simulation process for simulating an event in a real space in a virtual space, and is a process for allowing a user to experience the event virtually. For example, processing for moving a user moving body such as an avatar moving body (virtual user) corresponding to a user in the real space or its boarding moving body in the virtual space, and for the user to experience changes in the environment and surroundings due to the movement. I do.

なお図1の本実施形態のシミュレーションシステムの処理は、施設に設置されるPC等の処理装置、ユーザが装着する処理装置、或いはこれらの処理装置の分散処理などにより実現できる。或いは、本実施形態のシミュレーションシステムの処理を、サーバシステムと端末装置により実現してもよい。例えばサーバシステムと端末装置の分散処理などにより実現してもよい。 The processing of the simulation system of the present embodiment of FIG. 1 can be realized by a processing device such as a PC installed in a facility, a processing device worn by a user, or distributed processing of these processing devices. Alternatively, the processing of the simulation system of the present embodiment may be realized by the server system and the terminal device. For example, it may be realized by distributed processing of the server system and the terminal device.

2.トラッキング処理
次にトラッキング処理の例について説明する。図2(A)に本実施形態のシミュレーションシステムに用いられるHMD200の一例を示す。図2(A)に示すようにHMD200には複数の受光素子201、202、203(フォトダイオード)が設けられている。受光素子201、202はHMD200の前面部に設けられ、受光素子203はHMD200の右側面に設けられている。またHMDの左側面、上面等にも不図示の受光素子が設けられている。
2. Tracking process Next, an example of tracking process will be described. FIG. 2A shows an example of the HMD200 used in the simulation system of the present embodiment. As shown in FIG. 2A, the HMD 200 is provided with a plurality of light receiving elements 201, 202, 203 (photodiodes). The light receiving elements 201 and 202 are provided on the front surface of the HMD 200, and the light receiving elements 203 are provided on the right side surface of the HMD 200. Further, a light receiving element (not shown) is also provided on the left side surface, the upper surface, and the like of the HMD.

またユーザUSは、手、腰等の部位にトラッキング装置251、252、253を装着している。これらのトラッキング装置251、252、253にはHMD200と同様に複数の受光素子(不図示)が設けられている。これらの受光素子を用いることで、HMD200の場合と同様に、手、腰等の部位の位置、方向を特定でき、ユーザUSの姿勢情報を取得できる。なおトラッキング装置が装着されるユーザUSの部位は手、腰には限定されず、脚、腹部、胸部等の種々の部位に装着できる。 Further, the user US wears tracking devices 251, 252, and 253 on parts such as hands and hips. Similar to the HMD200, these tracking devices 251, 252, and 253 are provided with a plurality of light receiving elements (not shown). By using these light receiving elements, the positions and directions of parts such as hands and hips can be specified and the posture information of the user US can be acquired as in the case of the HMD200. The part of the user US to which the tracking device is attached is not limited to the hands and hips, and can be attached to various parts such as the legs, abdomen, and chest.

またHMD200には、ヘッドバンド260等が設けられており、ユーザUSは、より良い装着感で安定的に頭部にHMD200を装着できるようになっている。また、HMD200には、不図示のヘッドホン端子が設けられており、このヘッドホン端子にヘッドホン270(音出力部192)を接続することで、例えば3次元音響(3次元オーディオ)の処理が施されたゲーム音を、ユーザUSは聴くことが可能になる。なお、ユーザUSの頭部の頷き動作や首振り動作をHMD200のセンサ部210等により検出することで、ユーザUSの操作情報を入力できるようにしてもよい。 Further, the HMD200 is provided with a headband 260 and the like so that the user US can stably attach the HMD200 to the head with a better wearing feeling. Further, the HMD 200 is provided with a headphone terminal (not shown), and by connecting the headphone 270 (sound output unit 192) to the headphone terminal, for example, 3D sound (3D audio) processing is performed. The user US can listen to the game sound. The operation information of the user US may be input by detecting the nodding motion and the swinging motion of the head of the user US by the sensor unit 210 or the like of the HMD 200.

図2(B)に示すように、ユーザUSの周辺には、ベースステーション280、284が設置されている。ベースステーション280には発光素子281、282が設けられ、ベースステーション284には発光素子285、286が設けられている。発光素子281、282、285、286は、例えばレーザー(赤外線レーザー等)を出射するLEDにより実現される。ベースステーション280、284は、これら発光素子281、282、285、286を用いて、例えばレーザーを放射状に出射する。そして図2(A)のHMD200に設けられた受光素子201〜203等が、ベースステーション280、284からのレーザーを受光することで、HMD200のトラッキングが実現され、ユーザUSの頭の位置や向く方向(視点位置、視線方向)を検出できるようになる。 As shown in FIG. 2B, base stations 280 and 284 are installed around the user US. The base station 280 is provided with light emitting elements 281 and 282, and the base station 284 is provided with light emitting elements 285 and 286. The light emitting elements 281, 282, 285, and 286 are realized by, for example, an LED that emits a laser (infrared laser or the like). The base stations 280 and 284 use these light emitting elements 281, 282, 285 and 286 to emit, for example, a laser radially. Then, the light receiving elements 201 to 203 and the like provided in the HMD200 of FIG. 2A receive the laser from the base stations 280 and 284, so that the tracking of the HMD200 is realized, and the position of the head of the user US and the direction in which it faces are realized. (Viewpoint position, line-of-sight direction) can be detected.

またトラッキング装置251、252、253に設けられる受光素子が、ベースステーション280、284からのレーザーを受光することで、ユーザUSの各部位の位置及び方向の少なくとも一方を検出できるようになる。 Further, the light receiving elements provided in the tracking devices 251, 252, and 253 can detect at least one of the positions and directions of each part of the user US by receiving the laser from the base stations 280 and 284.

図3(A)にHMD200の他の例を示す。図3(A)では、HMD200に対して複数の発光素子231〜236が設けられている。これらの発光素子231〜236は例えばLEDなどにより実現される。発光素子231〜234は、HMD200の前面部に設けられ、発光素子235や不図示の発光素子236は、背面側に設けられる。これらの発光素子231〜236は、例えば可視光の帯域の光を出射(発光)する。具体的には発光素子231〜236は、互いに異なる色の光を出射する。またユーザUSが手、腰等の部位に装着するトラッキング装置251、252、253にも発光素子(不図示)が設けられている。 FIG. 3A shows another example of the HMD200. In FIG. 3A, a plurality of light emitting elements 231 to 236 are provided for the HMD 200. These light emitting elements 231 to 236 are realized by, for example, LEDs. The light emitting elements 231 to 234 are provided on the front surface of the HMD 200, and the light emitting element 235 and the light emitting element 236 (not shown) are provided on the back side. These light emitting elements 231 to 236 emit (emit) light in the visible light band, for example. Specifically, the light emitting elements 231 to 236 emit light of different colors from each other. In addition, light emitting elements (not shown) are also provided in tracking devices 251, 252, and 253 that the user US wears on parts such as hands and hips.

そして図3(B)に示す撮像部150を、ユーザUSの周囲の少なくとも1つの場所(例えば前方側、或いは前方側及び後方側など)に設置し、この撮像部150により、HMD200の発光素子231〜236の光を撮像する。即ち、撮像部150の撮像画像には、これらの発光素子231〜236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、ユーザUSの頭部(HMD)のトラッキングを実現する。即ちユーザUSの頭部の3次元位置や向く方向(視点位置、視線方向)を検出する。 Then, the image pickup unit 150 shown in FIG. 3B is installed at at least one place (for example, the front side, the front side, the rear side, etc.) around the user US, and the light emitting element 231 of the HMD 200 is provided by the image pickup unit 150. ~ 236 light is imaged. That is, the spot light of these light emitting elements 231 to 236 is reflected in the image captured by the imaging unit 150. Then, by performing image processing of this captured image, tracking of the head (HMD) of the user US is realized. That is, the three-dimensional position and the direction (viewpoint position, line-of-sight direction) of the head of the user US are detected.

例えば図3(B)に示すように撮像部150には第1、第2のカメラ151、152が設けられており、これらの第1、第2のカメラ151、152の第1、第2の撮像画像を用いることで、ユーザUSの頭部の奥行き方向での位置等が検出可能になる。またHMD200に設けられたモーションセンサのモーション検出情報に基づいて、ユーザUSの頭部の回転角度(視線)も検出可能になっている。従って、このようなHMD200を用いることで、ユーザUSが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想空間(仮想3次元空間)での画像(ユーザの視点に対応する仮想カメラから見える画像)を、HMD200の表示部220に表示することが可能になる。 For example, as shown in FIG. 3B, the imaging unit 150 is provided with the first and second cameras 151 and 152, and the first and second cameras 151 and 152 of these first and second cameras 151 and 152 are provided. By using the captured image, the position of the head of the user US in the depth direction can be detected. Further, the rotation angle (line of sight) of the head of the user US can be detected based on the motion detection information of the motion sensor provided in the HMD 200. Therefore, by using such an HMD200, no matter which direction the user US faces in all directions of 360 degrees around it, the image (user's) in the corresponding virtual space (virtual three-dimensional space) is used. The image seen from the virtual camera corresponding to the viewpoint) can be displayed on the display unit 220 of the HMD 200.

また撮像部150により、トラッキング装置251、252、253の発光素子の光を撮像することで、HMD200の場合と同様に、ユーザUSの各部位の位置及び方向の少なくとも一方を検出できる。 Further, by capturing the light of the light emitting elements of the tracking devices 251, 252, and 253 by the imaging unit 150, at least one of the positions and directions of each portion of the user US can be detected as in the case of the HMD 200.

なお、発光素子231〜236として、可視光ではなく赤外線のLEDを用いてもよい。また、例えばデプスカメラ等を用いるなどの他の手法で、ユーザの頭部の位置や動き等を検出するようにしてもよい。 Infrared LEDs may be used as the light emitting elements 231 to 236 instead of visible light. Further, the position and movement of the user's head may be detected by another method such as using a depth camera or the like.

また、ユーザの視点位置、視線方向(ユーザの位置、方向)を検出するトラッキング処理の手法は、図2(A)〜図3(B)で説明した手法には限定されない。例えばHMD200に設けられたモーションセンサ等を用いて、HMD200の単体でトラッキング処理を実現してもよい。即ち、図2(B)のベースステーション280、284、図3(B)の撮像部150などの外部装置を設けることなく、トラッキング処理を実現する。或いは、公知のアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの種々の視点トラッキング手法により、ユーザの視点位置、視線方向などの視点情報等を検出してもよい。またトラッキング装置251、252、253によるユーザUSの各部位の位置、方向の検出を、トラッキング装置251、252、253に設けられたモーションセンサを用いて実現してもよい。 Further, the tracking processing method for detecting the user's viewpoint position and line-of-sight direction (user's position and direction) is not limited to the methods described in FIGS. 2A to 3B. For example, the tracking process may be realized by the HMD 200 alone by using a motion sensor or the like provided in the HMD 200. That is, the tracking process is realized without providing an external device such as the base station 280 and 284 of FIG. 2 (B) and the image pickup unit 150 of FIG. 3 (B). Alternatively, the viewpoint information such as the user's viewpoint position and line-of-sight direction may be detected by various viewpoint tracking methods such as known eye tracking, face tracking or head tracking. Further, the tracking devices 251, 252, and 253 may detect the position and direction of each part of the user US by using the motion sensors provided in the tracking devices 251, 252, and 253.

3.本実施形態の手法
次に本実施形態の手法について詳細に説明する。なお、以下では本実施形態の手法を、対戦ゲームに適用した場合を主に例にとり説明する。但し、本実施形態はこれに限定されず、種々のゲーム(RPG、アクションゲーム、競争ゲーム、スポーツゲーム、ホラー体験ゲーム、電車や飛行機等の乗り物のシミュレーションゲーム、パズルゲーム、コミュニケーションゲーム、或いは音楽ゲーム等)に適用でき、ゲーム以外にも適用可能である。また以下では、ユーザ移動体が、ユーザのアバター移動体(仮想ユーザ、ユーザキャラクタ)である場合を例にとり説明するが、ユーザ移動体は、ユーザが搭乗する搭乗移動体(例えばロボット、戦車、戦闘機又は車等)などであってもよい。また以下では発射装置により発射される気体が空気であるとして主に説明を行うが、本実施形態はこれに限定されるものではない。
3. 3. Method of this Embodiment Next, the method of this embodiment will be described in detail. In the following, the case where the method of this embodiment is applied to a competitive game will be mainly described as an example. However, this embodiment is not limited to this, and various games (RPG, action game, competition game, sports game, horror experience game, simulation game of vehicle such as train and airplane, puzzle game, communication game, or music game Etc.), and can be applied to other than games. Further, in the following, the case where the user moving body is a user's avatar moving body (virtual user, user character) will be described as an example, but the user moving body is a boarding moving body (for example, a robot, a tank, a battle) on which the user is boarded. It may be a machine, a car, etc.). Further, in the following description, it will be mainly described that the gas emitted by the launching device is air, but the present embodiment is not limited to this.

3.1 ゲームの説明
まず本実施形態により実現されるゲームについて説明する。図4は本実施形態のシミュレーションシステムに用いられる筐体40の一例である。本実施形態では、HMDを装着したユーザが、図4に示すような筐体40上においてゲームをプレイする。
3.1 Description of the game First, the game realized by the present embodiment will be described. FIG. 4 is an example of the housing 40 used in the simulation system of the present embodiment. In the present embodiment, the user wearing the HMD plays the game on the housing 40 as shown in FIG.

筐体40は、ユーザUSがゲームをプレイするフィールドFL(床面)、発射部50、処理装置60を含む。フィールドFLには領域AR1、AR2、AR3が設定され、領域AR1、AR2、AR3の下方には、フィールドFLの床を振動させる振動部VB1、VB2、VB3が設けられている。例えば真ん中に設けられた振動部VB1は振動モータにより実現され、両端に設けられた振動部VB2、VB3はトランスデューサーにより実現される。振動モータは、例えば、偏芯した錘を回転させることで振動を発生する。具体的には駆動軸(ローター軸)の両端に偏心した錘を取り付けてモータ自体が揺れるようにする。トランスデューサーは、音信号を変換するものであり、ハイパワーのサブウーハーに相当するものである。例えば図1の制御部118が音ファイルの再生処理を行うと、それによる音信号がトランスデューサーに入力される。そして例えば音信号の低域成分に基づいて振動が発生する。 The housing 40 includes a field FL (floor surface) on which the user US plays a game, a launching unit 50, and a processing device 60. Areas AR1, AR2, and AR3 are set in the field FL, and vibration units VB1, VB2, and VB3 that vibrate the floor of the field FL are provided below the areas AR1, AR2, and AR3. For example, the vibrating portion VB1 provided in the center is realized by a vibrating motor, and the vibrating portions VB2 and VB3 provided at both ends are realized by a transducer. The vibration motor generates vibration by rotating an eccentric weight, for example. Specifically, eccentric weights are attached to both ends of the drive shaft (rotor shaft) so that the motor itself swings. The transducer converts a sound signal and is equivalent to a high-power subwoofer. For example, when the control unit 118 of FIG. 1 performs a sound file reproduction process, the resulting sound signal is input to the transducer. Then, for example, vibration is generated based on the low frequency component of the sound signal.

処理装置60は、本実施形態のシミュレーションシステムの種々の処理を行うものであり、図1の処理部100、記憶部170等に相当するものである。図4で処理装置60はパーソナルコンピュータ(PC)により実現されている。 The processing device 60 performs various processes of the simulation system of the present embodiment, and corresponds to the processing unit 100, the storage unit 170, and the like in FIG. In FIG. 4, the processing device 60 is realized by a personal computer (PC).

発射部50は、フィールドFLに設けられた支持部62、64により支持されている。そして発射部50は、フィールドFLに立つユーザUSに対してその主面が正対するように設けられている。発射部50には、複数の発射装置CN1〜CN18がマトリクス状に配置されている。発射装置CN1〜CN18は、発射部50に正対するユーザUSに対して空気(広義には気体。以下、同様)を発射する。発射装置CN1〜CN18の下方には送風機FN1、FN2、FN3が設けられている。送風機FN1、FN2、FN3は例えばシロッコファン等により実現される。そして発射部50に正対するユーザUSに対して空気(気体)を送風する。 The launching portion 50 is supported by supporting portions 62 and 64 provided in the field FL. The launch unit 50 is provided so that its main surface faces the user US standing in the field FL. A plurality of launching devices CN1 to CN18 are arranged in a matrix in the launching unit 50. The launchers CN1 to CN18 launch air (in a broad sense, gas; the same applies hereinafter) to the user US facing the launching unit 50. Blowers FN1, FN2, and FN3 are provided below the launchers CN1 to CN18. The blowers FN1, FN2, and FN3 are realized by, for example, a sirocco fan or the like. Then, air (gas) is blown to the user US facing the launching unit 50.

図5(A)、図5(B)は、発射部50、発射装置70(CN1〜CN18)の詳細例を説明する図である。発射部50は、ユーザに対して空気(気体)の発射が可能な装置であり、マトリクス状に配置された発射装置CN1〜CN18を有する。図5(A)では、発射装置CN1〜CN18は3行、6列のマトリクス状の配置となっている。但し本実施形態はこれには限定されず、K行、N列(K、Lは2以上の整数)のマトリクス状の配置であればよい。また図5(A)では発射装置間の距離は等間隔になっているが、発射装置間の距離が異なっていてもよい。例えば図5(A)に示すような格子状の配列には限定されず、例えば各行、各列が直線状の配列ではなく、曲線状の配列であってもよい。また1次元配列も可能である。 5 (A) and 5 (B) are views for explaining detailed examples of the launching unit 50 and the launching devices 70 (CN1 to CN18). The launching unit 50 is a device capable of firing air (gas) to the user, and has launching devices CN1 to CN18 arranged in a matrix. In FIG. 5A, the launchers CN1 to CN18 are arranged in a matrix of 3 rows and 6 columns. However, this embodiment is not limited to this, and may be arranged in a matrix of K rows and N columns (K and L are integers of 2 or more). Further, in FIG. 5A, the distances between the launchers are evenly spaced, but the distances between the launchers may be different. For example, the arrangement is not limited to the grid pattern as shown in FIG. 5 (A), and for example, each row and each column may be a curved array instead of a linear array. A one-dimensional array is also possible.

また図5(A)において発射装置CN1〜CN18は、いわゆる空気砲のように空気を強い圧力(強い静圧)で発射するのに対して、送風機FN1、FN2、FN3は、シロッコファン等により弱い圧力(弱い静圧)で空気を送風する。 Further, in FIG. 5A, the launchers CN1 to CN18 launch air with a strong pressure (strong static pressure) like a so-called air cannon, whereas the blowers FN1, FN2, and FN3 are weaker due to a sirocco fan or the like. Blow air with pressure (weak static pressure).

図5(B)は、発射装置70(CN1〜CN18)の構成例である。発射装置70は、スピーカ72と、空気蓄積部76(気体蓄積部)を有する。スピーカ72は、音信号(低域信号)に基づいて振動板74を振動させる。振動板74が振動すると、空気蓄積部76に蓄積された空気(空気の塊)が、発射口78から空気砲のように発射される。例えば渦状の空気として発射される。なお発射装置70は図5(B)の構成に限定されず、種々の変形実施が可能である。例えばスピーカ72の代わりに、トランスデューサー、振動モータ又はソレノイド等の振動デバイスを用いて振動板74を振動させて、空気を発射してもよい。 FIG. 5B is a configuration example of the launching device 70 (CN1 to CN18). The launcher 70 has a speaker 72 and an air storage unit 76 (gas storage unit). The speaker 72 vibrates the diaphragm 74 based on the sound signal (low frequency signal). When the diaphragm 74 vibrates, the air (mass of air) accumulated in the air storage unit 76 is emitted from the launch port 78 like an air cannon. For example, it is emitted as spiral air. The launching device 70 is not limited to the configuration shown in FIG. 5B, and various modifications can be performed. For example, instead of the speaker 72, a vibration device such as a transducer, a vibration motor, or a solenoid may be used to vibrate the diaphragm 74 to emit air.

図6は仮想空間に設定されるフィールドVFL(プレイフィールド、ゲームステージ)の一例である。フィールドVFLには、ユーザに対応しユーザが操作するユーザキャラクタ(広義にはユーザ移動体)や、相手プレーヤやコンピュータが操作する敵キャラクタCHE1、CHE2、CHE3が配置されている。ここでは四角形の各コーナの位置にユーザキャラクタCH、敵キャラクタCHE1、CHE2、CHE3が配置されている。そしてこれらキャラクタ間で、気弾(空気弾)の攻撃による対戦が行われる。 FIG. 6 is an example of a field VFL (play field, game stage) set in the virtual space. In the field VFL, a user character (in a broad sense, a user moving body) corresponding to the user and operated by the user, and enemy characters CHE1, CHE2, and CHE3 operated by the opponent player or the computer are arranged. Here, the user character CH, the enemy characters CHE1, CHE2, and CHE3 are arranged at the positions of each corner of the quadrangle. Then, a battle is performed between these characters by attacking an air bullet.

図7〜図10は本実施形態により生成されるゲーム画像の例である。図7において敵キャラクタCHE1(広義には発生源オブジェクト)は、気弾AR(広義には被ヒットオブジェクト)を用いてユーザキャラクタCH(図6)に対して攻撃を行っている。例えば図7で気弾ARが発射された後、図8、図9では気弾ARがユーザキャラクタCHに近づいており、図10において気弾ARがユーザキャラクタCHにヒットしている。 7 to 10 are examples of game images generated by the present embodiment. In FIG. 7, the enemy character CHE1 (source object in a broad sense) attacks the user character CH (FIG. 6) using the air bullet AR (hit object in a broad sense). For example, after the bullet AR is fired in FIG. 7, the bullet AR is approaching the user character CH in FIGS. 8 and 9, and the bullet AR hits the user character CH in FIG.

本実施形態では、このように敵キャラクタCHE1(発生源オブジェクト)が発射(発生)した気弾AR(被ヒットオブジェクト)がユーザキャラクタCH(ユーザ移動体)にヒットするヒットイベントが発生した場合に、この気弾ARのヒットを、ユーザの触覚により体感させるための体感装置として、図4の発射部50を用いている。即ち、気弾ARのヒット時に、発射部50がユーザUSに対して空気を発射し、あたかも本当の気弾ARがヒットしたかのような仮想現実をユーザUSに体感させている。即ち、発射部50が発射した空気の塊が身体に当たることによる触覚による体感を、ユーザUSに与えている。 In the present embodiment, when a hit event occurs in which the air bullet AR (hit object) fired (generated) by the enemy character CHE1 (source object) hits the user character CH (user moving object) in this way. The launching unit 50 of FIG. 4 is used as an experience device for experiencing the hit of the air bullet AR by the user's tactile sense. That is, when the air bullet AR hits, the launching unit 50 emits air to the user US, and the user US is made to experience the virtual reality as if the real air bullet AR was hit. That is, the user US is given a tactile sensation when the air mass emitted by the launching unit 50 hits the body.

図4に示すようにユーザUSは視界を覆うようにHMDを装着している。このため、図7〜図10に示すようなHMDの表示画像(映像)に連動して、発射部50からの空気の塊が空気砲のようにユーザUSに当たることで、ユーザUSは、本物の気弾ARがヒットしたかのような仮想現実を体感できるようになる。そして、このような空気の発射部50を用いた体感装置は、衛生面や、安全面や、シミュレーションシステムの運営面においても適切な装置であり、装置の規模もそれほど大規模化しないという利点がある。例えば空気をユーザUSに当てるだけであれば、衛生面や安全面の問題は生じない。また図4のようにユーザUSに正対する位置にだけ発射部50を設ける構成であれば、シミュレーションシステムの規模もコンパクトにできる。 As shown in FIG. 4, the user US wears the HMD so as to cover the field of view. Therefore, in conjunction with the display image (video) of the HMD as shown in FIGS. 7 to 10, the air mass from the launching unit 50 hits the user US like an air cannon, so that the user US is real. You will be able to experience the virtual reality as if the air bullet AR was a hit. An experience device using such an air launching unit 50 is an appropriate device in terms of hygiene, safety, and operation of the simulation system, and has the advantage that the scale of the device is not so large. be. For example, if only air is applied to the user US, there will be no hygiene or safety problems. Further, if the launching unit 50 is provided only at a position facing the user US as shown in FIG. 4, the scale of the simulation system can be made compact.

3.2 ゲーム状況に応じた発射部の制御
次に本実施形態での発射部50の制御手法について詳細に説明する。本実施形態では、複数の発射装置CN1〜CN18がマトリクス状(2次元)に配置された発射部50を用い、この発射部50を、図7〜図10に示すような仮想空間のゲーム状況に応じて制御している。具体的には、ゲーム状況やユーザ情報(位置、方向又は姿勢等)じ応じて発射部50を制御する。例えば本実施形態のシミュレーションシステムは、視界を覆うHMDを装着したユーザが実空間のプレイ場所に位置し、ユーザの例えば位置や方向を検知してプレイするゲームにおけるシミュレーションシステムである。そして本実施形態のシミュレーションシステムでは、仮想空間上のゲーム状況やユーザ情報に応じて、ユーザに対して空気等の気体を吹き出すことが可能な発射装置が複数配置されている発射部50と、それぞれの発射を制御する制御部118とを有し、発射部50は、実空間のユーザのプレイ場所を向いた方向に設置されている。このようなシミュレーションシステムによれば、複数の発射装置CN1〜CN18を用いた多様な制御処理が可能になり、ゲーム状況に応じた最適な空気の発射制御を実現できるようになる。
3.2 Control of the launching unit according to the game situation Next, the control method of the launching unit 50 in the present embodiment will be described in detail. In the present embodiment, the launching units 50 in which a plurality of launching devices CN1 to CN18 are arranged in a matrix (two-dimensional) are used, and the launching units 50 are set to a game situation in a virtual space as shown in FIGS. 7 to 10. It is controlled accordingly. Specifically, the launching unit 50 is controlled according to the game situation and user information (position, direction, posture, etc.). For example, the simulation system of the present embodiment is a simulation system in a game in which a user wearing an HMD that covers the field of view is located at a play location in real space and detects, for example, the position or direction of the user to play. Then, in the simulation system of the present embodiment, there is a launching unit 50 in which a plurality of launching devices capable of blowing out a gas such as air to the user are arranged according to the game situation in the virtual space and the user information, respectively. It has a control unit 118 for controlling the launch of the above, and the launch unit 50 is installed in a direction facing the user's play place in the real space. According to such a simulation system, various control processes using a plurality of launching devices CN1 to CN18 become possible, and optimum air launch control according to the game situation can be realized.

例えば本実施形態のシミュレーションシステムでは、ゲーム状況やユーザ情報に応じて、発射部50での発射装置CN1〜CN18の選定処理、空気(気体)の発射タイミングの制御処理、或いは空気の発射出力度合いの制御処理を行う。具体的に、仮想空間(ゲーム空間)において空気(気体)に対応する気弾(被ヒットオブジェクト)がヒットする図7〜図10に示すようなヒットイベントが発生した場合に、発射装置CN1〜CN18の選定処理、発射タイミングの制御処理、或いは発射出力度合いの制御処理を行う。 For example, in the simulation system of the present embodiment, depending on the game situation and user information, the launching unit 50 selects launching devices CN1 to CN18, controls the firing timing of air (gas), or determines the degree of firing output of air. Perform control processing. Specifically, when a hit event as shown in FIGS. 7 to 10 occurs when a bullet (hit object) corresponding to air (gas) hits in a virtual space (game space), the launchers CN1 to CN18 Selection process, launch timing control process, or launch output degree control process.

例えば通常の気弾がユーザキャラクタCHにヒットした場合には、図11(A)、図11(B)に示すような発射部50の制御処理を行う。即ち、通常の気弾のヒット時には、図11(A)において斜線により示されている発射装置CN7〜CN12が空気を発射する。具体的には図11(B)に示すように、発射部50の中段に設けられた発射装置CN7〜CN12から発射された空気(空気の塊)が、ユーザUSに対して当たるようになる。また仮想空間での気弾のヒットに合わせて、図4のようにフィールドFLの床に設けられた振動部VB1、VB2、VB3(振動モータ、トランスデューサー)が振動する。 For example, when a normal air bullet hits the user character CH, the launching unit 50 is controlled as shown in FIGS. 11A and 11B. That is, at the time of hitting a normal air bullet, the launchers CN7 to CN12 shown by the diagonal lines in FIG. 11 (A) launch air. Specifically, as shown in FIG. 11B, the air (air mass) emitted from the launchers CN7 to CN12 provided in the middle stage of the launch unit 50 comes into contact with the user US. Further, as shown in FIG. 4, the vibrating portions VB1, VB2, and VB3 (vibration motor, transducer) provided on the floor of the field FL vibrate in accordance with the hit of the air bullet in the virtual space.

このように図11(A)、図11(B)では、通常の気弾がヒットするヒットイベントの発生時に、発射部50の発射装置CN1〜CN18のうちの中段の発射装置CN7〜CN12を選定するという選定処理が行われている。 As described above, in FIGS. 11A and 11B, when a hit event in which a normal air bullet hits occurs, the middle-stage launchers CN7 to CN12 are selected from the launchers CN1 to CN18 of the launching unit 50. The selection process is being carried out.

また図10に示すように、ユーザUSのHMDの表示画像において気弾(AR)がヒットするタイミングに応じて、発射装置CN7〜CN12が空気を発射するように、発射タイミングの制御処理が行われている。例えば気弾の到達時間を算出して、気弾がヒットするヒットイベントの発生前に、予め空気を発射させるように発射装置CN7〜CN12の発射タイミングを制御する。この発射タイミングの制御処理は、図1の制御部118が生成する発射制御信号の出力タイミングを制御することなどで実現できる。 Further, as shown in FIG. 10, a firing timing control process is performed so that the launching devices CN7 to CN12 launch air according to the timing at which the air bullet (AR) hits in the HMD display image of the user US. ing. For example, the arrival time of the air bullet is calculated, and the firing timing of the launching devices CN7 to CN12 is controlled so as to launch air in advance before the hit event in which the air bullet hits occurs. This firing timing control process can be realized by controlling the output timing of the firing control signal generated by the control unit 118 of FIG.

また気弾のヒットイベントの発生時に、フィールドFLの床に設けられた振動部VB1、VB2、VB3を振動させるというゲーム演出処理も行われる。 Further, when a hit event of a bullet occurs, a game effect process of vibrating the vibrating portions VB1, VB2, and VB3 provided on the floor of the field FL is also performed.

なお気弾のヒットイベント発生時において、空気の発射出力度合いの制御処理を行ってもよい。例えば通常の気弾のヒットイベント発生時には、後述する特殊気弾のヒットイベント発生時に比べて、空気の発射出力度合いを弱くする制御処理を行う。このような制御処理は、例えば図5(B)の振動板74の振動の強さを制御することで実現できる。例えば通常の気弾のヒットイベント発生時には、特殊気弾のヒットイベント発生時に比べて、振動板74の振動が弱くなるように制御する。例えば音信号に基づいてスピーカ72の振動板74を振動させる場合には、音信号の振幅を小さくすることで、振動板74の振動を弱くする制御を実現できる。 When a hit event of the air bullet occurs, the degree of air emission output may be controlled. For example, when a hit event of a normal air bullet occurs, a control process is performed to weaken the degree of air emission output as compared with the case of a hit event of a special air bullet described later. Such a control process can be realized, for example, by controlling the vibration intensity of the diaphragm 74 of FIG. 5 (B). For example, when a hit event of a normal air bullet occurs, the vibration of the diaphragm 74 is controlled to be weaker than when a hit event of a special air bullet occurs. For example, when the diaphragm 74 of the speaker 72 is vibrated based on the sound signal, the vibration of the diaphragm 74 can be weakened by reducing the amplitude of the sound signal.

一方、通常の気弾に比べて攻撃力(威力)が高い特殊気弾が、ユーザキャラクタCHにヒットした場合には、図12(A)、図12(B)に示すような発射部50の制御処理を行う。即ち、特殊気弾のヒット時には、図12(A)において斜線により示されている全ての発射装置CN1〜CN18が空気を発射する。即ち図12(B)に示すように、発射部50の下段、中段、上段に設けられた発射装置CN1〜CN18から発射された空気(空気の塊)が、ユーザUSに対して当たるようになる。また特殊気弾のヒットに合わせて、図4のようにフィールドFLの床に設けられた振動部VB1、VB2、VB3が振動する。また特殊気弾がヒットした後に、送風機FN1〜FN3がユーザUSに対して送風を行い、特殊気弾がヒットしたことによる余韻をユーザUSに体感させる。この場合に特殊気弾の攻撃力(威力)のレベルに応じて、送風機FN1〜FN3の送風の強さを変化させてもよい。例えば特殊気弾の攻撃力のレベルが高いほど強い送風にする。更に振動部VB1、VB2、VB3の振動の強さについても、特殊気弾の攻撃力のレベルが高いほど強い振動になるように制御する。 On the other hand, when a special air bullet having a higher attack power (power) than a normal air bullet hits the user character CH, the launching unit 50 as shown in FIGS. 12 (A) and 12 (B) Perform control processing. That is, when the special air bullet hits, all the launchers CN1 to CN18 shown by the diagonal lines in FIG. 12 (A) emit air. That is, as shown in FIG. 12B, the air (air mass) emitted from the launchers CN1 to CN18 provided in the lower, middle, and upper stages of the launch unit 50 comes into contact with the user US. .. Further, as shown in FIG. 4, the vibrating portions VB1, VB2, and VB3 provided on the floor of the field FL vibrate in accordance with the hit of the special air bullet. Further, after the special air bullet hits, the blowers FN1 to FN3 blow air to the user US, and the user US is made to experience the afterglow caused by the hit of the special air bullet. In this case, the blowing strength of the blowers FN1 to FN3 may be changed according to the level of the attack power (power) of the special air bullet. For example, the higher the attack power level of the special air bullet, the stronger the blast. Further, the strength of vibration of the vibrating parts VB1, VB2, and VB3 is also controlled so that the higher the level of the attack power of the special air bullet, the stronger the vibration.

このように図12(A)、図12(B)では、特殊気弾がヒットするヒットイベントの発生時に、発射部50の全ての発射装置CN1〜CN18を選定するという選定処理が行われている。 As described above, in FIGS. 12A and 12B, a selection process is performed in which all the launchers CN1 to CN18 of the launching unit 50 are selected when a hit event in which a special air bullet hits occurs. ..

またユーザUSのHMDの表示画像において特殊気弾がヒットするタイミングに応じて、発射装置CN1〜CN18が空気を発射するように、発射タイミングの制御処理が行われている。例えば特殊気弾の到達時間を算出して、特殊気弾がヒットするヒットイベントの発生前に、予め空気を発射させるように発射装置CN1〜CN18の発射タイミングを制御する。また特殊気弾のヒットイベントの発生時に、フィールドFLの床に設けられた振動部VB1、VB2、VB3を振動させるというゲーム演出処理も行われている。 Further, the firing timing control process is performed so that the launching devices CN1 to CN18 launch air according to the timing when the special air bullet hits in the HMD display image of the user US. For example, the arrival time of the special air bullet is calculated, and the firing timing of the launching devices CN1 to CN18 is controlled so that air is fired in advance before the hit event in which the special air bullet hits occurs. Further, when a hit event of a special air bullet occurs, a game effect process of vibrating the vibrating portions VB1, VB2, and VB3 provided on the floor of the field FL is also performed.

この場合に特殊気弾のヒットイベント発生時において、空気の発射出力度合いの制御処理を行ってもよい。例えば特殊気弾のヒットイベント発生時には、図11(A)、図11(B)の通常気弾のヒットイベント発生時に比べて、空気の発射出力度合いを強くする制御処理を行う。例えば特殊気弾のヒットイベント発生時には、通常の気弾のヒットイベント発生時に比べて、図5(B)の振動板74の振動が強くなるように制御する。例えばスピーカ72に入力される音信号の振幅を大きくする。また特殊気弾の攻撃力のレベルが高いほど、空気の発射出力度合いを強くする制御処理を行ってもよい。例えば特殊気弾の攻撃力のレベルに応じて、音信号の振幅を変化させる。このような音信号の振幅等を変化させる制御は、音信号を生成するための音ファイルの切り替えを行うだけという簡素な処理で実現できるという利点がある。 In this case, when a hit event of a special air bullet occurs, the degree of air emission output may be controlled. For example, when a hit event of a special air bullet occurs, a control process is performed to increase the degree of air emission output as compared with the case of a hit event of a normal air bullet shown in FIGS. 11 (A) and 11 (B). For example, when a hit event of a special air bullet occurs, the vibration of the diaphragm 74 of FIG. 5 (B) is controlled to be stronger than when a hit event of a normal air bullet occurs. For example, the amplitude of the sound signal input to the speaker 72 is increased. Further, the higher the level of the attack power of the special air bullet, the stronger the control process for increasing the degree of air emission output may be performed. For example, the amplitude of the sound signal is changed according to the level of the attack power of the special air bullet. Such control for changing the amplitude of the sound signal has an advantage that it can be realized by a simple process of simply switching the sound file for generating the sound signal.

図11(A)〜図12(B)で説明したように本実施形態では、仮想空間でのゲーム状況に応じて、発射部50の制御処理を行っている。例えば通常の気弾がヒットするというゲーム状況では、図11(A)、図11(B)に示すように、発射部50の中段の発射装置CN7〜CN12だけから空気を発射する。また空気の発射出力度合いも、特殊気弾のヒット時に比べて弱くする。また発射部50の送風機FN1〜FN3の送風も行わない。 As described with reference to FIGS. 11A to 12B, in the present embodiment, the launching unit 50 is controlled according to the game situation in the virtual space. For example, in a game situation where a normal air bullet hits, as shown in FIGS. 11A and 11B, air is emitted only from the launchers CN7 to CN12 in the middle stage of the launching unit 50. Also, the degree of air emission output is weaker than when a special air bullet hits. Further, the blowers FN1 to FN3 of the launching unit 50 are not blown.

一方、特殊気弾がヒットするというゲーム状況では、図12(A)、図12(B)に示すように、発射部50の全ての発射装置CN1〜CN18から空気を発射する。また空気の発射出力度合いも、通常の気弾のヒット時に比べて弱くする。また特殊気弾のヒットの余韻をユーザUSに体感させるために、発射部50の送風機FN1〜FN3の送風も行うようにする。 On the other hand, in the game situation where the special air bullet hits, as shown in FIGS. 12A and 12B, air is emitted from all the launching devices CN1 to CN18 of the launching unit 50. Also, the degree of air emission output is weaker than when a normal air bullet hits. Further, in order to let the user US experience the afterglow of the hit of the special air bullet, the blowers FN1 to FN3 of the launching unit 50 are also blown.

このようにすることで本実施形態では、仮想空間のゲーム状況に応じた発射部50の最適な制御を実現している。例えば本実施形態ではHMDに映る仮想空間のゲーム状況の画像に応じた空気の発射制御を行っている。例えば通常の気弾がヒットするゲーム状況の画像がHMDに表示される場合と、特殊気弾がヒットするゲーム状況の画像がHMDに表示される場合とで、空気の発射制御が異なるようになり、ユーザに与える体感も異なるようになるため、ユーザの仮想現実感を大幅に向上できる。 By doing so, in the present embodiment, the optimum control of the launching unit 50 according to the game situation in the virtual space is realized. For example, in the present embodiment, air emission control is performed according to an image of the game situation in the virtual space reflected on the HMD. For example, the air emission control will be different depending on whether the image of the game situation where the normal air bullet hits is displayed on the HMD or the image of the game situation where the special air bullet hits is displayed on the HMD. Since the experience given to the user will be different, the virtual reality of the user can be greatly improved.

3.3 ヒット方向、ヒットベクトルに応じた発射制御
本実施形態では被ヒットオブジェクトのヒット方向又はヒットベクトルに応じて、発射部50での発射装置の選定処理、気体の発射タイミングの制御処理、或いは気体の発射出力度合いの制御処理を行っている。例えば図5(A)の複数の発射装置CN1〜CN18は、鉛直方向に交差する第1の方向に沿った発射装置CN7〜CN12(第1〜第Nの発射装置)を有している。そしてユーザに対応するユーザキャラクタ(ユーザ移動体)に対して、気弾(被ヒットオブジェクト)が斜め方向にヒットするヒットイベントが発生したとする。この場合に、発射装置CN7(第1の発射装置)から発射装置CN12(第Nの発射装置)へと順次に空気(気体)が発射されるように発射部50が制御される。
3.3 Launch control according to hit direction and hit vector In this embodiment, depending on the hit direction or hit vector of the hit object, the launcher 50 selects a launcher, controls the gas launch timing, or Control processing is performed for the degree of emission output of gas. For example, the plurality of launchers CN1 to CN18 in FIG. 5A have launchers CN7 to CN12 (first to Nth launchers) along a first direction intersecting in the vertical direction. Then, it is assumed that a hit event occurs in which the air bullet (hit object) hits the user character (user moving object) corresponding to the user in the diagonal direction. In this case, the launching unit 50 is controlled so that air (gas) is sequentially launched from the launching device CN7 (first launching device) to the launching device CN12 (Nth launching device).

例えば図13(A)では、発生源オブジェクトである敵キャラクタCHEが気弾AR(被ヒットオブジェクト)を発射している。そしてこの気弾ARが、ヒット方向DH(又はヒットベクトルVH)で、ユーザキャラクタCH(ユーザ移動体)にヒットするヒットイベントが発生している。この場合に気弾のヒット方向DH(又はヒットベクトルVH)に応じて、発射装置の選定処理、発射タイミングの制御処理、或いは発射出力度合いの制御処理が行われる。 For example, in FIG. 13 (A), the enemy character CHE, which is the source object, fires a bullet AR (hit object). Then, a hit event occurs in which the bullet AR hits the user character CH (user moving body) in the hit direction DH (or hit vector VH). In this case, the launch device selection process, the launch timing control process, or the launch output degree control process is performed according to the hit direction DH (or hit vector VH) of the air bullet.

具体的には図13(A)では、ユーザUSに対応するユーザキャラクタCHに対して気弾が左斜め方向からヒットするヒットイベントが発生している。即ちヒット方向DH(ヒットベクトルVH)が、ユーザキャラクタCHに対して左斜め方向になっている。例えば図13(A)ではユーザキャラクタCHの向く向きに対して、ヒット方向DHが左斜め方向になっている。 Specifically, in FIG. 13A, a hit event occurs in which the air bullet hits the user character CH corresponding to the user US from the diagonally left direction. That is, the hit direction DH (hit vector VH) is diagonally to the left with respect to the user character CH. For example, in FIG. 13A, the hit direction DH is diagonally to the left with respect to the direction in which the user character CH faces.

この場合に本実施形態では、図13(B)に示すように、発射装置CN7(第1の発射装置)から発射装置CN12(第Nの発射装置)へと順次に空気が発射されるように発射部50が制御される。ここで発射装置CN7〜CN12(第1〜第Nの発射装置)は、鉛直方向DRVに交差(直交)する第1の方向DR1(水平方向)に沿って配置される発射装置である。具体的には図14に示すように、まず発射装置CN7が空気を発射し、次に発射装置CN8が空気を発射する。その後、発射装置CN9、CN10、CN11が時系列に順次に空気を発射し、最後に発射装置CN12が空気を発射する。 In this case, in the present embodiment, as shown in FIG. 13B, air is sequentially emitted from the launching device CN7 (first launching device) to the launching device CN12 (Nth launching device). The launching unit 50 is controlled. Here, the launchers CN7 to CN12 (first to Nth launchers) are launchers arranged along the first direction DR1 (horizontal direction) intersecting (orthogonal) with the vertical DRV. Specifically, as shown in FIG. 14, the launcher CN7 first launches air, and then the launcher CN8 launches air. After that, the launchers CN9, CN10, and CN11 sequentially launch air in chronological order, and finally the launcher CN12 launches air.

図13(B)、図14に示すように発射装置CN7〜CN11が時系列に順次に空気を発射すれば、あたかも自身の左側方向に配置される発射部から空気が発射したかのように、ユーザUSに感じさせることが可能になる。即ち図4に示すように本実施形態では、ユーザUSの正面方向に発射部50が配置されている。この場合にも、図13(B)、図14に示すように発射装置CN7〜CN11が時系列に順次に空気を発射することで、ユーザUSの左斜め方向から空気を発射しているかのように、ユーザUSが錯覚する。従って、例えばユーザUSの左側方向に発射部を設けなくても、左斜め方向から空気が当たるような触覚の体感を与えることができる体感装置を実現できる。従って、発射部50をユーザUSの正面方向に設けるだけでよく、左側方向に設けなくても済むため、体感装置の小規模化を図れる。即ち本実施形態ではユーザUSの視界はHMDで覆われており、実空間の状況が見えていないHMDの装着状態だからこそ、正面方向からの複数の発射装置CN7〜CN12の空気の塊が、ユーザUSの身体に衝突するタイミングをずらすことによって、あたかも斜め方向から放たれたと錯覚させることが可能になる。 As shown in FIGS. 13B and 14, if the launchers CN7 to CN11 sequentially eject air in chronological order, it is as if the air was emitted from the launching portion arranged in the left direction of the launcher. It is possible to make the user US feel. That is, as shown in FIG. 4, in the present embodiment, the launching unit 50 is arranged in the front direction of the user US. Also in this case, as shown in FIGS. 13 (B) and 14, the launchers CN7 to CN11 sequentially eject air in chronological order, as if the user US is ejecting air from an oblique direction to the left. In addition, the user US has an illusion. Therefore, for example, it is possible to realize a bodily sensation device capable of giving a tactile sensation as if air hits from an oblique left direction without providing a launching portion in the left side direction of the user US. Therefore, it is only necessary to provide the launching unit 50 in the front direction of the user US, and it is not necessary to provide the launching unit 50 in the left side direction, so that the experience device can be downsized. That is, in the present embodiment, the field of view of the user US is covered with the HMD, and the air masses of the plurality of launchers CN7 to CN12 from the front direction are generated by the user US because the HMD is mounted in which the real space situation cannot be seen. By shifting the timing of collision with the body, it is possible to make the illusion that it was released from an oblique direction.

一方、図15(A)では、ユーザUSに対応するユーザキャラクタCHに対して気弾が右斜め方向からヒットするヒットイベントが発生している。即ちヒット方向DH(ヒットベクトルVH)が、ユーザキャラクタCHに対して右斜め方向になっている。例えば図15(A)ではユーザキャラクタCHの向く向きに対して、ヒット方向DHが右斜め方向になっている。 On the other hand, in FIG. 15A, a hit event occurs in which the air bullet hits the user character CH corresponding to the user US from the diagonally right direction. That is, the hit direction DH (hit vector VH) is diagonally to the right with respect to the user character CH. For example, in FIG. 15A, the hit direction DH is diagonally to the right with respect to the direction in which the user character CH faces.

この場合に本実施形態では図15(B)に示すように、発射装置CN12から発射装置CN7へと順次に空気が発射されるように発射部50が制御される。即ち、鉛直方向DRVに交差(直交)する第2の方向DR2(DR1の反対方向)に沿って発射装置CN12〜CN7が順次に空気を発射する。例えば発射装置CN12が空気を発射し、その後、発射装置CN11、CN10、CN9、CN8が時系列に順次に空気を発射し、最後に発射装置CN7が空気を発射する。 In this case, in the present embodiment, as shown in FIG. 15B, the launching unit 50 is controlled so that air is sequentially launched from the launching device CN12 to the launching device CN7. That is, the launchers CN12 to CN7 sequentially launch air along the second direction DR2 (opposite direction of DR1) that intersects (orthogonally) the vertical DRV. For example, the launcher CN12 launches air, then the launchers CN11, CN10, CN9, and CN8 sequentially launch air, and finally the launcher CN7 launches air.

このようにすれば、あたかも自身の右側方向に配置される発射部から空気が発射したかのように、ユーザUSに感じさせることが可能になる。即ち図4に示すように本実施形態では、ユーザUSの正面方向に発射部50が配置されている。この場合にも、図15(B)に示すように発射装置CN12〜CN7が時系列に順次に空気を発射することで、ユーザUSの右斜め方向から空気を発射しているかのようにユーザUSが錯覚する。従って、例えばユーザUSの右側方向に発射部を設けなくても、このような右斜め方向から空気が当たるような体感装置を実現できるようになり、体感装置の小規模化を図れる。 In this way, it is possible to make the user US feel as if the air was emitted from the launching portion arranged on the right side of the user. That is, as shown in FIG. 4, in the present embodiment, the launching unit 50 is arranged in the front direction of the user US. Also in this case, as shown in FIG. 15B, the launchers CN12 to CN7 sequentially eject air in chronological order, so that the user US is ejecting air from the diagonally right direction of the user US. Is an illusion. Therefore, for example, even if the launching portion is not provided on the right side of the user US, it is possible to realize such a sensory device that the air hits from the diagonally right direction, and the scale of the sensory device can be reduced.

そして本実施形態では、図13(A)に示すようにヒット方向DH(ヒットベクトルVH)が左斜め方向なのか、図15(A)に示すように右斜め方向なのかに応じて、発射装置の選定処理、発射タイミングの制御処理、或いは発射出力度合いの制御処理を行う。 Then, in the present embodiment, the launching device depends on whether the hit direction DH (hit vector VH) is diagonally to the left as shown in FIG. 13 (A) or diagonally to the right as shown in FIG. 15 (A). Selection process, launch timing control process, or launch output degree control process.

例えばヒット方向DHが左斜め方向である場合には、図13(B)に示すように、CN7、CN8、CN9、CN10、CN11、CN12の順に空気を発射するように発射装置を選定し、それぞれの発射タイミングで空気を発射させる。またこの際に、例えばユーザUSから距離が遠い発射装置CN7、CN12については、ユーザUSから距離が近い発射装置CN9、CN10に比べて、発射出力度合いを強くしてもよい。 For example, when the hit direction DH is diagonally to the left, as shown in FIG. 13B, a launching device is selected so as to launch air in the order of CN7, CN8, CN9, CN10, CN11, and CN12, and each of them is selected. Air is fired at the timing of the fire. At this time, for example, the launchers CN7 and CN12 that are far from the user US may have a higher firing output degree than the launchers CN9 and CN10 that are close to the user US.

またヒット方向DHが右斜め方向である場合には、図15(B)に示すように、CN12、CN11、CN10、CN9、CN8、CN7の順に空気を発射するように発射装置を選定し、それぞれの発射タイミングで空気を発射させる。またこの際に、例えばユーザUSから距離が遠い発射装置CN7、CN12については、ユーザUSから距離が近い発射装置CN9、CN10に比べて、発射出力度合いを強くしてもよい。 When the hit direction DH is diagonally to the right, as shown in FIG. 15B, a launching device is selected so as to launch air in the order of CN12, CN11, CN10, CN9, CN8, and CN7, and each of them is selected. Air is fired at the timing of the fire. At this time, for example, the launchers CN7 and CN12 that are far from the user US may have a higher firing output degree than the launchers CN9 and CN10 that are close to the user US.

このようにすればヒット方向DH(ヒットベクトルVH)に応じた最適な空気の発射制御を実現でき、ユーザの仮想現実感の向上を図れるようになる。 In this way, the optimum air emission control according to the hit direction DH (hit vector VH) can be realized, and the virtual reality of the user can be improved.

なお図13(A)〜図15(B)では、中段(中段の行)の発射装置CN7〜CN12に順次に空気を発射させているが、本実施形態はこれに限定されない。例えば中段の発射装置CN7〜CN12に加えて、下段(下段の行)の発射装置CN1〜CN6や上段(上段の行)の発射装置CN13〜CN18についても順次に空気を発射するように制御してもよい。 In FIGS. 13 (A) to 15 (B), air is sequentially emitted to the launchers CN7 to CN12 in the middle stage (row in the middle stage), but the present embodiment is not limited to this. For example, in addition to the middle-stage launchers CN7 to CN12, the lower-stage (lower row) launchers CN1 to CN6 and the upper-stage (upper row) launchers CN13 to CN18 are also controlled to sequentially emit air. May be good.

例えば前述した通常の気弾のヒットイベント発生時では、中段の発射装置CN7〜CN12に順次に空気を発射させる。一方、特殊気弾のヒットイベント発生時では、下段、中段、上段の発射装置CN1〜CN6、CN7〜CN12、CN13〜CN18に順次に空気を発射させる。例えば発射装置CN1、CN7、CN13が空気を発射し、次に発射装置CN2、CN8、CN14が空気を発射するというように、各列の発射装置が時系列に順次に空気を発射し、最後に発射装置CN6、CN12、CN18が空気を発射する。このようにすることで、発射部50の発射出力度合いを実質的に強くする制御処理を実現できるようになる。 For example, when the above-mentioned hit event of a normal air bullet occurs, air is sequentially emitted to the launchers CN7 to CN12 in the middle stage. On the other hand, when a hit event of a special air bullet occurs, air is sequentially emitted to the lower, middle, and upper launchers CN1 to CN6, CN7 to CN12, and CN13 to CN18. For example, launchers CN1, CN7, CN13 fire air, then launchers CN2, CN8, CN14 fire air, and so on, each row of launchers fires air in chronological order, and finally. Launchers CN6, CN12, and CN18 launch air. By doing so, it becomes possible to realize a control process that substantially increases the degree of launch output of the launch unit 50.

また図13(A)〜図15(B)では、ユーザキャラクタCH(ユーザUS)の向く方向を基準としてヒット方向DH(ヒットベクトルVH)が斜め方向になる場合について説明したが、本実施形態はこれに限定されない。例えばヒット方向DH(ヒットベクトルVH)は、ユーザキャラクタCH(ユーザUS)の向く方向には依存せず、仮想空間のフィールドにおいて配置されるユーザキャラクタCHの位置に対して斜め方向であればよい。例えば図13(A)において、ユーザUSが正面方向ではなく左斜め方向を向き、それに連動してユーザキャラクタCHが左斜め方向を向いた場合にも、図13(B)〜図14のような発射部50の制御処理を行ってもよい。図15(A)においてユーザUSが正面方向ではなく右斜め方向を向き、それに連動してユーザキャラクタCHが右斜め方向を向いた場合も同様である。 Further, in FIGS. 13 (A) to 15 (B), a case where the hit direction DH (hit vector VH) is oblique with respect to the direction in which the user character CH (user US) is directed has been described. Not limited to this. For example, the hit direction DH (hit vector VH) does not depend on the direction in which the user character CH (user US) faces, and may be diagonal to the position of the user character CH arranged in the field of the virtual space. For example, in FIG. 13 (A), even when the user US faces the left diagonal direction instead of the front direction and the user character CH faces the left diagonal direction in conjunction with the user US, as shown in FIGS. 13 (B) to 14. Control processing of the launching unit 50 may be performed. The same applies to the case where the user US faces the diagonally right direction instead of the front direction in FIG. 15A, and the user character CH faces the diagonal right direction in conjunction with the direction.

3.4 発射方向の制御
本実施形態では図1に示すように、発射部50は、発射部50の方向を変更する発射部方向変更部52を含み、ゲーム状況に応じて、発射部方向変更部52の制御を行う。或いは発射部50は、複数の発射装置の方向を変更する発射装置方向変更部54を含み、ゲーム状況に応じて、発射装置方向変更部54の制御を行う。
3.4 Control of launching direction As shown in FIG. 1 in the present embodiment, the launching unit 50 includes a launching unit direction changing unit 52 that changes the direction of the launching unit 50, and changes the launching unit direction according to the game situation. The unit 52 is controlled. Alternatively, the launching unit 50 includes a launching device direction changing unit 54 that changes the direction of the plurality of launching devices, and controls the launching device direction changing unit 54 according to the game situation.

例えば図16(A)〜図16(C)では、発射部方向変更部52が、ゲーム状況に応じて発射部50の方向を変更している。例えば図16(A)では、ユーザUSの正面方向から空気を発射するように、発射部50の方向DRA(発射部の主面に直交する方向)が設定されている。一方、図16(B)ではユーザUSの左斜め方向から空気を発射するように、発射部方向変更部52により発射部50の方向DRAが変更されている。また図16(C)ではユーザUSの右斜め方向から空気を発射するように、発射部方向変更部52により発射部50の方向DRAが変更されている。このようにすれば、ゲーム状況に応じた適切な方向から空気が発射されるように、発射部50の方向DRAを制御できるようになる。 For example, in FIGS. 16A to 16C, the launching unit direction changing unit 52 changes the direction of the launching unit 50 according to the game situation. For example, in FIG. 16A, the direction DRA of the launching unit 50 (direction orthogonal to the main surface of the launching unit) is set so that air is emitted from the front direction of the user US. On the other hand, in FIG. 16B, the direction DRA of the launching unit 50 is changed by the launching unit direction changing unit 52 so that air is emitted from the diagonally left direction of the user US. Further, in FIG. 16C, the direction DRA of the launching unit 50 is changed by the launching unit direction changing unit 52 so that air is emitted from the diagonally right direction of the user US. In this way, the direction DRA of the launching unit 50 can be controlled so that the air is ejected from an appropriate direction according to the game situation.

また図17(A)〜図17(C)では、ユーザUSの位置を検出して、発射部方向変更部52により発射部50の方向を制御している。 Further, in FIGS. 17A to 17C, the position of the user US is detected, and the direction of the launching unit 50 is controlled by the launching unit direction changing unit 52.

例えば図17(A)では、ユーザUSは、発射部50の正面側の真ん中の場所に位置するため、ユーザUSの正面方向から空気を発射するように、発射部50の方向DRAが設定されている。一方、図17(B)ではユーザUSが、発射部50に対して右方向に移動しているため、この右方向に移動したユーザUSに対してその正面方向から適切に空気が発射されるように、発射部方向変更部52により発射部50の方向DRAが変更されている。また図17(C)ではユーザUSが、発射部50に対して左方向に移動しているため、この左方向に移動したユーザUSに対してその正面方向から適切に空気が発射されるように、発射部方向変更部52により発射部50の方向DRAが変更されている。 For example, in FIG. 17A, since the user US is located in the center of the front side of the launching unit 50, the direction DRA of the launching unit 50 is set so as to emit air from the front direction of the user US. There is. On the other hand, in FIG. 17B, since the user US is moving to the right with respect to the launching portion 50, air is appropriately emitted from the front direction to the user US moving to the right. In addition, the direction DRA of the launching unit 50 is changed by the launching unit direction changing unit 52. Further, in FIG. 17C, since the user US is moving to the left with respect to the launching portion 50, air is appropriately emitted from the front direction to the user US moving to the left. , The direction DRA of the launching unit 50 is changed by the launching unit direction changing unit 52.

このように発射部方向変更部52により発射部50の方向を制御することで、ユーザUSに対してより精度良く空気を発射することができるようになる。またユーザの位置が変化した場合にも、より適切な方向で空気をユーザに対して発射できるようになる。 By controlling the direction of the launching unit 50 by the launching unit direction changing unit 52 in this way, it becomes possible to launch air to the user US with higher accuracy. In addition, even if the position of the user changes, air can be emitted to the user in a more appropriate direction.

また図18(A)、図18(B)では、発射装置方向変更部54により、発射部50の発射装置CN7〜CN12の方向を制御している。 Further, in FIGS. 18A and 18B, the launcher direction changing unit 54 controls the directions of the launchers CN7 to CN12 of the launcher 50.

例えば図18(A)では、発射装置CN7、CN8、CN9、CN10、CN11、CN12の方向(空気の発射方向)が、各々、D7、D8、D9、D10、D11、D12に設定されており、ユーザUSの方に向く方向に変更されている。例えば、あたかもレンズの焦点をユーザUSに合わせるかのように、発射装置CN7〜CN12の方向D7〜D12を変更している。こうすることで、ユーザUSの場所に空気の発射弾が集中するように、発射装置CN7〜CN12から空気を発射することが可能になる。 For example, in FIG. 18A, the directions of the launching devices CN7, CN8, CN9, CN10, CN11, and CN12 (air launching directions) are set to D7, D8, D9, D10, D11, and D12, respectively. It has been changed to face the user US. For example, the directions D7 to D12 of the launchers CN7 to CN12 are changed as if the lens was focused on the user US. By doing so, it becomes possible to launch air from the launchers CN7 to CN12 so that the air launch bullets are concentrated at the location of the user US.

また図18(B)では二人にユーザUS1、US2がマルチプレイのゲームをプレイしている。この場合に発射装置CN7、CN8、CN9の方向D7、D8、D9については、ユーザUS1の方に集中して向くように変更され、発射装置CN10、CN11、CN12の方向D10、D11、D12については、ユーザUS2の方に集中して向くように変更される。こうすることで、ユーザUS1、US2の各々に対して、空気の発射弾が集中するように発射装置CN7〜CN12の空気の発射方向を制御できるようになり、マルチプレイゲームに最適な発射方向の制御を実現できるようになる。 Further, in FIG. 18B, two users, US1 and US2, are playing a multiplayer game. In this case, the directions D7, D8, and D9 of the launchers CN7, CN8, and CN9 are changed so as to concentrate on the user US1, and the directions D10, D11, and D12 of the launchers CN10, CN11, and CN12 are changed. , It is changed to concentrate on the user US2. By doing so, it becomes possible to control the air firing direction of the launching devices CN7 to CN12 so that the air firing bullets are concentrated for each of the users US1 and US2, and the optimum firing direction control for the multiplayer game. Will be able to be realized.

3.5 種々の制御処理
次の本実施形態の発射部50の種々の制御処理について説明する。
3.5 Various control processes Various control processes of the launching unit 50 of the next embodiment will be described.

本実施形態では、仮想空間において気弾がヒットするヒットイベントにおける気弾の発生源オブジェクトを、実空間での発射部50の位置に対応する仮想空間の位置に配置(移動)する処理を行う。例えばヒットイベントにおける、気弾の発生源オブジェクトである敵キャラクタは、ヒットイベント前に、仮想空間上の位置が制御され、実空間の発射部50の方向に位置取りするようにする。例えば発射部50が対応可能な範囲に敵キャラクタが移動する。 In the present embodiment, the process of arranging (moving) the source object of the air bullet in the hit event in which the air bullet hits in the virtual space is performed at the position of the virtual space corresponding to the position of the launching unit 50 in the real space. For example, in a hit event, the enemy character, which is the source object of the air bullet, is controlled in position in the virtual space before the hit event, and is positioned in the direction of the launching unit 50 in the real space. For example, the enemy character moves to a range that the launching unit 50 can handle.

例えば図19(A)では、実空間において正面方向に位置する発射部50に対して、ユーザUSの向きは左斜め方向を向いている。従って、この状態で発射部50が空気を発射すると、ユーザUSの右肩等の右側部分に空気が当たることになる。そして図19(B)では、仮想空間において、ユーザUSに対応するユーザキャラクタCHに対して、敵キャラクタCHEが気弾ARを発射する攻撃を行う。この場合に図19(B)の敵キャラクタCHEが、図19(A)に示す実空間での発射部50の位置に対応する仮想空間の位置に移動する。即ち、ユーザキャラクタCHの向く向きに位置していた敵キャラクタCHEが、ユーザキャラクタCHの向く向きに対して右斜め方向に移動している。そしてこのような位置関係で敵キャラクタCHEが気弾ARを発射し、気弾ARのヒット時に、図19(A)に示す位置関係で発射部50が空気をユーザUSに対して発射する。 For example, in FIG. 19A, the user US is oriented diagonally to the left with respect to the launching unit 50 located in the front direction in the real space. Therefore, when the launching unit 50 launches air in this state, the air hits the right side portion such as the right shoulder of the user US. Then, in FIG. 19B, in the virtual space, the enemy character CHE attacks the user character CH corresponding to the user US by firing a bullet AR. In this case, the enemy character CHE of FIG. 19 (B) moves to the position of the virtual space corresponding to the position of the launching unit 50 in the real space shown in FIG. 19 (A). That is, the enemy character CHE, which was located in the direction in which the user character CH faces, is moving diagonally to the right with respect to the direction in which the user character CH faces. Then, the enemy character CHE fires the air bullet AR in such a positional relationship, and when the air bullet AR hits, the launching unit 50 shoots air to the user US in the positional relationship shown in FIG. 19 (A).

このようにすれば、図19(B)の仮想空間においてユーザキャラクタCHの右斜め方向に位置する敵キャラクタCHEが気弾ARを発射して、ユーザキャラクタCHの右側部分にヒットすると、それに応じて図19(A)の実空間においても、ユーザUSの右側部分に発射部50からの空気がヒットするようになる。従って、仮想空間での事象(気弾が右斜め方向からヒットする事象)と、実空間での事象(空気が右斜め方向から当たる事象)が一致するようになり、ユーザUSの仮想現実感を向上できるようになる。 In this way, when the enemy character CHE located diagonally to the right of the user character CH in the virtual space of FIG. 19B fires the air bullet AR and hits the right part of the user character CH, the enemy character CH responds accordingly. Even in the real space of FIG. 19A, the air from the launching unit 50 hits the right side portion of the user US. Therefore, the event in the virtual space (the event that the air bullet hits from the diagonal right direction) and the event in the real space (the event that the air hits from the diagonal right direction) come to match, and the virtual reality of the user US is felt. You will be able to improve.

また図20(A)では、実空間において正面方向に位置する発射部50に対して、ユーザUSの向きは正面方向を向いている。この場合に図20(B)に示すように敵キャラクタCHEがユーザキャラクタCHの左側方向に移動し、図20(C)に示すように発射装置CN7〜CN12を時系列に順次に空気を発射させる制御を行ってもよい。即ち鉛直方向DRVに交差する第1の方向DR1に沿って、発射装置CN7〜CN12が順次に空気を発射する。このように空気の発射を制御すれば、図13(A)〜図14で説明したように、あたかもユーザUSの左斜め方向から発射された空気が当たったような体感をユーザUSに与えることができる。従って、図20(B)のように敵キャラクタCHEがユーザキャラクタCHの左斜め方向に移動して、左斜め方向から気弾ARを発射した場合に、図20(C)に示すように発射部50の発射制御を行うことで、仮想空間での事象と実空間での事象が一致するようになり、ユーザUSの仮想現実感を向上できるようになる。 Further, in FIG. 20A, the user US faces the front direction with respect to the launching portion 50 located in the front direction in the real space. In this case, the enemy character CHE moves to the left side of the user character CH as shown in FIG. 20 (B), and the launchers CN7 to CN12 sequentially emit air in chronological order as shown in FIG. 20 (C). Control may be performed. That is, the launchers CN7 to CN12 sequentially launch air along the first direction DR1 intersecting the vertical DRV. By controlling the emission of air in this way, as described with reference to FIGS. 13 (A) to 14, it is possible to give the user US the feeling of being hit by the air emitted from the diagonal direction to the left of the user US. can. Therefore, when the enemy character CHE moves in the diagonally left direction of the user character CH and fires the air bullet AR from the diagonally left direction as shown in FIG. 20 (B), the launching unit is as shown in FIG. 20 (C). By performing the launch control of 50, the event in the virtual space and the event in the real space come to match, and the virtual reality feeling of the user US can be improved.

また本実施形態では、HMDを装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報(ユーザトラッキング情報)を取得し、取得したユーザ情報に応じた発射部50の制御を行う。 Further, in the present embodiment, user information (user tracking information) including at least one of position information, direction information, and attitude information of the user wearing the HMD is acquired, and the launching unit 50 is controlled according to the acquired user information. conduct.

例えば図21は、フィールドFLにおいて複数のユーザUS1〜US4がプレイするガンシューティングゲーム(FPS)の例である。ユーザUS1〜US4は、HMD1〜HMD4を装着すると共にガン型コントローラGN1〜GN4を所持している。これらのユーザUS1〜US4は、例えばチーム対戦ゲームのためにチーム(グループ)を組んでいる。HMD1〜HMD4には仮想空間での映像が映し出されており、ユーザUS1〜US4は、この映像を見ながらガンシューティングゲームをプレイする。 For example, FIG. 21 is an example of a gun shooting game (FPS) played by a plurality of users US1 to US4 in the field FL. Users US1 to US4 are equipped with HMD1 to HMD4 and possess gun-type controllers GN1 to GN4. These users US1 to US4 form a team (group) for, for example, a team battle game. An image in a virtual space is projected on HMD1 to HMD4, and users US1 to US4 play a gun shooting game while watching this image.

そして図22ではユーザUS1がフィールドFLにおいてA1、A2に示すように移動している。またフィールドFLには発射部50A〜50Fが配置されている。この場合に、取得されたユーザUS1の位置情報に基づいて、発射部50A〜50Fの制御を行う。例えばユーザUS1が発射部50Aの近くにいることがユーザUS1の位置情報に基づき検出された場合には、発射部50AによりユーザUS1に対して空気を発射する。またユーザUS1が発射部50Dの近くにいることが位置情報に基づき検出された場合には、発射部50Dにより空気を発射する。ユーザUS1が発射部50Eの近くにいることが位置情報に基づき検出された場合には、発射部50Eにより空気を発射する。このようにすれば、ユーザUS1の位置に応じた適切な空気の発射制御を実現できる。この場合に発射部50A〜50Fにより発射する空気は、その場所にいる仮想空間での敵からの攻撃に基づくものであってもよい。或いはユーザUS1に対してフィールドFLの境界等を知らせるために、発射部50A〜50Fにより空気を発射してもよい。 Then, in FIG. 22, the user US1 is moving in the field FL as shown in A1 and A2. Further, launching units 50A to 50F are arranged in the field FL. In this case, the launching units 50A to 50F are controlled based on the acquired position information of the user US1. For example, when it is detected based on the position information of the user US1 that the user US1 is near the launching unit 50A, the launching unit 50A emits air to the user US1. When it is detected based on the position information that the user US1 is near the launching unit 50D, the launching unit 50D launches air. When it is detected based on the position information that the user US1 is near the launching unit 50E, the launching unit 50E launches air. In this way, it is possible to realize appropriate air emission control according to the position of the user US1. In this case, the air emitted by the launching units 50A to 50F may be based on an attack from an enemy in the virtual space at that location. Alternatively, air may be emitted by the launching units 50A to 50F in order to inform the user US1 of the boundary of the field FL and the like.

また、取得されたユーザの方向情報に基づいて発射部を制御してもよい。例えば実空間のフィールドに複数の発射部が配置される場合に、ユーザの向く方向に対して正対して位置する発射部を優先的に選択し、選択された発射部から空気を発射するようにしてもよい。このようにすれば、ユーザの向く方向に応じた適切な空気の発射制御を実現できるようになる。 Further, the launching unit may be controlled based on the acquired direction information of the user. For example, when multiple launchers are placed in a real-space field, the launcher located facing the user's direction is preferentially selected and air is launched from the selected launcher. You may. In this way, it becomes possible to realize appropriate air emission control according to the direction in which the user is facing.

また、取得されたユーザの姿勢情報に基づいて発射部を制御してもよい。例えばユーザが地面に伏している姿勢である場合には、図5(A)の下段の発射装置CN1〜CN6に空気を発射させる制御を行う。ユーザがしゃがみ姿勢である場合には中段の発射装置CN7〜CN12に空気を発射させる制御を行う。ユーザが立ち姿勢である場合には、上段の発射装置CN13〜CN18に空気を発射させる制御を行う。このようにすればユーザの姿勢に応じた適切な空気の発射制御を実現できるようになる。 Further, the launching unit may be controlled based on the acquired posture information of the user. For example, when the user is in a posture of lying down on the ground, the launchers CN1 to CN6 in the lower stage of FIG. 5A are controlled to launch air. When the user is in the crouching posture, the launchers CN7 to CN12 in the middle stage are controlled to launch air. When the user is in a standing posture, the upper launchers CN13 to CN18 are controlled to launch air. In this way, it becomes possible to realize appropriate air emission control according to the posture of the user.

また本実施形態では発射部50での空気(気体)の発射に対して、音、振動又は画像を連動させるゲーム演出処理を行う。 Further, in the present embodiment, a game effect process in which sound, vibration, or an image is linked to the emission of air (gas) by the launching unit 50 is performed.

例えば図23に示すように、ユーザUSがプレイするフィールドFLの領域AR1、AR2、AR3には、振動部VB1、VB2、VB3が設けられる。そして図11(A)〜図12(B)で説明したように、発射部50での空気の発射に連動して、振動部VB1、VB2、VB3が振動する。例えば空気の発射タイミングや、空気がユーザUSに当たると予想されるタイミングで、振動部VB1、VB2、VB3が振動する。振動部VB1は例えば振動モータにより実現され、比較的、激しい振動のゲーム演出が可能になる。振動部VB2、VB3はトランスデューサーにより実現され、例えば音信号を用いた柔軟な振動制御によるゲーム演出が可能になる。 For example, as shown in FIG. 23, vibration units VB1, VB2, and VB3 are provided in the areas AR1, AR2, and AR3 of the field FL played by the user US. Then, as described with reference to FIGS. 11 (A) to 12 (B), the vibrating units VB1, VB2, and VB3 vibrate in conjunction with the emission of air by the launching unit 50. For example, the vibrating units VB1, VB2, and VB3 vibrate at the timing when the air is released or when the air is expected to hit the user US. The vibrating unit VB1 is realized by, for example, a vibrating motor, and can produce a game of relatively violent vibration. The vibrating units VB2 and VB3 are realized by a transducer, and for example, a game can be produced by flexible vibration control using a sound signal.

また発射部50での空気の発射に対して音を連動させるゲーム演出処理を行ってもよい。例えば図23では立体音響を実現するスピーカSP1〜SP5が配置設定されている。これらのスピーカSP1〜SP5は実物のスピーカであってもよいし、ヘッドホンなどにより実現される仮想的なスピーカであってもよい。そしてこれらのスピーカSP1〜SP5を用いて、サラウンドや疑似サラウンドと呼ばれる立体音響のゲーム演出処理を行う。そして例えば図13(A)のようにユーザキャラクタCHに対して左斜め方向から気弾が飛んで来た場合には、左斜め方向から気弾が飛んで来るように聞こえるサラウンド効果を、スピーカSP1〜SP5を用いて実現する。この際に、例えば気弾の画像に対して、エフェクト画像を付加するなどの画像によるゲーム演出を行ってもよい。即ち、発射部50での空気の発射に対して、エフェクト画像を連動させるゲーム演出処理を行う。更に図23に示すように発射部50に設けられた送風機FN1〜FN3を用いたゲーム演出処理を行ってもよい。例えば前述したように、特殊気弾がユーザキャラクタCHにヒットした場合に、そのヒットの余韻を実現するために、ヒット後に送風機FN1〜FN3からユーザUSに対して送風を行う。この場合に特殊気弾の威力(攻撃力)に応じた送風機FN1〜FN3の送風時間や送風の強さを制御するゲーム演出処理を行ってもよい。 Further, a game effect process in which the sound is linked to the emission of air by the launching unit 50 may be performed. For example, in FIG. 23, speakers SP1 to SP5 that realize stereophonic sound are arranged and set. These speakers SP1 to SP5 may be real speakers or virtual speakers realized by headphones or the like. Then, using these speakers SP1 to SP5, a stereophonic game effect process called surround or pseudo surround is performed. Then, for example, when an air bullet flies from the diagonal left direction with respect to the user character CH as shown in FIG. 13 (A), the surround effect that sounds like the air bullet flies from the diagonal left direction is produced by the speaker SP1. It is realized by using ~ SP5. At this time, for example, a game effect may be performed by adding an effect image to the image of the air bullet. That is, a game effect process is performed in which the effect image is linked to the emission of air by the launching unit 50. Further, as shown in FIG. 23, the game effect processing may be performed using the blowers FN1 to FN3 provided in the launching unit 50. For example, as described above, when a special air bullet hits the user character CH, the blowers FN1 to FN3 blow air to the user US after the hit in order to realize the afterglow of the hit. In this case, a game effect process may be performed to control the blowing time and the blowing strength of the blowers FN1 to FN3 according to the power (attack power) of the special air bullet.

また本実施形態では図1に示すように、発射部50は加工部56を有しており、この加工部56により、発射部50が発射する空気(気体)に対して加工を行う。例えば加工部56は、発射する空気の温度を変化させるような加工を行ったり、発射する空気に香りを付けるような加工を行う。また発射する空気の湿度を変化させる加工を行って、ミストのような空気を発射したり、水や雪などを空気に混ぜる加工を行ってもよい。また加工部56は、発射装置CN1〜CN18が発射する空気に対して加工を行ってもよいし、送風機FN1〜FN3が送風する空気に対して加工を行ってもよい。 Further, in the present embodiment, as shown in FIG. 1, the launching unit 50 has a processing unit 56, and the processing unit 56 processes the air (gas) emitted by the launching unit 50. For example, the processing unit 56 performs processing such as changing the temperature of the emitted air, or processing such as adding a scent to the emitted air. Further, a process of changing the humidity of the air to be emitted may be performed to emit air such as mist, or a process of mixing water, snow, or the like with the air may be performed. Further, the processing unit 56 may process the air emitted by the launchers CN1 to CN18, or may process the air blown by the blowers FN1 to FN3.

この場合に本実施形態では複数の発射装置の第1の発射装置と第2の発射装置とで、発射する空気(気体)に対して異なる加工を行うことが望ましい。 In this case, in the present embodiment, it is desirable that the first launcher and the second launcher of the plurality of launchers perform different processing on the air (gas) to be launched.

例えば図24では、発射部50の発射装置CN1〜CN18のうち、下段の発射装置CN1〜CN6が発射する空気に対しては加工Xを行い、中段の発射装置CN7〜CN12が発射する空気に対しては加工Yを行い、上段の発射装置CN13〜CN18が発射する空気に対しては加工Zを行う。加工X、Y、Zは異なる加工であり、例えば空気の温度や湿度を変化させるような加工を行う場合には、加工X、Y、Zは、互いに異なる温度、湿度の空気にする加工である。また空気に香りを付けるような加工を行う場合には、加工X、Y、Zは、互いに異なる香りを付ける加工である。 For example, in FIG. 24, among the launchers CN1 to CN18 of the launching unit 50, the air emitted by the lower launchers CN1 to CN6 is processed X, and the air emitted by the middle launchers CN7 to CN12 is subjected to processing X. Processing Y is performed, and processing Z is performed on the air emitted by the upper launchers CN13 to CN18. Processings X, Y, and Z are different processing. For example, when processing that changes the temperature and humidity of air is performed, processing X, Y, and Z are processing that creates air having different temperatures and humidity. .. Further, when processing to add a scent to the air, the processes X, Y, and Z are processes to add different scents to each other.

また図25では、図22で説明したようにユーザUS1がA1、A2に示すようにフィールドFLを移動している。この場合に例えば発射部50A、50Bから発射される空気に対しては加工Xを行い、発射部50C、50Dから発射される空気に対しては加工Yを行い、発射部50E、50Fから発射される空気に対しては加工Zを行う。このようにすれば、ユーザUS1が位置するエリアに応じて、異なった加工が行われた空気がユーザUS1に対して発射されるようになる。例えば発射部50A、50BのエリアにユーザUS1が位置する場合には、第1の温度又は第1の湿度の空気を発射したり、第1の香りの空気を発射する。また発射部50C、50DのエリアにユーザUS1が位置する場合には、第2の温度又は第2の湿度の空気を発射したり、第2の香りの空気を発射する。発射部50E、50FのエリアにユーザUS1が位置する場合には、第3の温度又は第3の湿度の空気を発射したり、第3の香りの空気を発射する。 Further, in FIG. 25, as described with reference to FIG. 22, the user US1 is moving the field FL as shown in A1 and A2. In this case, for example, processing X is performed on the air emitted from the launching units 50A and 50B, processing Y is performed on the air emitted from the launching units 50C and 50D, and the air is launched from the launching units 50E and 50F. Processing Z is performed on the air. In this way, differently processed air is emitted to the user US1 depending on the area where the user US1 is located. For example, when the user US1 is located in the area of the launching portions 50A and 50B, the air having the first temperature or the first humidity is fired, or the air having the first scent is fired. When the user US1 is located in the area of the launching units 50C and 50D, air having a second temperature or a second humidity is fired, or air having a second scent is fired. When the user US1 is located in the area of the launching portions 50E and 50F, air having a third temperature or a third humidity is emitted, or air having a third scent is emitted.

このようにすれば、ユーザUS1が位置するエリアに応じて、異なった温度又は湿度の空気、或いは異なった香りの空気がユーザに対して発射されるようになり、より多様でゲーム演出効果の高い空気の発射制御を実現できるようになる。 By doing so, air having a different temperature or humidity or air having a different scent is emitted to the user depending on the area where the user US1 is located, which is more diverse and has a high game effect. It will be possible to realize air emission control.

4.詳細な処理
次に本実施形態の詳細な処理例について図26のフローチャートを用いて説明する。
4. Detailed processing Next, a detailed processing example of the present embodiment will be described with reference to the flowchart of FIG.

まず気弾が発射されたか否かを判断する(ステップS1)。例えば仮想空間において、発生源オブジェクトである敵キャラクタが気弾を発射したか否かを判断する。そして、気弾が発射された場合には、発射された気弾がユーザキャラクタにヒットしたか否かを判断する(ステップS2)。例えば気弾の軌道とユーザキャラクタのヒットボリュームの交差判定等を行うなどのヒット判定処理を行って、気弾がユーザキャラクタにヒットするか否かを判断する。そして気弾がヒットする場合には、気弾のヒット方向又はヒットベクトルを取得する(ステップS3)。例えば気弾がユーザキャラクタにヒットする際の気弾の移動方向、移動速度などに基づいて、ヒット方向、ヒットベクトルを求める。そして気弾のヒット方向又はヒットベクトルに応じた発射装置の選定処理、発射タイミングの制御処理、発射出力度合いの制御処理を行って、空気を発射する(ステップS4)。 First, it is determined whether or not the air bullet has been fired (step S1). For example, in a virtual space, it is determined whether or not an enemy character, which is a source object, has fired a bullet. Then, when the air bullet is fired, it is determined whether or not the fired air bullet hits the user character (step S2). For example, a hit determination process such as determining the intersection of the trajectory of the air bullet and the hit volume of the user character is performed to determine whether or not the air bullet hits the user character. Then, when the air bullet hits, the hit direction or the hit vector of the air bullet is acquired (step S3). For example, the hit direction and the hit vector are obtained based on the movement direction and movement speed of the air bullet when the air bullet hits the user character. Then, air is launched by performing a launch device selection process, a launch timing control process, and a launch output degree control process according to the hit direction or hit vector of the air bullet (step S4).

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(気体、被ヒットオブジェクト、発生源オブジェクト、ユーザ移動体等)と共に記載された用語(空気、気弾、敵キャラクタ、ユーザキャラクタ等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、仮想空間の設定処理、ゲーム処理、発射部の制御処理、発射装置の制御処理、表示処理、ユーザ情報の取得処理、移動体の移動処理、ヒット演算処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、又は多数のユーザが参加する大型アトラクションシステム等の種々のシミュレーションシステムに適用できる。 Although the present embodiment has been described in detail as described above, those skilled in the art will easily understand that many modifications that do not substantially deviate from the novel matters and effects of the present invention are possible. Therefore, all such modifications are included in the scope of the present invention. For example, terms (air, air bullets, enemy characters, user characters, etc.) that have been described at least once in the specification or drawings with different terms (gas, hit object, source object, user moving object, etc.) that are broader or synonymous. Etc.) can be replaced with the different terms anywhere in the specification or drawings. In addition, virtual space setting processing, game processing, launching unit control processing, launching device control processing, display processing, user information acquisition processing, moving object movement processing, hit calculation processing, and the like have also been described in this embodiment. The scope of the present invention also includes methods, processes, and configurations equivalent to these, not limited to those. The present invention can also be applied to various games. Further, the present invention can be applied to various simulation systems such as a commercial game device, a home game device, or a large attraction system in which a large number of users participate.

CN1〜CNM 発射装置、FN1〜FN3 送風機、FL、VFL フィールド、
AR1〜AR3 領域、VB1〜VB3 振動部、
CH ユーザキャラクタ、AR 気弾(被ヒットオブジェクト)、
CHE、CHE1〜CHE3 敵キャラクタ(発生源オブジェクト)、
HMD、HMD1〜HMD4 頭部装着型表示装置、SP1〜SP4 スピーカ、
US、US1〜US4 ユーザ、GN1〜GN4 ガン型コントローラ、
DH ヒット方向、VH ヒットベクトル、DR1、DR2 第1、第2の方向、
DRV 鉛直方向、DRA、D7〜D12 方向、
40 筐体、50、50A〜50F 発射部、52 発射部方向変更部、
54 発射装置方向変更部、60 処理装置、62、64 支持部、70 発射装置、
72 スピーカ、74 振動板、76 空気蓄積部、78 発射口、
100 処理部、102 入力処理部、110 演算処理部、111 情報取得部、
112 仮想空間設定部、113 移動体処理部、114 仮想カメラ制御部、
115 ゲーム処理部、116 ヒット演算処理部、118 制御部、
120 表示処理部、130 音処理部、140 出力処理部、
150 撮像部、151、152 カメラ、160 操作部、
170 記憶部、172 オブジェクト情報記憶部、178 描画バッファ、
180 情報記憶媒体、192 音出力部、194 I/F部、
195 携帯型情報記憶媒体、196 通信部、
200 HMD(頭部装着型表示装置)、201〜203 受光素子、210 センサ部、
220 表示部、231〜236 発光素子、240 処理部、
251、252、253 トラッキング装置、260 ヘッドバンド、
270 ヘッドホン、280、284 ベースステーション、
281、282、285、286 発光素子
CN1-CNM launcher, FN1-FN3 blower, FL, VFL field,
AR1 to AR3 region, VB1 to VB3 vibrating part,
CH user character, AR bullet (hit object),
CHE, CHE1-CHE3 Enemy character (source object),
HMD, HMD1 to HMD4 head-mounted display, SP1 to SP4 speakers,
US, US1-US4 users, GN1-GN4 gun type controller,
DH hit direction, VH hit vector, DR1, DR2 1st, 2nd direction,
DRV vertical direction, DRA, D7 to D12 direction,
40 housing, 50, 50A-50F launching part, 52 launching part direction changing part,
54 Launcher direction changer, 60 Processing device, 62, 64 Support, 70 Launcher,
72 Speaker, 74 Diaphragm, 76 Air Storage, 78 Launch Port,
100 processing unit, 102 input processing unit, 110 arithmetic processing unit, 111 information acquisition unit,
112 Virtual space setting unit, 113 Mobile processing unit, 114 Virtual camera control unit,
115 game processing unit, 116 hit calculation processing unit, 118 control unit,
120 display processing unit, 130 sound processing unit, 140 output processing unit,
150 image pickup unit, 151, 152 camera, 160 operation unit,
170 storage, 172 object information storage, 178 drawing buffer,
180 Information storage medium, 192 sound output section, 194 I / F section,
195 Portable information storage medium, 196 Communication unit,
200 HMD (Head-mounted display), 201-203 light receiving element, 210 sensor unit,
220 display unit, 231 to 236 light emitting element, 240 processing unit,
251, 252, 253 tracking device, 260 headband,
270 headphones, 280, 284 base stations,
281, 282, 285, 286 light emitting elements

Claims (13)

部装着型表示装置を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、
仮想空間の設定処理を行う仮想空間設定部と、
前記仮想空間でのゲームの処理を行うゲーム処理部と、
前記ユーザに対して気体の発射が可能な発射部の制御を行う制御部と、
記頭部装着型表示装置の表示画像を生成する表示処理部と、
を含み、
前記発射部には、複数の発射装置が配置され、
複数の前記発射装置は、鉛直方向に交差する第1の方向に沿った第1〜第Nの発射装置を含み、
前記制御部は、
前記仮想空間において、前記ユーザに対応するユーザ移動体に対して、前記気体に対応する被ヒットオブジェクトが斜め方向にヒットするヒットイベントが発生した場合に、前記第1の発射装置から前記第Nの発射装置へと順次に前記気体が発射されるように前記発射部を制御することを特徴とするシミュレーションシステム。
An information acquisition section for acquiring user information including location information of the user, at least one of direction information and orientation information for mounting the head portion mounted display,
A virtual space setting unit that performs virtual space setting processing, and
A game processing unit that processes games in the virtual space,
A control unit that controls a launch unit capable of emitting gas to the user, and a control unit.
A display processing unit for generating a display image before Symbol head-mounted display device,
Including
A plurality of launching devices are arranged in the launching portion, and a plurality of launching devices are arranged.
The plurality of launchers include first to Nth launchers along a first direction that intersects vertically.
The control unit
In the virtual space, when a hit event occurs in which the hit object corresponding to the gas hits the user moving object corresponding to the user in an oblique direction, the Nth N. A simulation system characterized in that the launching unit is controlled so that the gas is sequentially launched into the launching device.
部装着型表示装置を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、
仮想空間の設定処理を行う仮想空間設定部と、
前記仮想空間でのゲームの処理を行うゲーム処理部と、
前記ユーザに対して気体の発射が可能な発射部の制御を行う制御部と、
記頭部装着型表示装置の表示画像を生成する表示処理部と、
を含み、
前記発射部には、複数の発射装置が配置され、
前記制御部は、
前記仮想空間でのゲーム状況と前記ユーザ情報に応じて、前記発射部の制御処理を行い、
前記発射部は、
発射する前記気体を加工する加工部を含み、
前記加工部は、
複数の前記発射装置の第1の発射装置と第2の発射装置とで、発射する前記気体に対して異なる加工を行うことを特徴とするシミュレーションシステム。
An information acquisition section for acquiring user information including location information of the user, at least one of direction information and orientation information for mounting the head portion mounted display,
A virtual space setting unit that performs virtual space setting processing, and
A game processing unit that processes games in the virtual space,
A control unit that controls a launch unit capable of emitting gas to the user, and a control unit.
A display processing unit for generating a display image before Symbol head-mounted display device,
Including
A plurality of launching devices are arranged in the launching portion, and a plurality of launching devices are arranged.
The control unit
Wherein depending on the game situation and the user information in the virtual space, it has row control process of the firing unit,
The launching part
Includes a processing part that processes the gas to be emitted.
The processed part
A simulation system characterized in that a first launching device and a second launching device of a plurality of the launching devices perform different processing on the gas to be launched.
部装着型表示装置を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、
仮想空間の設定処理を行う仮想空間設定部と、
前記仮想空間でのゲームの処理を行うゲーム処理部と、
前記ユーザに対して気体の発射が可能な発射部の制御を行う制御部と、
記頭部装着型表示装置の表示画像を生成する表示処理部と、
を含み、
前記発射部には、複数の発射装置が配置され、
前記制御部は、
前記仮想空間において、前記ユーザに対応するユーザ移動体に対して、第1の気弾がヒットする第1のヒットイベントが発生した場合には、複数の前記発射装置の中から、第1の選定処理により選定された前記発射装置に前記気体を発射させ、前記ユーザ移動体に対して、前記第1の気弾より攻撃力が高い第2の気弾がヒットする第2のヒットイベントが発生した場合には、複数の前記発射装置の中から、前記第1の選定処理よりも多い個数の前記発射装置を選定する第2の選定処理により選定された前記発射装置に前記気体を発射させることを特徴とするシミュレーションシステム。
An information acquisition section for acquiring user information including location information of the user, at least one of direction information and orientation information for mounting the head portion mounted display,
A virtual space setting unit that performs virtual space setting processing, and
A game processing unit that processes games in the virtual space,
A control unit that controls a launch unit capable of emitting gas to the user, and a control unit.
A display processing unit for generating a display image before Symbol head-mounted display device,
Including
A plurality of launching devices are arranged in the launching portion, and a plurality of launching devices are arranged.
The control unit
In the virtual space, when the first hit event in which the first air bullet hits the user moving body corresponding to the user occurs, the first selection from the plurality of launching devices is performed. The gas was launched into the launching device selected by the process, and a second hit event was generated in which the user moving body was hit by a second bullet having a higher attack power than the first bullet. In the case, the gas may be launched to the launcher selected by the second selection process for selecting a larger number of the launchers than the first selection process from the plurality of launchers. Characterized simulation system.
請求項3において、In claim 3,
前記制御部は、 The control unit
前記第1のヒットイベントが発生した場合には、前記第1の選定処理として、1行に並ぶ前記発射装置を選定し、選定された前記発射装置に前記気体を発射させ、前記第2のヒットイベントが発生した場合には、前記第2の選定処理として、複数行に亘って並ぶ前記発射装置を選定し、選定された前記発射装置に前記気体を発射させることを特徴とするシミュレーションシステム。 When the first hit event occurs, as the first selection process, the launchers lined up in one line are selected, the selected launchers are made to launch the gas, and the second hit. A simulation system characterized in that when an event occurs, as the second selection process, the launchers arranged in a plurality of lines are selected, and the gas is launched into the selected launchers.
請求項3又は4において、In claim 3 or 4,
前記制御部は、 The control unit
前記第1のヒットイベントが発生した場合には、前記第1の選定処理により選定された前記発射装置に一斉に前記気体を発射させ、前記第2のヒットイベントが発生した場合には、前記第2の選定処理により選定された前記発射装置に一斉に前記気体を発射させることを特徴とするシミュレーションシステム。 When the first hit event occurs, the gas is fired all at once to the launchers selected by the first selection process, and when the second hit event occurs, the first hit event occurs. A simulation system characterized in that the gas is simultaneously launched to the launching devices selected by the selection process of 2.
請求項3又は4において、
複数の前記発射装置は、鉛直方向に交差する第1の方向に沿った第1〜第Nの発射装置を含み、
前記制御部は、
前記ーザ移動体に対して前記第1の気弾又は前記第2の気弾がヒットする前記第1のヒットイベント又は前記第2のヒットイベントが発生した場合に、前記第1の発射装置から前記第Nの発射装置へと順次に前記気体が発射されるように前記発射部を制御することを特徴とするシミュレーションシステム。
In claim 3 or 4 ,
The plurality of launchers include first to Nth launchers along a first direction that intersects vertically.
The control unit
If the first hit event or the second hit event the first gas bombs or the second gas bombs to the User chromatography The mobile hits occurs, the first launcher A simulation system characterized in that the launching unit is controlled so that the gas is sequentially launched from the Nth launching device.
請求項1乃至6のいずれかにおいて、
前記発射部には、複数の前記発射装置がマトリクス状に配置され、
前記制御部は、
マトリクス状に配置された複数の前記発射装置の制御処理を行うことを特徴とするシミュレーションシステム。
In any of claims 1 to 6,
A plurality of the launching devices are arranged in a matrix in the launching portion.
The control unit
A simulation system characterized by performing control processing of a plurality of the launching devices arranged in a matrix.
請求項1乃至7のいずれかにおいて、
前記発射部は、前記発射部の方向を変更する発射部方向変更部を含み、
前記制御部は、
ゲーム状況に応じて、前記発射部方向変更部の制御を行うことを特徴とするシミュレーションシステム。
In any of claims 1 to 7,
The launching portion includes a launching portion direction changing portion that changes the direction of the launching portion.
The control unit
A simulation system characterized in that the launching unit direction changing unit is controlled according to the game situation.
請求項1乃至8のいずれかにおいて、
前記発射部は、複数の前記発射装置の方向を変更する発射装置方向変更部を含み、
前記制御部は、
ゲーム状況に応じて、前記発射装置方向変更部の制御を行うことを特徴とするシミュレーションシステム。
In any of claims 1 to 8,
The launching unit includes a plurality of launching device direction changing units that change the direction of the launching device.
The control unit
A simulation system characterized in that the launcher direction changing unit is controlled according to a game situation.
請求項1乃至9のいずれかにおいて、
前記ゲーム処理部は、
前記発射部での前記気体の発射に対して、音、振動又は画像を連動させるゲーム演出処理を行うことを特徴とするシミュレーションシステム。
In any of claims 1 to 9,
The game processing unit
A simulation system characterized in that a game effect process in which sound, vibration, or an image is linked to the emission of the gas at the launching unit is performed.
部装着型表示装置を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、
仮想空間の設定処理を行う仮想空間設定部と、
前記仮想空間でのゲームの処理を行うゲーム処理部と、
前記ユーザに対して気体の発射が可能な発射部の制御を行う制御部と、
記頭部装着型表示装置の表示画像を生成する表示処理部として、
コンピュータを機能させ、
前記発射部には、複数の発射装置が配置され、
複数の前記発射装置は、鉛直方向に交差する第1の方向に沿った第1〜第Nの発射装置を含み、
前記制御部は、
前記仮想空間において、前記ユーザに対応するユーザ移動体に対して、前記気体に対応する被ヒットオブジェクトが斜め方向にヒットするヒットイベントが発生した場合に、前記第1の発射装置から前記第Nの発射装置へと順次に前記気体が発射されるように前記発射部を制御することを特徴とするプログラム。
An information acquisition section for acquiring user information including location information of the user, at least one of direction information and orientation information for mounting the head portion mounted display,
A virtual space setting unit that performs virtual space setting processing, and
A game processing unit that processes games in the virtual space,
A control unit that controls a launch unit capable of emitting gas to the user, and a control unit.
A display processing unit for generating a display image before Symbol head-mounted display device,
Make your computer work
A plurality of launching devices are arranged in the launching portion, and a plurality of launching devices are arranged.
The plurality of launchers include first to Nth launchers along a first direction that intersects vertically.
The control unit
In the virtual space, when a hit event occurs in which the hit object corresponding to the gas hits the user moving body corresponding to the user in an oblique direction, the Nth N. A program characterized by controlling the launching unit so that the gas is sequentially launched into the launching device.
部装着型表示装置を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、
仮想空間の設定処理を行う仮想空間設定部と、
前記仮想空間でのゲームの処理を行うゲーム処理部と、
前記ユーザに対して気体の発射が可能な発射部の制御を行う制御部と、
記頭部装着型表示装置の表示画像を生成する表示処理部として、
コンピュータを機能させ、
前記発射部には、複数の発射装置が配置され、
前記制御部は、
前記仮想空間でのゲーム状況と前記ユーザ情報に応じて、前記発射部の制御処理を行い、
前記発射部は、
発射する前記気体を加工する加工部を含み、
前記加工部は、
複数の前記発射装置の第1の発射装置と第2の発射装置とで、発射する前記気体に対して異なる加工を行うことを特徴とするプログラム。
An information acquisition section for acquiring user information including location information of the user, at least one of direction information and orientation information for mounting the head portion mounted display,
A virtual space setting unit that performs virtual space setting processing, and
A game processing unit that processes games in the virtual space,
A control unit that controls a launch unit capable of emitting gas to the user, and a control unit.
A display processing unit for generating a display image before Symbol head-mounted display device,
Make your computer work
A plurality of launching devices are arranged in the launching portion, and a plurality of launching devices are arranged.
The control unit
Wherein depending on the game situation and the user information in the virtual space, it has row control process of the firing unit,
The launching part
Includes a processing part that processes the gas to be emitted.
The processed part
A program characterized in that a first launching device and a second launching device of a plurality of the launching devices perform different processing on the gas to be launched.
部装着型表示装置を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、
仮想空間の設定処理を行う仮想空間設定部と、
前記仮想空間でのゲームの処理を行うゲーム処理部と、
前記ユーザに対して気体の発射が可能な発射部の制御を行う制御部と、
記頭部装着型表示装置の表示画像を生成する表示処理部として、
コンピュータを機能させ、
前記発射部には、複数の発射装置が配置され、
前記制御部は、
前記仮想空間において、前記ユーザに対応するユーザ移動体に対して、第1の気弾がヒットする第1のヒットイベントが発生した場合には、複数の前記発射装置の中から、第1の選定処理により選定された前記発射装置に前記気体を発射させ、前記ユーザ移動体に対して、前記第1の気弾より攻撃力が高い第2の気弾がヒットする第2のヒットイベントが発生した場合には、複数の前記発射装置の中から、前記第1の選定処理よりも多い個数の前記発射装置を選定する第2の選定処理により選定された前記発射装置に前記気体を発射させることを特徴とするプログラム。
An information acquisition section for acquiring user information including location information of the user, at least one of direction information and orientation information for mounting the head portion mounted display,
A virtual space setting unit that performs virtual space setting processing, and
A game processing unit that processes games in the virtual space,
A control unit that controls a launch unit capable of emitting gas to the user, and a control unit.
A display processing unit for generating a display image before Symbol head-mounted display device,
Make your computer work
A plurality of launching devices are arranged in the launching portion, and a plurality of launching devices are arranged.
The control unit
In the virtual space, when the first hit event in which the first air bullet hits the user moving body corresponding to the user occurs, the first selection from the plurality of launching devices is performed. The gas was launched into the launching device selected by the process, and a second hit event was generated in which the user moving body was hit by a second bullet having a higher attack power than the first bullet. In the case, the gas may be launched to the launcher selected by the second selection process for selecting a larger number of the launchers than the first selection process from the plurality of launchers. Characterized program.
JP2017071996A 2017-03-31 2017-03-31 Simulation system and program Active JP6935218B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017071996A JP6935218B2 (en) 2017-03-31 2017-03-31 Simulation system and program
CN201810259103.8A CN108686371A (en) 2017-03-31 2018-03-27 Analogue system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017071996A JP6935218B2 (en) 2017-03-31 2017-03-31 Simulation system and program

Publications (2)

Publication Number Publication Date
JP2018171319A JP2018171319A (en) 2018-11-08
JP6935218B2 true JP6935218B2 (en) 2021-09-15

Family

ID=63844610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017071996A Active JP6935218B2 (en) 2017-03-31 2017-03-31 Simulation system and program

Country Status (2)

Country Link
JP (1) JP6935218B2 (en)
CN (1) CN108686371A (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7326740B2 (en) * 2018-12-28 2023-08-16 トヨタ紡織株式会社 Spatial provision system
US11893879B2 (en) 2019-11-07 2024-02-06 Nippon Telegraph And Telephone Corporation Stimulus presentation apparatus, stimulus presentation method and program
WO2023127403A1 (en) * 2021-12-27 2023-07-06 パナソニックホールディングス株式会社 System for improving realistic sensations and program for improving realistic sensations in vr

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3767651B2 (en) * 1997-07-22 2006-04-19 株式会社ナムコ Air bullet generator
WO2006006686A1 (en) * 2004-07-15 2006-01-19 Nippon Telegraph And Telephone Corporation Inner force sense presentation device, inner force sense presentation method, and inner force sense presentation program
JP5809428B2 (en) * 2011-03-30 2015-11-10 株式会社バンダイナムコエンターテインメント Game system
AU2011378749A1 (en) * 2011-10-04 2014-05-15 Vedrex Ood Extreme optical shooting simulator
US20160189427A1 (en) * 2014-12-31 2016-06-30 Immersion Corporation Systems and methods for generating haptically enhanced objects for augmented and virtual reality applications
CN106373289A (en) * 2016-10-31 2017-02-01 中山市小榄镇丰兴包装机械厂 Virtual reality entertainment machine

Also Published As

Publication number Publication date
JP2018171319A (en) 2018-11-08
CN108686371A (en) 2018-10-23

Similar Documents

Publication Publication Date Title
US11014000B2 (en) Simulation system, processing method, and information storage medium
US11243605B2 (en) Augmented reality video game systems
CN109478340B (en) Simulation system, processing method, and information storage medium
KR100586760B1 (en) Image processor, image processing method, medium, medium and game machine
JP5161256B2 (en) Program, information storage medium, and image generation apparatus
US9345972B2 (en) Information storage medium, image generation system, and image generation method
WO2018124280A1 (en) Simulation system, image processing method, and information storage medium
US11090554B2 (en) Simulation system, image processing method, and information storage medium
JP6774260B2 (en) Simulation system
JP7071823B2 (en) Simulation system and program
JP6935218B2 (en) Simulation system and program
JP6910809B2 (en) Simulation system, program and controller
JP2018171320A (en) Simulation system and program
JP6918189B2 (en) Simulation system and program
JP2018171309A (en) Simulation system and program
JP6660321B2 (en) Simulation system and program
JP4420729B2 (en) Program, information storage medium, and image generation system
JP2019176934A (en) Simulation system
JP2018181306A (en) Information processing method, information processing device and program to cause computer to execute the information processing method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20190125

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190222

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210825

R150 Certificate of patent or registration of utility model

Ref document number: 6935218

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150