JP2018171309A - Simulation system and program - Google Patents

Simulation system and program Download PDF

Info

Publication number
JP2018171309A
JP2018171309A JP2017071915A JP2017071915A JP2018171309A JP 2018171309 A JP2018171309 A JP 2018171309A JP 2017071915 A JP2017071915 A JP 2017071915A JP 2017071915 A JP2017071915 A JP 2017071915A JP 2018171309 A JP2018171309 A JP 2018171309A
Authority
JP
Japan
Prior art keywords
moving
user
information
processing unit
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017071915A
Other languages
Japanese (ja)
Inventor
田宮 幸春
Yukiharu Tamiya
幸春 田宮
ローム チャールズ
Rohm Charles
ローム チャールズ
Original Assignee
株式会社バンダイナムコエンターテインメント
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社バンダイナムコエンターテインメント, Bandai Namco Entertainment Inc filed Critical 株式会社バンダイナムコエンターテインメント
Priority to JP2017071915A priority Critical patent/JP2018171309A/en
Publication of JP2018171309A publication Critical patent/JP2018171309A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a simulation system, etc., capable of suppressing unnatural situation, inappropriate situation, etc., attributed to a difference in states of a real space and a virtual space in a system using a head-mounted type display device.SOLUTION: A simulation system includes: an information acquisition part for acquiring user information including at least one of position information, direction information and posture information of a user mounting a head-mounted type display device so as to cover a visual field; a virtual space setting part; a game processing part; a moving body processing part for executing processing to cause a first moving body to move in a virtual space based on the user information; and a display processing part for generating a display image of the head-mounted type display device. The display processing part displays a second moving body corresponding to the user when a given condition is established, and the moving body processing part executes processing to move the second moving body in the virtual space based on the acquired user information.SELECTED DRAWING: Figure 18

Description

本発明は、シミュレーションシステム及びプログラム等に関する。   The present invention relates to a simulation system and a program.
従来より、HMD(頭部装着型表示装置)をユーザが頭部に装着し、HMDの画面に表示される画像をユーザが見ることで、いわゆるバーチャルリアリティー(VR)の世界を体感できるシミュレーションシステムが知られている。このようなシミュレーションシステムの従来技術としては、例えば特許文献1等に開示される技術がある。   2. Description of the Related Art Conventionally, there is a simulation system that allows a user to experience a so-called virtual reality (VR) world by wearing an HMD (head-mounted display device) on the head and viewing the image displayed on the screen of the HMD. Are known. As a prior art of such a simulation system, there is a technique disclosed in, for example, Patent Document 1.
特開平11−309269号公報JP-A-11-309269
HMDを用いたシミュレーションシステムでは、仮想空間において仮想カメラから見える画像がHMDに表示される。このような画像をHMDに表示することで、ユーザの視界の全周囲に亘って、広大なVR空間が広がるようになるため、ユーザの仮想現実感を格段に向上できる。   In a simulation system using an HMD, an image that can be seen from a virtual camera in a virtual space is displayed on the HMD. By displaying such an image on the HMD, a vast VR space spreads over the entire perimeter of the user's field of view, so that the virtual reality of the user can be significantly improved.
このようなHMDを用いるシミュレーションシステムでは、ユーザに対応するユーザ移動体が仮想空間内で移動するが、実空間でのユーザの周囲の状況と、仮想空間でのユーザ移動体の周囲の状況は異なる。例えば実空間では、ユーザの前方に障害物が存在しないのに、仮想空間においては、ユーザ移動体の前方に障害物(障害物オブジェクト)が存在するような状況が発生する。このような状況が発生すると、例えば実空間でユーザが前方に移動することで、仮想空間のユーザ移動体が障害物をすり抜けて通過してしまうような事態が生じてしまう。またユーザがHMDを頭部に装着すると、周囲が見えなくなったり、非常に見えにくくなるため、ユーザ同士がぶつかってしまったり、ユーザの装備品等が他のユーザにぶつかるなどの問題が生じるおそれもある。   In such a simulation system using an HMD, a user moving body corresponding to the user moves in the virtual space, but the situation around the user in the real space is different from the situation around the user moving body in the virtual space. . For example, in the real space, there is no obstacle in front of the user, but in the virtual space, an obstacle (obstacle object) exists in front of the user moving body. When such a situation occurs, for example, when the user moves forward in real space, a situation occurs in which the user moving object in the virtual space passes through the obstacle. In addition, when the user wears the HMD on his / her head, the surroundings become invisible or very difficult to see, which may cause problems such as users colliding with each other and user's equipment colliding with other users. is there.
本発明の幾つかの態様によれば、頭部装着型表示装置を用いたシステムにおいて、実空間と仮想空間の状況の相違に起因して不自然な事態や不適切な事態等が発生してしまうのを抑制できるシミュレーションシステム及びプログラム等を提供できる。   According to some aspects of the present invention, in a system using a head-mounted display device, an unnatural situation or an inappropriate situation occurs due to a difference in the situation between the real space and the virtual space. It is possible to provide a simulation system, a program, and the like that can suppress the occurrence of the error.
本発明の一態様は、視界を覆うように頭部装着型表示装置を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、仮想空間の設定処理を行う仮想空間設定部と、前記仮想空間でのゲームの処理を行うゲーム処理部と、取得された前記ユーザ情報に基づいて、第1の移動体を、前記仮想空間において移動させる処理を行う移動体処理部と、前記ユーザが装着する前記頭部装着型表示装置の表示画像を生成する表示処理部と、を含み、前記表示処理部は、所与の条件が成立した場合に、前記ユーザに対応する第2の移動体を表示し、前記移動体処理部は、取得された前記ユーザ情報に基づいて、前記第2の移動体を、前記仮想空間において移動させる処理を行うシミュレーションシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   One embodiment of the present invention includes an information acquisition unit that acquires user information including at least one of position information, direction information, and posture information of a user who wears a head-mounted display device so as to cover the field of view, A virtual space setting unit that performs setting processing, a game processing unit that performs game processing in the virtual space, and a process of moving the first moving body in the virtual space based on the acquired user information And a display processing unit that generates a display image of the head-mounted display device worn by the user, the display processing unit, when a given condition is satisfied, A simulation system for displaying a second moving body corresponding to a user, wherein the moving body processing unit performs a process of moving the second moving body in the virtual space based on the acquired user information. Related to. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.
本発明の一態様によれば、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報が取得され、取得されたユーザ情報に基づいて、第1の移動体を仮想空間で移動させる処理が行われ、ユーザが装着する頭部装着型表示装置の表示画像が生成される。そして本発明の一態様では、所与の条件が成立すると、ユーザに対応する第2の移動体が表示され、取得されたユーザ情報に基づいて、第2の移動体が仮想空間において移動する。このようにすれば、所与の条件が成立すると、第1の移動体とは別の第2の移動体が表示され、ユーザに対応する当該第2の移動体が、ユーザ情報に基づいて仮想空間において移動するようになる。このようにすれば、例えば実空間と仮想空間の状況の相違に起因して不自然な事態や不適切な事態等が発生してしまうおそれがある場合には、所与の条件を成立させて、第1の移動体は別の第2の移動体を表示して、ユーザに対応する移動体として、仮想空間で移動させることが可能になる。これにより、実空間と仮想空間の状況の相違に起因して不自然な事態や不適切な事態等が発生してしまうのを効果的に抑制できるようになる。   According to an aspect of the present invention, user information including at least one of user position information, direction information, and posture information is acquired, and the first moving body is moved in the virtual space based on the acquired user information. The display image of the head-mounted display device worn by the user is generated. In one aspect of the present invention, when a given condition is satisfied, the second moving body corresponding to the user is displayed, and the second moving body moves in the virtual space based on the acquired user information. In this way, when a given condition is satisfied, a second moving body different from the first moving body is displayed, and the second moving body corresponding to the user is virtual based on the user information. Move in space. In this way, for example, if there is a possibility that an unnatural situation or an inappropriate situation may occur due to a difference between the real space and the virtual space, a given condition is established. The first moving body displays another second moving body and can be moved in the virtual space as a moving body corresponding to the user. As a result, it is possible to effectively suppress the occurrence of an unnatural situation or an inappropriate situation due to a difference in the situation between the real space and the virtual space.
また本発明の一態様では、前記移動体処理部は、前記ユーザに対応する前記第2の移動体と、前記第2の移動体に対して重ねて配置される前記第1の移動体とを、取得された前記ユーザ情報に基づいて、前記仮想空間において移動させる処理を行ってもよい。   In one aspect of the present invention, the moving body processing unit includes the second moving body corresponding to the user and the first moving body that is arranged so as to overlap the second moving body. Based on the acquired user information, a process of moving in the virtual space may be performed.
このように、ユーザに対応する第2の移動体に対して重ねて配置される第1の移動体を、ユーザ情報に基づき第2の移動体と共に移動させることで、実空間と仮想空間の状況の相違に起因して不自然な事態や不適切な事態等が発生してしまうのを抑制できるようになる。   In this way, by moving the first moving body arranged so as to overlap the second moving body corresponding to the user together with the second moving body based on the user information, the situation of the real space and the virtual space It is possible to suppress the occurrence of an unnatural situation or an inappropriate situation due to the difference.
また本発明の一態様では、前記ゲーム処理部は、前記ユーザに対応する前記第2の移動体の代わりに前記第1の移動体と他のオブジェクトとのヒット演算処理を行ってもよい。   In one aspect of the present invention, the game processing unit may perform hit calculation processing between the first moving body and another object instead of the second moving body corresponding to the user.
このようにすれば、他のオブジェクトがヒットすることによる影響を、第2の移動体に対しては及ばさないようにしながら、第1の移動体に対して及ぼすような制御が可能になる。   In this way, it is possible to perform control such that the effect of the hit of another object is not exerted on the second moving body, but is exerted on the first moving body.
また本発明の一態様では、前記ゲーム処理部は、前記第1の移動体に前記他のオブジェクトがヒットしたと判定した場合に、前記ヒット判定処理の結果に基づく処理を、前記第1の移動体に対して行ってもよい。   In one aspect of the present invention, when the game processing unit determines that the other object has hit the first moving body, the game processing unit performs processing based on the result of the hit determination processing as the first movement. You may go to the body.
このようにすれば、ヒット判定処理の結果に基づく処理が第1の移動体に対して行われ、第2の移動体に対して行われないようになり、実空間と仮想空間の状況の相違に起因して不自然な事態や不適切な事態等が発生してしまうのを抑制する処理が可能になる。   In this way, the process based on the result of the hit determination process is performed on the first moving body and not performed on the second moving body, and the difference between the real space and the virtual space situation Therefore, it is possible to perform processing for suppressing the occurrence of an unnatural situation or an inappropriate situation due to the occurrence of the problem.
また本発明の一態様では、前記第1の移動体と前記第2の移動体の配置関係が変化した場合に、前記配置関係の変化を前記ユーザに報知する処理を行う報知処理部を含んでもよい(報知処理部としてコンピュータを機能させてもよい)。   Further, according to one aspect of the present invention, when the arrangement relationship between the first moving body and the second moving body changes, a notification processing unit that performs processing for notifying the user of the change in the arrangement relationship may be included. Good (the computer may function as a notification processing unit).
このようにすれば、第1の移動体と第2の移動体の配置関係が変化してしまった場合に、ユーザに対する報知により、配置関係を元に戻すことをユーザに促すことなどが可能になる。   In this way, when the arrangement relationship between the first moving body and the second moving body has changed, it is possible to prompt the user to restore the arrangement relationship by informing the user. Become.
また本発明の一態様では、前記ゲーム処理部は、前記第1の移動体と前記第2の移動体の配置関係が元の配置関係に戻った場合に、ゲームの再開処理を行ってもよい。   In one aspect of the present invention, the game processing unit may perform a game restart process when the arrangement relationship between the first moving object and the second moving object returns to the original arrangement relationship. .
このようにすれば、第1、第2の移動体が元の配置関係に戻ることで、ゲームを再開できるようになるため、配置関係を戻すことの効果的な動機づけをユーザに与えることが可能になる。   In this way, the first and second moving bodies can return to the original arrangement relationship, so that the game can be resumed. Therefore, the user can be effectively motivated to return the arrangement relationship. It becomes possible.
また本発明の一態様では、前記表示処理部は、前記第1の移動体と前記第2の移動体の配置関係の変化、前記第1の移動体の状態の変化及び前記ユーザのゲームパラメータの変化の少なくとも1つに応じて、前記第2の移動体の表示態様を変化させる処理を行ってもよい。   Further, in one aspect of the present invention, the display processing unit includes: a change in an arrangement relationship between the first moving body and the second moving body; a change in the state of the first moving body; and a game parameter of the user. A process of changing the display mode of the second moving body may be performed according to at least one of the changes.
このようにすれば、第1、第2の移動体の配置関係の変化や第1の移動体の状態の変化やユーザのゲームパラメータの変化を、ユーザに対して視覚的に伝えることが可能になる。   In this way, it is possible to visually convey to the user changes in the arrangement relationship between the first and second moving bodies, changes in the state of the first moving body, and changes in the user's game parameters. Become.
また本発明の一態様では、前記表示処理部は、実空間において前記ユーザと他の物体とが衝突の接近関係になったと判定された場合に、前記第2の移動体の視認性を高める処理を行ってもよい。   In one aspect of the present invention, the display processing unit increases the visibility of the second moving object when it is determined that the user and another object are in a close proximity relationship in real space. May be performed.
このように視認性を高めれば、第2の移動体を視覚的に認識することが容易になり、実空間におけるユーザと他の物体との衝突の発生等を防止できるようになる。   If the visibility is increased in this way, the second moving body can be easily visually recognized, and the occurrence of a collision between the user and another object in the real space can be prevented.
また本発明の一態様では、前記表示処理部は、前記第2の移動体の前記視認性を高める処理として、前記第2の移動体を非表示状態から表示状態に変化させる処理、前記第2の移動体を非表示状態から半透明状態に変化させる処理、又は前記第2の移動体の半透明状態をより不透明な状態にする処理を行ってもよい。   In the aspect of the invention, the display processing unit may be a process of changing the second moving body from a non-display state to a display state as the process of improving the visibility of the second moving body, The moving body may be changed from a non-display state to a translucent state, or the second moving body may be changed to a more opaque state.
このようにすれば、第2の移動体が、非表示状態から表示状態又は半透明状態に変化したり、より不透明な状態になることで、第2の移動体の視認性が高まり、実空間での衝突の発生の防止等を図れるようになる。   In this way, the second moving body changes from a non-display state to a display state or a semi-transparent state, or becomes more opaque, so that the visibility of the second moving body is increased, and the real space It is possible to prevent the occurrence of a collision at the time.
また本発明の一態様では、前記移動体処理部は、前記仮想空間の所与の場所において、前記第1の移動体の交換処理を行ってもよい。   In the aspect of the invention, the moving body processing unit may perform the replacement process of the first moving body at a given location in the virtual space.
このようにすれば、ユーザは、仮想空間の所与の場所に移動することで、第1の移動体を別の移動体に交換して、ゲームをプレイできるようになる。   If it does in this way, a user will be able to play a game by exchanging a 1st moving body for another moving body by moving to a given place of virtual space.
また本発明の一態様では、前記移動体処理部は、複数種類の移動体の中から前記ユーザにより選択された移動体を、前記第1の移動体として設定してもよい。   In the aspect of the invention, the moving body processing unit may set a moving body selected by the user from a plurality of types of moving bodies as the first moving body.
このようにすれば、ユーザは、複数種類の移動体の中から所望の移動体を選択して、第2の移動体に重ねて配置される第1の移動体として用いることが可能になる。   In this way, the user can select a desired moving body from among a plurality of types of moving bodies and use it as the first moving body that is arranged on the second moving body.
また本発明の一態様では、前記ゲーム処理部は、前記第2の移動体に前記第1の移動体が重ねて配置されている状態と、前記第2の移動体に前記第1の移動体が重ねて配置されていない状態とで、前記第2の移動体の対戦処理用のパラメータを異ならせてもよい。   In one aspect of the present invention, the game processing unit includes a state in which the first moving body is placed on the second moving body, and the first moving body on the second moving body. The parameters for the battle process of the second moving body may be made different from each other in a state in which the two are not overlapped.
このようにすれば、第2の移動体に第1の移動体が重ねて配置されている状態か配置されていない状態かに応じて、異なる対戦処理用のパラメータを設定して、対戦処理を実行できるようになる。   In this way, different battle processing parameters are set according to whether the first mobile body is placed on top of the second mobile body or not, and the battle process is performed. It becomes possible to execute.
また本発明の一態様は、前記表示処理部は、前記所与の条件が成立する前は、前記第2の移動体を非表示にする又は前記第2の移動体の一部を表示し、前記所与の条件が成立した場合に、前記第2の移動体を表示してもよい。   In one aspect of the present invention, the display processing unit hides the second moving body or displays a part of the second moving body before the given condition is satisfied. When the given condition is satisfied, the second moving body may be displayed.
このようにすれば、所与の条件が成立する前は、第2の移動体は、表示されない、或いはその一部だけが表示され、所与の条件が成立すると、初めて、第2の移動体が表示されるようになる。そして、表示された第2の移動体を用いて、実空間と仮想空間の状況の相違に起因する不自然な事態や不適切な事態が発生するのを抑制できるようになる。   In this way, before the given condition is satisfied, the second moving object is not displayed or only a part of the second moving object is displayed, and the second moving object is not displayed until the given condition is satisfied. Will be displayed. And it becomes possible to suppress the occurrence of an unnatural situation or an inappropriate situation due to a difference in the situation between the real space and the virtual space by using the displayed second moving body.
また本発明の一態様では、前記表示処理部は、前記所与の条件が成立して前記第2の移動体を表示する場合には、前記第1の移動体の位置に対応する位置に前記第2の移動体を表示し、前記移動体処理部は、前記第2の移動体が表示された後、取得された前記ユーザ情報に基づいて、前記第2の移動体を、前記仮想空間において移動させる処理を行ってもよい。   In the aspect of the invention, the display processing unit may display the second moving body at a position corresponding to the position of the first moving body when the given condition is satisfied and the second moving body is displayed. The second moving body is displayed, and the moving body processing unit displays the second moving body in the virtual space based on the acquired user information after the second moving body is displayed. You may perform the process to move.
このようにすれば、所与の条件が成立すると、ユーザ情報に基づき移動していた第1の移動体の位置に対応する位置に、第2の移動体が表示され、その後、例えばその位置から、当該第2の移動体がユーザ情報に基づき移動するようになる。   In this way, when a given condition is satisfied, the second moving body is displayed at a position corresponding to the position of the first moving body that has been moved based on the user information. The second moving body moves based on the user information.
また本発明の一態様では、前記第1の移動体は、前記第2の移動体の外殻となる移動体であってもよい。   In the aspect of the invention, the first moving body may be a moving body serving as an outer shell of the second moving body.
このようにすれば、第2の移動体の外殻となる移動体を、第1の移動体として第2の移動体に重ねて配置し、第2の移動体と共に仮想空間で移動させることが可能になる。   In this way, the moving body that is the outer shell of the second moving body can be placed on the second moving body as the first moving body, and moved in the virtual space together with the second moving body. It becomes possible.
また本発明の一態様では、前記第1の移動体は、前記第2の移動体のサイズ又は形状に対応するサイズ又は形状を有する移動体であってもよい。   In the aspect of the invention, the first moving body may be a moving body having a size or shape corresponding to the size or shape of the second moving body.
このように、第1の移動体と第2の移動体のサイズ又は形状を揃えれば、所与の条件の成立時に第1の移動体の代わりに第2の移動体を表示する処理や、第2の移動体に重ねて第1の移動体を配置して移動する処理を、適切に実行することが可能になる。   In this way, if the sizes or shapes of the first moving body and the second moving body are aligned, a process of displaying the second moving body instead of the first moving body when a given condition is satisfied, The process of arranging and moving the first moving body over the two moving bodies can be appropriately executed.
本実施形態のシミュレーションシステムの構成例を示すブロック図。The block diagram which shows the structural example of the simulation system of this embodiment. 図2(A)、図2(B)は本実施形態に用いられるHMDの一例。FIG. 2A and FIG. 2B are examples of the HMD used in this embodiment. 図3(A)、図3(B)は本実施形態に用いられるHMDの他の例。3A and 3B are other examples of the HMD used in the present embodiment. シミュレーションシステムで用いられるフィールドの説明図。Explanatory drawing of the field used with a simulation system. 図5(A)、図5(B)は実空間のユーザと当該ユーザに対応する仮想空間のアバター移動体、外殻移動体についての説明図。5A and 5B are explanatory diagrams of a real space user and an avatar moving body and outer shell moving body in a virtual space corresponding to the user. 図6(A)、図6(B)はアバター移動体に外殻移動体を重ねて配置する本実施形態の手法の説明図。6 (A) and 6 (B) are explanatory diagrams of the method of the present embodiment in which the outer shell moving body is placed on the avatar moving body. HMDに表示されるゲーム画像の例。The example of the game image displayed on HMD. 図8(A)、図8(B)は弾のヒット時における本実施形態の手法についての説明図。FIG. 8A and FIG. 8B are explanatory diagrams of the technique of the present embodiment when a bullet is hit. 図9(A)、図9(B)は障害物とのヒット時における本実施形態の手法についての説明図。FIG. 9A and FIG. 9B are explanatory diagrams of the method of the present embodiment when hitting an obstacle. 図10(A)、図10(B)は障害物とのヒット時における比較例の手法の問題点の説明図。FIG. 10A and FIG. 10B are explanatory diagrams of problems of the method of the comparative example at the time of hit with an obstacle. 図11(A)、図11(B)は障害物とのヒット時における本実施形態の手法についての説明図。FIG. 11A and FIG. 11B are explanatory diagrams of the method of the present embodiment at the time of hit with an obstacle. 図12(A)、図12(B)は外殻移動体の表示態様を変化させる手法の説明図。FIG. 12A and FIG. 12B are explanatory diagrams of a method for changing the display mode of the outer shell moving body. 図13(A)、図13(B)は外殻移動体の表示態様を変化させる手法の説明図。FIG. 13A and FIG. 13B are explanatory diagrams of a method for changing the display mode of the outer shell moving body. 外殻移動体の交換処理の説明図。Explanatory drawing of the replacement | exchange process of an outer shell moving body. 図15(A)〜図15(C)は実空間での衝突判定時にアバター移動体の表示態様を変化させる手法の説明図。FIG. 15A to FIG. 15C are explanatory diagrams of a technique for changing the display mode of the avatar moving body at the time of collision determination in real space. 外殻移動体の選択画面の例。The example of the selection screen of an outer shell moving body. 図17(A)、図17(B)は外殻移動体との配置関係にズレが生じた場合におけるアバター移動体の対戦用パラメータの設定手法の説明図。FIG. 17A and FIG. 17B are explanatory diagrams of a method for setting a battle parameter for an avatar moving body when a deviation occurs in the arrangement relationship with the outer shell moving body. 本実施形態の詳細な処理例を説明するフローチャート。The flowchart explaining the detailed process example of this embodiment. 本実施形態の詳細な処理例を説明するフローチャート。The flowchart explaining the detailed process example of this embodiment.
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
1.シミュレーションシステム
図1は、本実施形態のシミュレーションシステム(シミュレータ、ゲームシステム)の構成例を示すブロック図である。本実施形態のシミュレーションシステムは例えばバーチャルリアリティ(VR)をシミュレートするシステムであり、ゲームコンテンツを提供するゲームシステム、スポーツ競技シミュレータや運転シミュレータなどのリアルタイムシミュレーションシステム、SNSのサービスを提供するシステム、映像等のコンテンツを提供するコンテンツ提供システム、或いは遠隔作業を実現するオペレーティングシステムなどの種々のシステムに適用可能である。なお、本実施形態のシミュレーションシステムは図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Simulation System FIG. 1 is a block diagram showing a configuration example of a simulation system (simulator, game system) of the present embodiment. The simulation system of the present embodiment is a system that simulates virtual reality (VR), for example, a game system that provides game content, a real-time simulation system such as a sports competition simulator or a driving simulator, a system that provides an SNS service, an image The present invention can be applied to various systems such as a content providing system that provides content such as an operating system that implements remote work. Note that the simulation system of the present embodiment is not limited to the configuration shown in FIG. 1, and various modifications such as omitting some of the components (each unit) or adding other components are possible.
操作部160は、ユーザ(プレーヤ)が種々の操作情報(入力情報)を入力するためのものである。操作部160は、例えば操作ボタン、方向指示キー、ジョイスティック、ハンドル、ペダル又はレバー等の種々の操作デバイスにより実現できる。操作部160は、例えばユーザの装備品であるガン型コントローラ等のコントローラにより実現できる。   The operation unit 160 is for a user (player) to input various operation information (input information). The operation unit 160 can be realized by various operation devices such as an operation button, a direction instruction key, a joystick, a handle, a pedal, or a lever. The operation unit 160 can be realized by a controller such as a gun-type controller which is a user's equipment.
記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。ゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SSD、光ディスク装置などにより実現できる。記憶部170は、オブジェクト情報記憶部172、描画バッファ178を含む。   The storage unit 170 stores various types of information. The storage unit 170 functions as a work area such as the processing unit 100 or the communication unit 196. The game program and game data necessary for executing the game program are held in the storage unit 170. The function of the storage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), HDD (Hard Disk Drive), SSD, optical disk device, or the like. The storage unit 170 includes an object information storage unit 172 and a drawing buffer 178.
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by an optical disk (DVD, BD, CD), HDD, semiconductor memory (ROM), or the like. . The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an input device, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.
HMD200(頭部装着型表示装置)は、ユーザの頭部に装着されて、ユーザの眼前に画像を表示する装置である。HMD200は非透過型であることが望ましいが、透過型であってもよい。またHMD200は、いわゆるメガネタイプのHMDであってもよい。   The HMD 200 (head-mounted display device) is a device that is mounted on the user's head and displays an image in front of the user's eyes. The HMD 200 is preferably a non-transmissive type, but may be a transmissive type. The HMD 200 may be a so-called glasses-type HMD.
HMD200は、センサ部210、表示部220、処理部240を含む。なおHMD200に発光素子を設ける変形実施も可能である。センサ部210は、例えばヘッドトラッキングなどのトラッキング処理を実現するためものである。例えばセンサ部210を用いたトラッキング処理により、HMD200の位置、方向を特定する。HMD200の位置、方向が特定されることで、ユーザの視点位置、視線方向(ユーザの位置、方向)を特定できる。   The HMD 200 includes a sensor unit 210, a display unit 220, and a processing unit 240. A modification in which a light emitting element is provided in the HMD 200 is also possible. The sensor unit 210 is for realizing tracking processing such as head tracking, for example. For example, the position and direction of the HMD 200 are specified by tracking processing using the sensor unit 210. By specifying the position and direction of the HMD 200, the user's viewpoint position and line-of-sight direction (user position and direction) can be specified.
トラッキング方式としては種々の方式を採用できる。トラッキング方式の一例である第1のトラッキング方式では、後述の図2(A)、図2(B)で詳細に説明するように、センサ部210として複数の受光素子(フォトダイオード等)を設ける。そして外部に設けられた発光素子(LED等)からの光(レーザー等)をこれらの複数の受光素子により受光することで、現実世界の3次元空間でのHMD200(ユーザの頭部)の位置、方向を特定する。第2のトラッキング方式では、後述の図3(A)、図3(B)で詳細に説明するように、複数の発光素子(LED)をHMD200に設ける。そして、これらの複数の発光素子からの光を、外部に設けられた撮像部で撮像することで、HMD200の位置、方向を特定する。第3のトラッキング方式では、センサ部210としてモーションセンサを設け、このモーションセンサを用いてHMD200の位置、方向を特定する。モーションセンサは例えば加速度センサやジャイロセンサなどにより実現できる。例えば3軸の加速度センサと3軸のジャイロセンサを用いた6軸のモーションセンサを用いることで、現実世界の3次元空間でのHMD200の位置、方向を特定できる。なお、第1のトラッキング方式と第2のトラッキング方式の組合わせ、或いは第1のトラッキング方式と第3のトラッキング方式の組合わせなどにより、HMD200の位置、方向を特定してもよい。またHMD200の位置、方向を特定することでユーザの視点位置、視線方向を特定するのではなく、ユーザの視点位置、視線方向(位置、方向)を直接に特定するトラッキング処理を採用してもよい。   Various methods can be adopted as the tracking method. In the first tracking method, which is an example of the tracking method, a plurality of light receiving elements (photodiodes and the like) are provided as the sensor unit 210, as will be described in detail with reference to FIGS. 2A and 2B described later. Then, by receiving light (laser or the like) from a light emitting element (LED or the like) provided outside by the plurality of light receiving elements, the position of the HMD 200 (user's head) in the real world three-dimensional space, Identify the direction. In the second tracking method, a plurality of light emitting elements (LEDs) are provided in the HMD 200 as will be described in detail with reference to FIGS. 3A and 3B described later. And the position and direction of HMD200 are pinpointed by imaging the light from these light emitting elements with the imaging part provided outside. In the third tracking method, a motion sensor is provided as the sensor unit 210, and the position and direction of the HMD 200 are specified using this motion sensor. The motion sensor can be realized by, for example, an acceleration sensor or a gyro sensor. For example, by using a 6-axis motion sensor using a 3-axis acceleration sensor and a 3-axis gyro sensor, the position and direction of the HMD 200 in a three-dimensional space in the real world can be specified. Note that the position and direction of the HMD 200 may be specified by a combination of the first tracking method and the second tracking method, or a combination of the first tracking method and the third tracking method. Further, instead of specifying the user's viewpoint position and line-of-sight direction by specifying the position and direction of the HMD 200, a tracking process that directly specifies the user's viewpoint position and line-of-sight direction (position, direction) may be employed. .
HMD200の表示部220は例えば有機ELディスプレイ(OEL)や液晶ディスプレイ(LCD)などにより実現できる。例えばHMD200の表示部220には、ユーザの左目の前に設定される第1のディスプレイ又は第1の表示領域と、右目の前に設定される第2のディスプレイ又は第2の表示領域が設けられており、立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左目用画像と右目用画像を生成し、第1のディスプレイに左目用画像を表示し、第2のディスプレイに右目用画像を表示する。或いは1つのディスプレイの第1の表示領域に左目用画像を表示し、第2の表示領域に右目用画像を表示する。またHMD200には左目用、右目用の2つの接眼レンズ(魚眼レンズ)が設けられており、これによりユーザの視界の全周囲に亘って広がるVR空間が表現される。そして接眼レンズ等の光学系で生じる歪みを補正するための補正処理が、左目用画像、右目用画像に対して行われる。この補正処理は表示処理部120が行う。   The display unit 220 of the HMD 200 can be realized by, for example, an organic EL display (OEL) or a liquid crystal display (LCD). For example, the display unit 220 of the HMD 200 is provided with a first display or first display area set in front of the user's left eye and a second display or second display area set in front of the right eye. 3D display is possible. When performing stereoscopic display, for example, a left-eye image and a right-eye image with different parallax are generated, the left-eye image is displayed on the first display, and the right-eye image is displayed on the second display. Alternatively, the left-eye image is displayed in the first display area of one display, and the right-eye image is displayed in the second display area. Also, the HMD 200 is provided with two eyepiece lenses (fisheye lenses) for the left eye and the right eye, thereby expressing a VR space that extends all around the user's field of view. Then, correction processing for correcting distortion generated in an optical system such as an eyepiece is performed on the left-eye image and the right-eye image. This correction process is performed by the display processing unit 120.
HMD200の処理部240は、HMD200において必要な各種の処理を行う。例えば処理部240は、センサ部210の制御処理や表示部220の表示制御処理などを行う。また処理部240が、3次元音響(立体音響)処理を行って、3次元的な音の方向や距離や広がりの再現を実現してもよい。   The processing unit 240 of the HMD 200 performs various processes necessary for the HMD 200. For example, the processing unit 240 performs control processing of the sensor unit 210, display control processing of the display unit 220, and the like. Further, the processing unit 240 may perform a three-dimensional sound (stereoscopic sound) process to realize reproduction of a three-dimensional sound direction, distance, and spread.
音出力部192は、本実施形態により生成された音を出力するものであり、例えばスピーカ又はヘッドホン等により実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and can be realized by, for example, a speaker or headphones.
I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。   The I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and the function can be realized by an ASIC for I / F processing or the like. The portable information storage medium 195 is for a user to save various types of information, and is a storage device that retains storage of such information even when power is not supplied. The portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.
通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (another apparatus) via a wired or wireless network, and functions thereof are hardware such as a communication ASIC or communication processor, or communication firmware. Can be realized.
なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。   A program (data) for causing a computer to function as each unit of this embodiment is distributed from the information storage medium of the server (host device) to the information storage medium 180 (or storage unit 170) via the network and communication unit 196. May be. Use of an information storage medium by such a server (host device) can also be included in the scope of the present invention.
処理部100(プロセッサ)は、操作部160からの操作情報や、HMD200でのトラッキング情報(HMDの位置及び方向の少なくとも一方の情報。視点位置及び視線方向の少なくとも一方の情報)や、プログラムなどに基づいて、ゲーム処理(シミュレーション処理)、仮想空間設定処理、移動体処理、仮想カメラ制御処理、表示処理、或いは音処理などを行う。   The processing unit 100 (processor) is used for operation information from the operation unit 160, tracking information in the HMD 200 (information on at least one of the position and direction of the HMD, information on at least one of the viewpoint position and the line-of-sight direction), a program, and the like. Based on this, game processing (simulation processing), virtual space setting processing, moving body processing, virtual camera control processing, display processing, sound processing, or the like is performed.
処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。   Each processing (each function) of this embodiment performed by each unit of the processing unit 100 can be realized by a processor (a processor including hardware). For example, each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program. In the processor, for example, the function of each unit may be realized by individual hardware, or the function of each unit may be realized by integrated hardware. For example, the processor may include hardware, and the hardware may include at least one of a circuit that processes a digital signal and a circuit that processes an analog signal. For example, the processor can be configured by one or a plurality of circuit devices (for example, ICs) mounted on a circuit board or one or a plurality of circuit elements (for example, resistors, capacitors, etc.). The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Signal Processor) can be used. The processor may be an ASIC hardware circuit. The processor may include an amplifier circuit, a filter circuit, and the like that process an analog signal. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD) or an optical storage device such as an optical disk device. For example, the memory stores instructions that can be read by a computer, and the processing (function) of each unit of the processing unit 100 is realized by executing the instructions by the processor. The instruction here may be an instruction set constituting a program, or an instruction for instructing an operation to the hardware circuit of the processor.
処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。演算処理部110は、情報取得部111、仮想空間設定部112、移動体処理部113、仮想カメラ制御部114、ゲーム処理部115、報知処理部117、表示処理部120、音処理部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 100 includes an input processing unit 102, an arithmetic processing unit 110, and an output processing unit 140. The arithmetic processing unit 110 includes an information acquisition unit 111, a virtual space setting unit 112, a moving body processing unit 113, a virtual camera control unit 114, a game processing unit 115, a notification processing unit 117, a display processing unit 120, and a sound processing unit 130. . As described above, each process of the present embodiment executed by these units can be realized by a processor (or a processor and a memory). Various modifications such as omitting some of these components (each unit) or adding other components are possible.
入力処理部102は、操作情報やトラッキング情報を受け付ける処理や、記憶部170から情報を読み出す処理や、通信部196を介して情報を受信する処理を、入力処理として行う。例えば入力処理部102は、操作部160を用いてユーザが入力した操作情報やHMD200のセンサ部210等により検出されたトラッキング情報を取得する処理や、読み出し命令で指定された情報を、記憶部170から読み出す処理や、外部装置(サーバ等)からネットワークを介して情報を受信する処理を、入力処理として行う。ここで受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。   The input processing unit 102 performs processing for receiving operation information and tracking information, processing for reading information from the storage unit 170, and processing for receiving information via the communication unit 196 as input processing. For example, the input processing unit 102 stores, in the storage unit 170, processing for acquiring operation information input by the user using the operation unit 160, tracking information detected by the sensor unit 210 of the HMD 200, and the information specified by the read command. A process for reading data from a computer or a process for receiving information from an external device (such as a server) via a network is performed as an input process. Here, the reception process includes a process of instructing the communication unit 196 to receive information, a process of acquiring information received by the communication unit 196, and writing the information in the storage unit 170, and the like.
演算処理部110は、各種の演算処理を行う。例えば情報取得処理、仮想空間設定処理、移動体処理、仮想カメラ制御処理、ゲーム処理(シミュレーション処理)、報知処理、表示処理、或いは音処理などの演算処理を行う。   The arithmetic processing unit 110 performs various arithmetic processes. For example, arithmetic processing such as information acquisition processing, virtual space setting processing, moving body processing, virtual camera control processing, game processing (simulation processing), notification processing, display processing, or sound processing is performed.
情報取得部111(情報取得処理のプログラムモジュール)は種々の情報の取得処理を行う。例えば情報取得部111は、ユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報(ユーザトラッキング情報)を取得する。   The information acquisition unit 111 (program module for information acquisition processing) performs various information acquisition processing. For example, the information acquisition unit 111 acquires user information (user tracking information) including at least one of user position information, direction information, and posture information.
仮想空間設定部112(仮想空間設定処理のプログラムモジュール)は、複数のオブジェクトが配置される仮想空間(オブジェクト空間)の設定処理を行う。例えば、移動体(人、ロボット、車、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)を仮想空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクト情報記憶部172には、仮想空間でのオブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報がオブジェクト番号に対応づけて記憶される。仮想空間設定部112は、例えば各フレーム毎にこのオブジェクト情報を更新する処理などを行う。   The virtual space setting unit 112 (program module for virtual space setting processing) performs setting processing for a virtual space (object space) in which a plurality of objects are arranged. For example, various objects representing display objects such as moving objects (people, robots, cars, trains, airplanes, ships, monsters, animals, etc.), maps (terrain), buildings, auditoriums, courses (roads), trees, walls, water surfaces, etc. A process of placing and setting an object (an object composed of a primitive surface such as a polygon, a free-form surface, or a subdivision surface) in a virtual space is performed. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects. Specifically, in the object information storage unit 172 of the storage unit 170, object information that is information such as the position, rotation angle, moving speed, and moving direction of an object (part object) in the virtual space is associated with the object number. Is remembered. The virtual space setting unit 112 performs a process of updating the object information for each frame, for example.
移動体処理部113(移動体処理のプログラムモジュール)は、仮想空間内で移動する移動体についての種々の処理を行う。例えば仮想空間(オブジェクト空間、ゲーム空間)において移動体を移動させる処理や、移動体を動作させる処理を行う。例えば移動体処理部113は、操作部160によりユーザが入力した操作情報や、取得されたトラッキング情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(モデルオブジェクト)を仮想空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。移動体は、例えば実空間のユーザ(プレーヤ)に対応する仮想空間の仮想ユーザ(仮想プレーヤ、アバター)や、或いは当該仮想ユーザが搭乗(操作)する搭乗移動体(操作移動体)などである。   The moving body processing unit 113 (moving body processing program module) performs various processes on a moving body that moves in the virtual space. For example, processing for moving the moving body in virtual space (object space, game space) and processing for moving the moving body are performed. For example, the mobile object processing unit 113 is based on operation information input by the user through the operation unit 160, acquired tracking information, a program (movement / motion algorithm), various data (motion data), and the like. Control processing for moving the model object) in the virtual space or moving the moving object (motion, animation) is performed. Specifically, a simulation for sequentially obtaining movement information (position, rotation angle, speed, or acceleration) and motion information (part object position or rotation angle) of a moving body for each frame (for example, 1/60 second). Process. A frame is a unit of time for performing a moving / movement process (simulation process) and an image generation process of a moving object. The moving body is, for example, a virtual user (virtual player, avatar) in a virtual space corresponding to a user (player) in real space, or a boarding moving body (operation moving body) on which the virtual user is boarded (operated).
ゲーム処理部115(ゲーム処理のプログラムモジュール)はユーザがゲームをプレイするための種々のゲーム処理を行う。別の言い方をすれば、ゲーム処理部115(シミュレーション処理部)は、ユーザが仮想現実(バーチャルリアリティ)を体験するための種々のシミュレーション処理を実行する。ゲーム処理は、例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、開始したゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、或いはゲーム成績を演算する処理などである。ゲーム処理部115はヒット演算処理部116を含む。ヒット演算処理部116は、ヒット判定処理などのヒット演算処理を実行する。   The game processing unit 115 (game processing program module) performs various game processes for the user to play a game. In other words, the game processing unit 115 (simulation processing unit) executes various simulation processes for the user to experience virtual reality (virtual reality). The game process is, for example, a process for starting a game when a game start condition is satisfied, a process for advancing the started game, a process for ending a game when a game end condition is satisfied, or calculating a game result. Processing. The game processing unit 115 includes a hit calculation processing unit 116. The hit calculation processing unit 116 executes hit calculation processing such as hit determination processing.
報知処理部117(報知処理のプログラムモジュール)は各種の報知処理を行う。例えばユーザに対する警告の報知処理などを行う。報知処理は、例えば画像や音による報知処理であってもよいし、振動や音響や空気砲などの体感装置を用いた報知処理であってもよい。例えば実空間のフィールドに設けられる各種の体感装置(光、振動、空気砲又は音等による体感装置)などにより報知処理を実現してもよい。   The notification processing unit 117 (notification processing program module) performs various types of notification processing. For example, a warning notification process for the user is performed. The notification process may be, for example, a notification process using an image or sound, or may be a notification process using a sensory device such as vibration, sound, or an air cannon. For example, the notification process may be realized by various sensation devices (sensation devices using light, vibration, air cannon, sound, or the like) provided in the field of real space.
表示処理部120(表示処理のプログラムモジュール)は、ゲーム画像(シミュレーション画像)の表示処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、HMD200の表示部220に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間(仮想空間)において仮想カメラ(所与の視点。左目用、右目用の第1、第2の視点)から見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。   The display processing unit 120 (display processing program module) performs display processing of a game image (simulation image). For example, a drawing process is performed based on the results of various processes (game process, simulation process) performed by the processing unit 100, thereby generating an image and displaying it on the display unit 220 of the HMD 200. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image information in units of pixels such as a drawing buffer 178 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. As a result, an image that can be seen from the virtual camera (given viewpoint, left eye and right eye first and second viewpoints) is generated in the object space (virtual space). Note that the drawing processing performed by the display processing unit 120 can be realized by vertex shader processing, pixel shader processing, or the like.
音処理部130(音処理のプログラムモジュール)は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。なお音処理部130の音処理の一部(例えば3次元音響処理)を、HMD200の処理部240により実現してもよい。   The sound processing unit 130 (sound processing program module) performs sound processing based on the results of various processes performed by the processing unit 100. Specifically, game sounds such as music (music, BGM), sound effects, or sounds are generated, and the game sounds are output to the sound output unit 192. Note that part of the sound processing of the sound processing unit 130 (for example, three-dimensional sound processing) may be realized by the processing unit 240 of the HMD 200.
出力処理部140は各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理や、通信部196を介して情報を送信する処理を、出力処理として行う。例えば出力処理部140は、書き込み命令で指定された情報を、記憶部170に書き込む処理や、外部の装置(サーバ等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。   The output processing unit 140 performs various types of information output processing. For example, the output processing unit 140 performs processing for writing information in the storage unit 170 and processing for transmitting information via the communication unit 196 as output processing. For example, the output processing unit 140 performs a process of writing information specified by a write command in the storage unit 170 or a process of transmitting information to an external apparatus (server or the like) via a network. The transmission process is a process of instructing the communication unit 196 to transmit information, or instructing the communication unit 196 to transmit information.
そして本実施形態のシミュレーションシステムは、図1に示すように、情報取得部111と、仮想空間設定部112と、移動体処理部113と、ゲーム処理部115と、表示処理部120を含む。   The simulation system of the present embodiment includes an information acquisition unit 111, a virtual space setting unit 112, a moving body processing unit 113, a game processing unit 115, and a display processing unit 120, as shown in FIG.
情報取得部111は、例えば視界を覆うようにHMD200を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する。例えば情報取得部111は、HMD200のトラッキング情報などに基づいて、実空間でのユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報(ユーザトラッキング情報)を取得する。位置情報は、実空間でのユーザの視点の位置情報であってもよく、方向情報は、実空間でのユーザの視線の方向情報であってもよい。位置情報、方向情報は、ユーザが実空間(現実世界)のフィールド(プレイフィールド、シミュレーションフィールド、プレイエリア)に位置する場合に、そのフィールドでの位置情報、方向情報(所与の位置を原点とする座標系での位置座標、各座標軸回りでの回転角度)であってもよい。姿勢情報は、ユーザの各姿勢(立ち姿勢、しゃがみ姿勢又は座り姿勢等)を特定したり、或いはユーザの各部位(胴体、頭、手又は足等)の位置、方向を特定するための情報である。例えば情報取得部111は、HMD200の位置情報、方向情報を、当該HMD200を装着するユーザの位置情報、方向情報として取得してもよい。   For example, the information acquisition unit 111 acquires user information including at least one of position information, direction information, and posture information of a user who wears the HMD 200 so as to cover the field of view. For example, the information acquisition unit 111 acquires user information (user tracking information) including at least one of user position information, direction information, and posture information in real space based on tracking information of the HMD 200 and the like. The position information may be position information of the user's viewpoint in real space, and the direction information may be direction information of the user's line of sight in real space. When the user is located in a field (play field, simulation field, play area) in the real space (real world), the position information and direction information (the given position is used as the origin). Position coordinates in a coordinate system to be rotated, and rotation angles around each coordinate axis). Posture information is information for specifying each posture of the user (standing posture, crouching posture, sitting posture, etc.) or specifying the position and direction of each part of the user (body, head, hand, foot, etc.). is there. For example, the information acquisition unit 111 may acquire the position information and direction information of the HMD 200 as the position information and direction information of the user wearing the HMD 200.
仮想空間設定部112は仮想空間の設定処理を行う。例えば、移動体(第1、第2の移動体)、障害物オブジェクト、背景オブジェクト又はマップオブジェクトのオブジェクトを仮想空間に配置設定する処理を行う。例えば実空間でのユーザの位置情報、方向情報が取得された場合に、取得された位置情報、方向情報に基づいて、ユーザに対応する第2の移動体や第2の移動体に重ねて配置される第1の移動体の位置、方向を設定して、仮想空間に配置する処理を行う。オブジェクトである第1、第2の移動体の位置、方向等の情報は、例えばオブジェクト情報記憶部172に記憶される。   The virtual space setting unit 112 performs a virtual space setting process. For example, a process of arranging and setting a moving object (first and second moving objects), an obstacle object, a background object, or a map object in the virtual space is performed. For example, when the position information and direction information of the user in real space are acquired, the second moving object corresponding to the user and the second moving object are arranged on the basis of the acquired position information and direction information. The position and direction of the 1st moving body to be set are set, and the process which arrange | positions in a virtual space is performed. Information such as the positions and directions of the first and second moving bodies, which are objects, is stored in the object information storage unit 172, for example.
ゲーム処理部115は、仮想空間でのゲームの処理を行う。例えばゲームを開始する処理、ゲームを進行させる処理、ゲームを終了する処理、或いはゲーム成績を演算する処理などのゲーム処理を行う。   The game processing unit 115 performs game processing in a virtual space. For example, a game process such as a process for starting a game, a process for advancing the game, a process for ending the game, or a process for calculating game results is performed.
移動体処理部113は、第1の移動体を、取得されたユーザ情報(位置情報、方向情報)に基づいて、仮想空間において移動させる処理を行う。例えば実空間でのユーザの移動に追従して移動するように、仮想空間で第1の移動体を移動させる。例えば第1の移動体の移動速度や移動加速度に基づいて、第1の移動体の位置等をフレーム毎に更新する処理を行って、第1の移動体を仮想空間(仮想フィールド)において移動させる。また移動体処理部113は、取得されたユーザ情報(姿勢情報)に基づいて、第1の移動体を動作させる処理を行う。例えばモーションデータに基づいて、第1の移動体の姿勢等を変化させるモーション処理を行う。   The moving body processing unit 113 performs a process of moving the first moving body in the virtual space based on the acquired user information (position information and direction information). For example, the first moving body is moved in the virtual space so as to move following the movement of the user in the real space. For example, the first moving body is moved in the virtual space (virtual field) by performing processing for updating the position and the like of the first moving body for each frame based on the moving speed and moving acceleration of the first moving body. . In addition, the moving body processing unit 113 performs processing for operating the first moving body based on the acquired user information (posture information). For example, based on the motion data, motion processing for changing the posture of the first moving body is performed.
表示処理部120は、ユーザが装着するHMD200の表示画像を生成する。例えば仮想空間において仮想カメラから見える画像を、HMD200の表示画像として生成する。例えば仮想カメラ制御部114は、HMD200を装着するユーザの視点に対応する仮想カメラの制御処理を行う。例えば仮想カメラ制御部114は、ユーザの一人称視点として設定される仮想カメラの制御を行う。例えば仮想空間において移動する第1の移動体(第2の移動体)の視点に対応する位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置(位置座標)や姿勢(回転軸回りでの回転角度)を制御する。そして表示処理部120は、HMD200の表示画像(表示映像)として、仮想空間において仮想カメラ(ユーザ視点)から見える画像を生成する。例えば仮想空間であるオブジェクト空間において所与の視点から見える画像を生成する。生成される画像は例えば立体視用の画像である。   The display processing unit 120 generates a display image of the HMD 200 worn by the user. For example, an image viewed from a virtual camera in the virtual space is generated as a display image of the HMD 200. For example, the virtual camera control unit 114 performs a virtual camera control process corresponding to the viewpoint of the user wearing the HMD 200. For example, the virtual camera control unit 114 controls the virtual camera set as the first-person viewpoint of the user. For example, by setting the virtual camera at a position corresponding to the viewpoint of the first moving body (second moving body) that moves in the virtual space, and setting the viewpoint position and the line-of-sight direction of the virtual camera, Controls the position (position coordinates) and posture (rotation angle around the rotation axis). And the display process part 120 produces | generates the image seen from a virtual camera (user viewpoint) in virtual space as a display image (display image | video) of HMD200. For example, an image that is visible from a given viewpoint is generated in an object space that is a virtual space. The generated image is, for example, a stereoscopic image.
このように本実施形態では、実空間のユーザの位置情報、方向情報又は姿勢情報等のユーザ情報が取得され、取得されたユーザ情報に基づいて、第1の移動体が仮想空間内で移動する。そして表示処理部120は、所与の条件が成立した場合に、ユーザに対応する第2の移動体を表示する。即ち、第1の移動体とは別の第2の移動体を表示する。例えばユーザに対応する第2の移動体に重なるように配置されていた第1の移動体が離脱することで、第2の移動体が表示されるようになる。例えば第2の移動体の外殻移動体である第1の移動体が、第2の移動体から離脱することで、第1の移動体に覆われていた第2の移動体が出現して、表示されるようになる。   As described above, in this embodiment, user information such as position information, direction information, or posture information of a user in real space is acquired, and the first moving body moves in the virtual space based on the acquired user information. . And the display process part 120 displays the 2nd moving body corresponding to a user, when a given condition is satisfied. That is, a second moving body different from the first moving body is displayed. For example, when the first moving body arranged so as to overlap with the second moving body corresponding to the user is separated, the second moving body is displayed. For example, when the first moving body which is the outer shell moving body of the second moving body is detached from the second moving body, the second moving body covered with the first moving body appears. , Will be displayed.
そして移動体処理部113は、取得されたユーザ情報に基づいて、第2の移動体を、仮想空間において移動させる処理を行う。例えば、所与の条件が成立することで表示された、ユーザに対応する第2の移動体を、ユーザ情報に基づき、例えば実空間でのユーザの移動に追従して移動するように、仮想空間において移動させる。例えば第2の移動体の移動速度や移動加速度に基づいて、第2の移動体の位置等をフレーム毎に更新する処理を行って、ユーザに対応する第2の移動体を仮想空間において移動させる。また移動体処理部113は、取得されたユーザ情報(姿勢情報)に基づいて、ユーザに対応する第2の移動体を動作させる処理を行う。例えばモーションデータに基づいて、第2の移動体の姿勢等を変化させるモーション処理を行う。   Then, the moving body processing unit 113 performs a process of moving the second moving body in the virtual space based on the acquired user information. For example, the second moving body corresponding to the user, which is displayed when a given condition is satisfied, is moved based on the user information, for example, following the movement of the user in the real space. Move in. For example, the second moving body corresponding to the user is moved in the virtual space by performing processing for updating the position and the like of the second moving body for each frame based on the moving speed and the moving acceleration of the second moving body. . In addition, the moving body processing unit 113 performs processing for operating the second moving body corresponding to the user based on the acquired user information (posture information). For example, based on the motion data, a motion process for changing the posture or the like of the second moving body is performed.
ここで、例えば第1の移動体が障害物などの他のオブジェクトに衝突(ヒット)したり、第1の移動体が敵からの攻撃等により破壊されたり、第2の移動体を出現させるイベントが発生したり、第1の移動体が第2の移動体から離脱するイベントが発生したり、或いはユーザにより所与の操作が行われた場合(操作部160を用いた操作)などに、所与の条件が成立する。   Here, for example, an event in which the first moving body collides (hits) with another object such as an obstacle, the first moving body is destroyed by an attack from an enemy, or the second moving body appears. Occurs, an event occurs in which the first moving body leaves the second moving body, or when a given operation is performed by the user (operation using the operation unit 160). The given condition is met.
このように本実施形態では、実空間のユーザの位置情報、方向情報又は姿勢情報等のユーザ情報が取得され、取得されたユーザ情報に基づいて、第1の移動体が仮想空間内で移動すると共に、所与の条件が成立すると、第1の移動体とは別の第2の移動体が表示され、当該第2の移動体が、取得されたユーザ情報に基づいて仮想空間内で移動するようになる。これにより、実空間でのユーザの周囲の状況と、仮想空間での周囲の状況に相違がある場合に、例えば第1の移動体とは別の第2の移動体を出現させて、当該相違に起因した不自然な事態や不適切な事態が発生するのを抑制することが可能になる。   As described above, in this embodiment, user information such as position information, direction information, or posture information of a user in real space is acquired, and the first moving body moves in the virtual space based on the acquired user information. At the same time, when a given condition is satisfied, a second moving body different from the first moving body is displayed, and the second moving body moves in the virtual space based on the acquired user information. It becomes like this. As a result, when there is a difference between the situation around the user in the real space and the situation around the virtual space, for example, a second moving body different from the first moving body appears to make the difference. It is possible to suppress the occurrence of an unnatural situation or an inappropriate situation caused by the situation.
また本実施形態では移動体処理部113は、ユーザに対応する第2の移動体と、第2の移動体に対して重ねて配置される第1の移動体とを、取得されたユーザ情報(位置情報、方向情報)に基づいて、仮想空間において移動させる処理を行う。例えば実空間でのユーザの移動に追従して移動するように、仮想空間で第1、第2の移動体を移動させる。また移動体処理部113は、取得されたユーザ情報(姿勢情報)に基づいて、第1、第2の移動体を動作させる処理を行う。例えばモーションデータに基づいて、第1、第2の移動体の姿勢等を変化させるモーション処理を行う。   Moreover, in this embodiment, the moving body process part 113 acquires the 2nd moving body corresponding to a user, and the 1st moving body arrange | positioned with respect to a 2nd moving body, the acquired user information ( Based on the position information and direction information), a process of moving in the virtual space is performed. For example, the first and second moving bodies are moved in the virtual space so as to move following the movement of the user in the real space. In addition, the moving body processing unit 113 performs processing for operating the first and second moving bodies based on the acquired user information (posture information). For example, based on the motion data, motion processing for changing the postures of the first and second moving bodies is performed.
このように本実施形態では、実空間のユーザの位置情報、方向情報又は姿勢情報等のユーザ情報が取得され、取得されたユーザ情報に基づいて、ユーザに対応する第2の移動体と、第2の移動体に重ねて配置される第1の移動体とが、仮想空間内で移動する。そして、この仮想空間での画像がHMD200に表示される。例えば本実施形態により実現されるゲームは、視界を覆うHMD200を装着したユーザ(プレーヤ)が、位置検知されつつ、仮想空間に対応した実空間上を移動することによって、仮想空間上を自由移動してプレイするゲームである。そして当該ゲームにおいて、仮想空間上には、ユーザの視点位置に存在するように移動制御される第2の移動体(アバター)と、第2の移動体に重ねて配置される第1の移動体(外殻、義体)とが、ユーザの動きに応じて制御される。   As described above, in the present embodiment, user information such as position information, direction information, or posture information of a user in real space is acquired, and based on the acquired user information, the second moving body corresponding to the user, The first moving body arranged so as to overlap the two moving bodies moves in the virtual space. Then, an image in this virtual space is displayed on the HMD 200. For example, in the game realized by this embodiment, the user (player) wearing the HMD 200 that covers the field of view moves freely in the virtual space by moving in the real space corresponding to the virtual space while detecting the position. It is a game to play. In the game, in the virtual space, a second moving body (avatar) whose movement is controlled so as to exist at the user's viewpoint position, and a first moving body that is arranged to overlap the second moving body. (Outer shell, prosthetic body) is controlled according to the movement of the user.
このようにすれば、ユーザに対応する第2の移動体のみならず、第2の移動体に重なるように配置された第1の移動体が、仮想空間において移動するようになる。これにより、実空間でのユーザの周囲の状況と、仮想空間での第2の移動体(ユーザ視点)の周囲の状況に相違がある場合に、例えば第2の移動体から第1の移動体を離脱させることで(配置関係にズレを生じさせることで)、当該相違に起因した不自然な事態や不適切な事態が発生するのを抑制できる。例えばHMD200を装着してプレイするゲームでは、実空間には存在しない仮想空間内の障害物(仮想空間にしか設定していない壁などの遮蔽物)のオブジェクトについては、対応する障害物が実空間には実在しないため、ユーザに対応する第2の移動体が当該障害物のオブジェクトを通過できてしまうという問題がある。本実施形態では、第2の移動体に重ねて配置される第1の移動体が、第2の移動体から離脱(幽体離脱)できるようにして、当該問題を解決している。   In this way, not only the second moving body corresponding to the user but also the first moving body arranged to overlap the second moving body moves in the virtual space. Accordingly, when there is a difference between the situation around the user in the real space and the situation around the second moving body (user viewpoint) in the virtual space, for example, the first moving body is changed from the second moving body. By separating (by causing a shift in the arrangement relationship), it is possible to suppress the occurrence of an unnatural situation or an inappropriate situation due to the difference. For example, in a game played with the HMD 200 mounted, for an obstacle object in a virtual space that does not exist in the real space (a barrier such as a wall set only in the virtual space), the corresponding obstacle is the real space. However, the second moving body corresponding to the user can pass through the obstacle object. In the present embodiment, the first moving body arranged so as to overlap the second moving body can be separated from the second moving body (detachment of the ghost body) to solve the problem.
ここで第2の移動体に対して重ねて配置される第1の移動体は、例えば第2の移動体との間で位置情報、方向情報又は姿勢情報等のユーザ情報を共用することなどにより実現できる。例えば第1の移動体は、第2の移動体に付随する移動体である。例えば第2の移動体の位置、方向を変化させる場合に、それに連動して第1の移動体の位置、方向を変化させる。或いは第2の移動体の姿勢を変化させる場合に、それに連動して第1の移動体の姿勢を変化させる。第1の移動体は、例えば第2の移動体を内包する移動体であり、例えば後述するような外殻移動体である。   Here, the first moving body arranged so as to overlap the second moving body, for example, by sharing user information such as position information, direction information, or posture information with the second moving body, etc. realizable. For example, the first moving body is a moving body that accompanies the second moving body. For example, when the position and direction of the second moving body are changed, the position and direction of the first moving body are changed in conjunction therewith. Alternatively, when the posture of the second moving body is changed, the posture of the first moving body is changed in conjunction therewith. The first moving body is a moving body including the second moving body, for example, and is an outer shell moving body as described later, for example.
一方、第2の移動体は、例えばユーザに対応するアバター移動体(ユーザキャラクタ)である。第2の移動体は、画像として表示されないような仮想的な移動体であってもよいし、画像として表示される移動体であってもよい。例えば第2の移動体は、位置、方向等のオブジェクトのデータは存在するが、仮想空間内のオブジェクトとして表示されないような移動体であってもよい。例えば第1の移動体に他のオブジェクトがヒットすることなどにより、第1、第2の移動体の配置関係にズレが発生するような場合に、仮想空間内に第2の移動体を登場させ、第2の移動体を表示オブジェクトとして表示するようにしてもよい。   On the other hand, the second moving body is an avatar moving body (user character) corresponding to the user, for example. The second moving body may be a virtual moving body that is not displayed as an image, or may be a moving body that is displayed as an image. For example, the second moving object may be a moving object that has object data such as position and direction but is not displayed as an object in the virtual space. For example, if a displacement occurs in the arrangement relationship of the first and second moving bodies due to other objects hitting the first moving body, the second moving body appears in the virtual space. The second moving body may be displayed as a display object.
ゲーム処理部115は、第1の移動体と他のオブジェクトとのヒット演算処理を行う。具体的には、第2の移動体の代わりに第1の移動体と他のオブジェクト(攻撃等)とのヒット演算処理を行う。このヒット演算処理はヒット演算処理部116が実行する。他のオブジェクトは、第1の移動体にヒットする被ヒット物であり、仮想空間において表示されるオブジェクトであってもよいし、仮想空間において非表示の仮想的なオブジェクトであってもよい。他のオブジェクトは、弾や剣等の攻撃用のオブジェクトであってもよいし、自然体験シミュレーションにおける落石等のオブジェクトであってもよいし、仮想空間に配置される障害物、壁等の配置オブジェクトであってもよい。   The game processing unit 115 performs hit calculation processing between the first moving object and another object. Specifically, hit calculation processing is performed between the first moving body and another object (such as an attack) instead of the second moving body. The hit calculation processing unit 116 executes this hit calculation processing. The other object is a hit object that hits the first moving body, and may be an object displayed in the virtual space, or may be a virtual object that is not displayed in the virtual space. Other objects may be attack objects such as bullets and swords, may be objects such as falling rocks in natural experience simulations, and are placed objects such as obstacles and walls placed in virtual space. It may be.
例えばゲーム処理部115(ヒット演算処理部116)は、第1の移動体に対して他のオブジェクトがヒットしたか否かを判定するヒット判定処理や、ヒットによるダメージ量の演算処理や、ヒット用の演出処理などを、ヒット演算処理として行う。ヒット判定処理は、例えば第1の移動体に対して設定されたヒットボリュームと、他のオブジェクトに設定されたヒットボリュームの交差判定処理などにより実現できる。或いは第1の移動体のヒットボリュームと、他のオブジェクトのヒット方向(飛翔方向)に対応する線分との交差判定処理などによりヒット判定処理を実現してもよい。   For example, the game processing unit 115 (hit calculation processing unit 116) performs hit determination processing for determining whether or not another object has hit the first moving body, calculation processing for damage amount due to hit, The effect processing is performed as hit calculation processing. The hit determination process can be realized by, for example, an intersection determination process between a hit volume set for the first moving body and a hit volume set for another object. Alternatively, the hit determination process may be realized by, for example, an intersection determination process between the hit volume of the first moving body and a line segment corresponding to the hit direction (flying direction) of another object.
そしてゲーム処理部115は、第1の移動体に他のオブジェクトがヒットしたと判定した場合に、ヒット判定処理の結果に基づく処理を、第1の移動体に対して行う。ヒット判定処理の結果に基づく処理は、例えば第1の移動体に対して、弾や剣等の他のオブジェクトがヒットしたと判定された場合に、第1の移動体の耐久力を表すパラメータ(ヒットポイント等)を減少させる処理や、耐久力がゼロになった場合に、第1の移動体を破壊したり、消滅させるなどの処理である。またヒット判定処理の結果に基づく処理は、第1の移動体に対して、障害物、壁等の他のオブジェクトがヒットしたと判定された場合に、第1の移動体の配置位置を変化させ、第1の移動体と第2の移動体の配置関係にズレを生じさせる処理である。   When the game processing unit 115 determines that another object has hit the first moving body, the game processing unit 115 performs processing based on the result of the hit determination process on the first moving body. The process based on the result of the hit determination process is, for example, a parameter (1) indicating the durability of the first moving body when it is determined that another object such as a bullet or a sword has hit the first moving body. For example, when the endurance becomes zero, the first moving body is destroyed or eliminated. Further, the process based on the result of the hit determination process changes the arrangement position of the first moving body when it is determined that another object such as an obstacle or a wall has hit the first moving body. This is a process for causing a deviation in the arrangement relationship between the first moving body and the second moving body.
このように本実施形態では、第1の移動体のみにヒットチェックが設定されている。例えば実空間には実在しないが、仮想空間に存在するオブジェクト(敵の弾、仮想壁等)について、第2の移動体とはヒット判定せず、第1の移動体のみとヒット判定する。第1の移動体は、オブジェクトがヒットしたと判定された場合には、破壊、位置ズレ等の影響を受ける。例えば第1の移動体の耐久力を表すパラメータであるヒットポイントを減少させる処理が行われる。そしてヒットポイントがゼロになれば、破壊されたと判定される。例えば被弾などのヒットにより第1の移動体が破壊されて崩壊した場合には、第2の移動体の足元に第1の移動体が残骸として表示されるような演出処理を行う。或いは、第1の移動体にオブジェクトがヒットしたことで、第2の移動体に対して重なっていた第1の移動体の配置位置が変化し、第1の移動体と第2の移動体の配置関係にズレを生じさせる。   As described above, in this embodiment, the hit check is set only for the first moving body. For example, an object that does not exist in the real space but exists in the virtual space (enemy bullet, virtual wall, etc.) is determined not to be hit with the second moving object, but is determined to be hit only with the first moving object. When it is determined that the object has hit, the first moving body is affected by destruction, misalignment, and the like. For example, a process of reducing hit points that are parameters representing the durability of the first moving body is performed. If the hit point becomes zero, it is determined that the hit point has been destroyed. For example, when the first moving body is destroyed and collapsed due to a hit such as a bullet, an effect process is performed such that the first moving body is displayed as a remnant at the foot of the second moving body. Alternatively, when the object hits the first moving body, the arrangement position of the first moving body that overlaps the second moving body changes, and the first moving body and the second moving body Deviation occurs in the arrangement relationship.
また報知処理部117は、第1の移動体と第2の移動体の配置関係が変化した場合(ズレが生じた場合)に、配置関係の変化をユーザに報知する処理を行う。例えば、上述したように、他のオブジェクトが第1の移動体にヒットすることなどにより、第1の移動体と第2の移動体の配置関係にズレが生じた場合に、ズレが生じたことをユーザに報知する処理を行う。この報知処理は、HMD200により表示される画像を用いた報知処理でもよいし、ヘッドホンやスピーカからの音を用いた報知処理でもよい。或いは、振動デバイスの振動や、発光素子の発光などを用いた報知処理でもよい。   In addition, the notification processing unit 117 performs processing for notifying the user of a change in the arrangement relationship when the arrangement relationship between the first moving body and the second moving body changes (when a deviation occurs). For example, as described above, when a displacement occurs in the arrangement relationship between the first moving body and the second moving body due to another object hitting the first moving body, the deviation has occurred. To notify the user. This notification process may be a notification process using an image displayed by the HMD 200, or may be a notification process using sound from a headphone or a speaker. Alternatively, notification processing using vibration of a vibration device, light emission of a light emitting element, or the like may be used.
そしてゲーム処理部115は、第1の移動体と第2の移動体の配置関係が元の配置関係に戻った場合に、ゲームの再開処理を行う。例えば他のオブジェクトのヒット等により第1の移動体と第2の移動体の配置関係にズレが生じた場合に、ゲームの進行処理又はゲームの対戦処理等のゲーム処理を、一旦、停止する。そして実空間でのユーザの移動動作等により、第1の移動体と第2の移動体が元の配置関係に戻った場合に、停止したゲーム処理を再開する。例えば第2の移動体の位置に第1の移動体が移動し、第2の移動体に対して第1の移動体が重なるなどして、元の配置関係に戻った場合に、停止していたゲーム進行処理や対戦処理などのゲーム処理を再開する。   Then, the game processing unit 115 performs a game restart process when the arrangement relationship between the first moving object and the second moving object returns to the original arrangement relationship. For example, when a shift occurs in the arrangement relationship between the first moving body and the second moving body due to a hit of another object or the like, game processing such as game progress processing or game battle processing is temporarily stopped. Then, when the first moving body and the second moving body return to the original arrangement relationship due to the movement operation of the user in the real space, the stopped game process is resumed. For example, when the first moving body moves to the position of the second moving body and the first moving body overlaps with the second moving body, the original moving relationship is stopped. Game processing such as game progress processing and battle processing is resumed.
このように本実施形態では、第1の移動体と第2の移動体の配置関係に変化(ズレ)があった場合、それをユーザに報知する。例えば仮想空間の障害物である壁等を、ユーザが無理矢理に通過しようとして、第1の移動体の配置位置がずれた場合に、それをユーザに報知する。そしてユーザが、通過前の位置に戻り、第1の移動体と第2の移動体との配置関係のズレが無くなると、ゲームを再開する。   As described above, in the present embodiment, if there is a change (displacement) in the arrangement relationship between the first moving body and the second moving body, the user is notified of this. For example, when the user is forced to pass a wall or the like that is an obstacle in the virtual space and the arrangement position of the first moving body is shifted, this is notified to the user. Then, when the user returns to the position before passing and the displacement of the arrangement relationship between the first moving body and the second moving body disappears, the game is resumed.
また表示処理部120は、第1の移動体と第2の移動体の配置関係の変化、第1の移動体の状態の変化及びユーザのゲームパラメータの変化の少なくとも1つに応じて、第2の移動体の表示態様を変化させる処理を行う。例えば他のオブジェクトのヒット等により、第1の移動体と第2の移動体の配置関係にズレが生じた場合に、第2の移動体の表示態様を変化させる処理を行う。例えば第2の移動体の画像の画素値(輝度、明るさ)又は半透明度(不透明度)などを変化させる処理を行う。例えば外殻である第1の移動体の配置位置がずれて、第2の移動体が露出状態になった場合に、第2の移動体の視認性を高める処理を、表示態様の変化処理として行う。或いは、他のオブジェクト(攻撃)のヒットにより、第1の移動体が破壊状態になるなどして、第1の移動体の状態が変化したり、ユーザのゲームポイント、ヒットポイント、耐久力等のゲームパラメータが変化した場合に、第2の移動体の表示態様を変化させる処理を行う。例えば第2の移動体の画像の画素値(輝度、明るさ)又は半透明度(不透明度)などを変化させる処理を行う。具体的には第2の移動体の視認性を高める処理を、表示態様の変化処理として行う。   In addition, the display processing unit 120 performs the second processing according to at least one of the change in the arrangement relationship between the first moving body and the second moving body, the change in the state of the first moving body, and the change in the game parameter of the user. The process which changes the display mode of the moving body is performed. For example, when a displacement occurs in the arrangement relationship between the first moving body and the second moving body due to, for example, a hit of another object, processing for changing the display mode of the second moving body is performed. For example, a process of changing the pixel value (luminance, brightness) or translucency (opacity) of the image of the second moving body is performed. For example, when the arrangement position of the first moving body that is the outer shell is shifted and the second moving body is exposed, the process for improving the visibility of the second moving body is performed as the display mode changing process. Do. Alternatively, the state of the first moving body may change due to the hit of another object (attack), the first moving body may change, or the user's game points, hit points, durability, etc. When the game parameter changes, a process of changing the display mode of the second moving body is performed. For example, a process of changing the pixel value (luminance, brightness) or translucency (opacity) of the image of the second moving body is performed. Specifically, the process of improving the visibility of the second moving body is performed as the display mode change process.
また表示処理部120は、実空間においてユーザと他の物体とが衝突の接近関係になったと判定された場合に、第2の移動体の視認性を高める処理を行う。例えば実空間においてユーザと他の物体との距離が所与の距離以下になったり、ユーザの位置を基準に設定された距離範囲内に他の物体が入った場合や、或いは、他の物体の位置を基準に設定された距離範囲内にユーザが入った場合に、ユーザと他の物体とが衝突の接近関係になったと判定する。この衝突の接近関係の判定処理の際には、ユーザや他の物体の速度や加速度などに基づく衝突の予測処理を行ってもよい。そしてユーザと他の物体とが衝突の接近関係になったと判定された場合に、例えば、仮想空間での第2の移動体が、より見やすくなるように、その視認性を高める処理を行う。   In addition, the display processing unit 120 performs a process of improving the visibility of the second moving body when it is determined that the user and another object are in a close proximity relationship in real space. For example, when the distance between the user and another object is less than a given distance in real space, or when another object enters the distance range set based on the user's position, or When the user enters within the distance range set with reference to the position, it is determined that the user and another object are in a collision approaching relationship. In the process of determining the approach relation of the collision, a collision prediction process based on the speed or acceleration of the user or another object may be performed. When it is determined that the user and another object are in a collision approaching relationship, for example, a process for improving the visibility is performed so that the second moving body in the virtual space is easier to see.
例えば表示処理部120は、第2の移動体の視認性を高める処理として、第2の移動体を非表示状態から表示状態に変化させる処理、第2の移動体を非表示状態から半透明状態に変化させる処理、又は第2の移動体の半透明状態をより不透明な状態にする処理などを行う。例えば視認性を高める処理として、非表示であった第2の移動体が、表示されたり、半透明表示されるような処理を行う。或いは、半透明状態である第2の移動体の不透明度を増加させて、より不透明な状態になるような処理を行う。   For example, the display processing unit 120 performs a process of changing the second moving body from the non-display state to the display state as a process for improving the visibility of the second moving body, and the second moving body from the non-display state to the translucent state. Or a process of changing the translucent state of the second moving body to a more opaque state. For example, as a process for improving visibility, a process is performed in which the second moving body that has not been displayed is displayed or semi-transparently displayed. Alternatively, processing is performed to increase the opacity of the second moving body that is in a semi-transparent state so as to make it more opaque.
また移動体処理部113は、仮想空間の所与の場所(指定場所)において、第1の移動体の交換処理を行う。例えば仮想空間内に、交換処理が可能な交換場所(換装場)を設ける。そして、その交換場所において、第2の移動体に対して重ねて配置される第1の移動体を交換できるようにする。例えば、第1の移動体が破壊されたり、消滅して、第2の移動体が露出状態になった場合に、破壊したり消滅した移動体の代わりの第1の移動体を、当該交換場所において装備(装着)できるようにする。   In addition, the moving body processing unit 113 performs a first moving body replacement process at a given location (designated location) in the virtual space. For example, in the virtual space, an exchange place (exchange room) where exchange processing is possible is provided. Then, the first moving body arranged so as to overlap the second moving body can be exchanged at the exchange place. For example, when the first moving body is destroyed or disappears and the second moving body is exposed, the first moving body instead of the destroyed or disappeared moving body is replaced with the exchange place. To be able to equip (install).
例えば第1の移動体が破壊された場所で、新しい第1の移動体に交換(換装)されてしまうと、ゲームのリアル度や面白味が低下してしまう。このため、実空間でのユーザの移動に伴い、第1の移動体が破壊されて非装備になってしまった第2の移動体のみを移動させる。そして、基地(本部、拠点)などのゲームフィールドの周縁部に配置された交換場所に、ユーザに対応する第2の移動体(アバター移動体)が移動することで、新たな第1の移動体を装備できるようにする。そして、その後は、第2の移動体に対して新たな第1の移動体が重なった状態で移動できるようにする。   For example, if the first moving body is replaced (replaced) with a new first moving body at a location where the first moving body is destroyed, the realism and fun of the game will be reduced. For this reason, only the 2nd moving body which the 1st moving body was destroyed and became unequipped with a user's movement in real space is moved. Then, the second mobile body (avatar mobile body) corresponding to the user moves to the exchange place arranged at the peripheral portion of the game field such as the base (headquarters, base), so that a new first mobile body Can be equipped. And after that, it enables it to move in the state where the new 1st moving body overlapped with the 2nd moving body.
また移動体処理部113は、複数種類の移動体の中からユーザにより選択された移動体を、第1の移動体として設定する。例えば移動体の選択画面をHMD200等に表示し、ユーザが所望する移動体を、第1の移動体として選択できるようにする。これにより、選択された第1の移動体が、第2の移動体に重ねて配置されて仮想空間を移動できるようになり、第1、第2の移動体が仮想空間を移動するゲームが実現される。例えば第1の移動体として、性能(攻撃力、守備力又は耐久力等)、様態(容姿、デザイン)、又はサイズなどが異なる複数種類の移動体が用意される。ユーザは、これらの複数種類の移動体の中から、ユーザに対応する第2の移動体に対して付随させる第1の移動体を選択する。この場合に、ユーザのプレイレベル、プレイ時間、プレイ回数、或いはユーザが支払ったコストなどに応じて、第1の移動体としてユーザが選択可能かについての判定処理を行うようにしてもよい。例えば、ユーザのプレイレベルが所定レベル以上であることや、プレイ時間が所定の時間以上であることや、プレイ回数が所定回数以上であることや、ユーザが支払ったコストが所定コスト以上であることを条件として、第1の移動体として選択できるようにしてもよい。ここでコストは、例えばユーザが支払うゲーム内通貨や、ユーザがコストの支払いのために消費するゲームポイントなどである。   In addition, the moving body processing unit 113 sets a moving body selected by the user from a plurality of types of moving bodies as the first moving body. For example, a mobile object selection screen is displayed on the HMD 200 or the like so that the user can select a mobile object desired by the user as the first mobile object. As a result, the selected first moving body can be placed on the second moving body so as to move in the virtual space, and a game in which the first and second moving bodies move in the virtual space is realized. Is done. For example, as the first moving body, a plurality of types of moving bodies having different performance (attacking power, defensive power, durability, etc.), appearance (appearance, design), or size are prepared. The user selects a first moving body to be attached to the second moving body corresponding to the user from the plurality of types of moving bodies. In this case, a determination process as to whether or not the user can select the first moving body may be performed according to the user's play level, play time, number of plays, or cost paid by the user. For example, the user's play level is a predetermined level or more, the play time is a predetermined time or more, the number of plays is a predetermined number or more, and the cost paid by the user is a predetermined cost or more. May be selected as the first moving body. Here, the cost is, for example, an in-game currency paid by the user, a game point consumed by the user for payment of the cost, or the like.
またゲーム処理部115は、第2の移動体に第1の移動体が重ねて配置されている状態と、第2の移動体に第1の移動体が重ねて配置されていない状態とで、第2の移動体の対戦処理用のパラメータを異ならせてもよい。例えば第2の移動体に対して第1の移動体が重ねて配置されている場合には、敵からの攻撃に対して、設定された防御力で防御できるようにすると共に、敵に対して攻撃可能なように、第2の移動体の対戦処理用のパラメータを設定する。一方、第2の移動体に対して第1の移動体が重ねて配置されていない状態では、第2の移動体に対する敵からの攻撃に対して無敵状態に設定したり、第2の移動体による攻撃が不可となるように、第2の移動体の対戦処理用のパラメータを設定する。或いは、第2の移動体に対する攻撃のヒットを有効にしながら、第2の移動体の防御力を低下させて、非常に脆くなるような性能に設定してもよい。   The game processing unit 115 includes a state in which the first moving body is placed on the second moving body and a state in which the first moving body is not placed on the second moving body. You may vary the parameter for the battle process of a 2nd mobile body. For example, when the first moving body is arranged so as to overlap the second moving body, it is possible to defend against the attack from the enemy with the set defense power, and against the enemy. A parameter for the battle process of the second moving body is set so that an attack is possible. On the other hand, in a state in which the first moving body is not superimposed on the second moving body, an invincible state is set against an attack from the enemy against the second moving body, or the second moving body The parameter for the battle process of the second moving body is set so that the attack by is impossible. Alternatively, the performance may be set such that the defense of the second moving body is reduced and the brittleness of the second moving body is reduced while the hit of the attack on the second moving body is made effective.
また表示処理部120は、所与の条件が成立する前は、第2の移動体を非表示にする又は第2の移動体の一部を表示し、所与の条件が成立した場合に、第2の移動体を表示する。即ち、所与の条件が成立するまでは、第2の移動体は表示されなかったり、その一部だけが表示される。例えば第2の移動体は、外殻移動体である第1の移動体に覆われて視覚的に見えないようになっていたり、その一部だけが見えないようになっている。或いは、所与の条件が成立するまでは、第2の移動体を非存在とする。そして例えば障害物等の他のオブジェクトにヒット(衝突)したり、所定のイベントが発生すると、非表示又はその一部だけが表示されていた第2の移動体が表示されるようになる。例えば外殻移動体として第2の移動体を覆っていた第1の移動体が離脱することなどで、第2の移動体が表示されるようになる。そして、この第2の移動体が、取得されたユーザ情報に基づいて、仮想空間内を移動する。   Further, the display processing unit 120 hides the second moving object or displays a part of the second moving object before the given condition is satisfied, and when the given condition is satisfied, The second moving body is displayed. That is, the second moving object is not displayed or only a part thereof is displayed until a given condition is satisfied. For example, the second moving body is covered with the first moving body that is the outer shell moving body so that it cannot be visually seen, or only a part of the second moving body cannot be seen. Alternatively, the second moving object is not present until a given condition is satisfied. For example, when another object such as an obstacle is hit (collised) or a predetermined event occurs, the second moving body that is not displayed or only a part thereof is displayed. For example, when the first moving body covering the second moving body as the outer shell moving body is detached, the second moving body is displayed. Then, the second moving body moves in the virtual space based on the acquired user information.
また表示処理部120は、所与の条件が成立して第2の移動体を表示する場合には、第1の移動体の位置に対応する位置に前記第2の移動体を表示する。そして移動体処理部113は、第2の移動体が表示された後、取得されたユーザ情報に基づいて、第2の移動体を、仮想空間において移動させる処理を行う。例えば所与の条件が成立した際の第1の移動体の位置に対応する位置に、第2の移動体を表示する。例えば第2の移動体に第1の移動体が重ねて配置されている場合に、第1の移動体が離脱すると、その離脱位置に第2の移動体が表示される。そして第1の移動体が離脱して、第2の移動体が表示された後は、取得されたユーザ情報に基づいて、第2の移動体が移動するようになる。即ち、実空間のユーザに追従するように第2の移動体が移動する。   In addition, when a given condition is satisfied and the second moving body is displayed, the display processing unit 120 displays the second moving body at a position corresponding to the position of the first moving body. Then, after the second moving object is displayed, the moving object processing unit 113 performs a process of moving the second moving object in the virtual space based on the acquired user information. For example, the second moving body is displayed at a position corresponding to the position of the first moving body when a given condition is satisfied. For example, when the first moving body is separated from the second moving body and the first moving body is disposed, the second moving body is displayed at the separation position. Then, after the first moving body leaves and the second moving body is displayed, the second moving body moves based on the acquired user information. That is, the second moving body moves so as to follow the user in the real space.
また第1の移動体は、例えば第2の移動体の外殻となる移動体である。この第1の移動体である外殻移動体は、例えば第2の移動体を内包するように配置される移動体である。例えば外殻移動体は、第2の移動体に装備(装着)される装備物である。なお外殻移動体は第2の移動体の全てを覆っている必要は無く、第2の移動体の一部が外部に露出するような装備態様であってもよい。また外殻移動体のサイズは、第2の移動体のサイズに応じたサイズになっており、例えば外殻移動体と第2の移動体は同一(略同一)のサイズにすることができる。   The first moving body is, for example, a moving body that is an outer shell of the second moving body. The outer shell moving body that is the first moving body is a moving body that is arranged so as to contain the second moving body, for example. For example, the outer shell moving body is an equipment to be equipped (mounted) on the second moving body. It should be noted that the outer shell moving body does not have to cover the entire second moving body, and may be an equipment mode in which a part of the second moving body is exposed to the outside. The size of the outer shell moving body is a size according to the size of the second moving body. For example, the outer shell moving body and the second moving body can be the same (substantially the same) size.
具体的には、第1の移動体は、第2の移動体のサイズ又は形状に対応するサイズ又は形状を有する移動体である。サイズ又は形状が対応するとは、第1、第2の移動体の両者が無関係のサイズ又は形状ではなく、第1、第2の移動体のサイズ又は形状の間に所定の関係があるということである。例えば第1の移動体は、第2の移動体と同一(略同一)のサイズ又は形状を有する移動体である。第1の移動体と第2の移動体のサイズ又は形状は完全に一致している必要はなく、例えば第1の移動体の方が第2の移動体よりもサイズが若干大きいなど、種々の態様が考えられる。例えば第1の移動体が第2の移動体の倍以上のサイズになることは、ここでは想定されていない。   Specifically, the first moving body is a moving body having a size or shape corresponding to the size or shape of the second moving body. The size or shape corresponds to the fact that both the first and second moving bodies are not irrelevant sizes or shapes, and there is a predetermined relationship between the sizes or shapes of the first and second moving bodies. is there. For example, the first moving body is a moving body having the same size (substantially the same) size or shape as the second moving body. The sizes or shapes of the first moving body and the second moving body do not have to be completely the same. For example, the first moving body is slightly larger in size than the second moving body. Embodiments are possible. For example, it is not assumed here that the size of the first moving body is more than twice the size of the second moving body.
また仮想カメラ制御部114は、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御する。   Further, the virtual camera control unit 114 controls the virtual camera so as to follow the change in the user's viewpoint based on the tracking information of the user's viewpoint information.
例えば入力処理部102(入力受け付け部)は、HMD200を装着するユーザの視点情報のトラッキング情報を取得する。例えばユーザの視点位置、視線方向の少なくとも1つである視点情報のトラッキング情報(視点トラッキング情報)を取得する。このトラッキング情報は、例えばHMD200のトラッキング処理を行うことで取得できる。なおトラッキング処理によりユーザの視点位置、視線方向を直接に取得するようにしてもよい。一例としては、トラッキング情報は、ユーザの初期視点位置からの視点位置の変化情報(視点位置の座標の変化値)、及び、ユーザの初期視線方向からの視線方向の変化情報(視線方向の回転軸回りでの回転角度の変化値)の少なくとも一方を含むことができる。このようなトラッキング情報が含む視点情報の変化情報に基づいて、ユーザの視点位置や視線方向(ユーザの頭部の位置、姿勢の情報)を特定できる。   For example, the input processing unit 102 (input reception unit) acquires tracking information of viewpoint information of the user wearing the HMD 200. For example, tracking information (viewpoint tracking information) of viewpoint information that is at least one of the user's viewpoint position and line-of-sight direction is acquired. This tracking information can be acquired by performing tracking processing of the HMD 200, for example. Note that the user's viewpoint position and line-of-sight direction may be directly acquired by tracking processing. As an example, the tracking information includes the change information of the viewpoint position from the initial viewpoint position of the user (change value of the coordinate of the viewpoint position), and the change information of the gaze direction from the initial gaze direction of the user (the rotation axis in the gaze direction). At least one of the rotation angle change values around the rotation angle). Based on the change information of the viewpoint information included in such tracking information, the user's viewpoint position and line-of-sight direction (information on the user's head position and posture) can be specified.
そして仮想カメラ制御部114は、取得されたトラッキング情報(ユーザの視点位置及び視線方向の少なくとも一方の情報)に基づいて仮想カメラの視点位置、視線方向を変化させる。例えば、仮想カメラ制御部114は、実空間でのユーザの視点位置、視線方向の変化に応じて、仮想空間での仮想カメラの視点位置、視線方向(位置、姿勢)が変化するように、仮想カメラを設定する。このようにすることで、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御できる。   Then, the virtual camera control unit 114 changes the viewpoint position and the line-of-sight direction of the virtual camera based on the acquired tracking information (information on at least one of the user's viewpoint position and the line-of-sight direction). For example, the virtual camera control unit 114 is configured so that the viewpoint position and the line-of-sight direction (position and posture) of the virtual camera change in the virtual space according to changes in the viewpoint position and the line-of-sight direction of the user in the real space. Set up the camera. By doing in this way, a virtual camera can be controlled to follow a user's viewpoint change based on tracking information of a user's viewpoint information.
また本実施形態では、ユーザがプレイするゲームのゲーム処理として、仮想現実のシミュレーション処理を行う。仮想現実のシミュレーション処理は、実空間での事象を仮想空間で模擬するためのシミュレーション処理であり、当該事象をユーザに仮想体験させるための処理である。例えば実空間のユーザに対応する仮想ユーザやその搭乗移動体などの移動体を、仮想空間で移動させたり、移動に伴う環境や周囲の変化をユーザに体感させるための処理を行う。   In the present embodiment, a virtual reality simulation process is performed as the game process of the game played by the user. The virtual reality simulation process is a simulation process for simulating an event in the real space in the virtual space, and is a process for causing the user to experience the event virtually. For example, a virtual user corresponding to a user in real space or a moving body such as a boarding moving body is moved in the virtual space, or processing for causing the user to experience changes in the environment and surroundings associated with the movement is performed.
なお図1の本実施形態のシミュレーションシステムの処理は、施設に設置されるPC等の処理装置、ユーザが装着する処理装置、或いはこれらの処理装置の分散処理などにより実現できる。或いは、本実施形態のシミュレーションシステムの処理を、サーバシステムと端末装置により実現してもよい。例えばサーバシステムと端末装置の分散処理などにより実現してもよい。   Note that the processing of the simulation system of this embodiment in FIG. 1 can be realized by a processing device such as a PC installed in a facility, a processing device worn by a user, or distributed processing of these processing devices. Or you may implement | achieve the process of the simulation system of this embodiment with a server system and a terminal device. For example, it may be realized by distributed processing of a server system and a terminal device.
2.トラッキング処理
次にトラッキング処理の例について説明する。図2(A)に本実施形態のシミュレーションシステムに用いられるHMD200の一例を示す。図2(A)に示すようにHMD200には複数の受光素子201、202、203(フォトダイオード)が設けられている。受光素子201、202はHMD200の前面側に設けられ、受光素子203はHMD200の左側面に設けられている。またHMDの右側面、上面等にも不図示の受光素子が設けられている。
2. Tracking Processing Next, an example of tracking processing will be described. FIG. 2A shows an example of the HMD 200 used in the simulation system of this embodiment. As shown in FIG. 2A, the HMD 200 is provided with a plurality of light receiving elements 201, 202, and 203 (photodiodes). The light receiving elements 201 and 202 are provided on the front side of the HMD 200, and the light receiving element 203 is provided on the left side of the HMD 200. In addition, a light receiving element (not shown) is also provided on the right side surface and the upper surface of the HMD.
またユーザUSは、現実世界の銃を模したガン型コントローラ290を所持しており、このガン型コントローラ290にも、受光素子204、205(フォトダイオード)が設けられている。これらの受光素子204、205を用いることで、ガン型コントローラ290の位置や方向を特定できる。またガン型コントローラ290には、銃の引き金のスイッチが設けられており、このスイッチを操作することで、仮想空間の移動体が銃を発砲する。なおガン型コントローラ290には少なくとも1つの受光素子が設けられていればよい。   The user US has a gun-type controller 290 that imitates a real-world gun, and the gun-type controller 290 is also provided with light receiving elements 204 and 205 (photodiodes). By using these light receiving elements 204 and 205, the position and direction of the gun-type controller 290 can be specified. The gun-type controller 290 is provided with a switch for triggering a gun. By operating this switch, a moving body in the virtual space fires a gun. The gun-type controller 290 may be provided with at least one light receiving element.
またHMD200には、ヘッドバンド260等が設けられており、ユーザUSは、より良い装着感で安定的に頭部にHMD200を装着できるようになっている。また、HMD200には、不図示のヘッドホン端子が設けられており、このヘッドホン端子にヘッドホン270(音出力部192)を接続することで、例えば3次元音響(3次元オーディオ)の処理が施されたゲーム音を、ユーザUSは聴くことが可能になる。なお、ユーザUSの頭部の頷き動作や首振り動作をHMD200のセンサ部210等により検出することで、ユーザUSの操作情報を入力できるようにしてもよい。   Further, the HMD 200 is provided with a headband 260 and the like so that the user US can stably wear the HMD 200 on the head with a better wearing feeling. In addition, the HMD 200 is provided with a headphone terminal (not shown). By connecting a headphone 270 (sound output unit 192) to the headphone terminal, for example, processing of three-dimensional sound (three-dimensional audio) is performed. The user US can listen to the game sound. Note that the operation information of the user US may be input by detecting the head movement or the swinging movement of the user US by the sensor unit 210 of the HMD 200 or the like.
またユーザUSは、処理装置250を例えば背中に装着している。例えばユーザUSはジャケットを着ており、このジャケットの背面側に処理装置250が取り付けられている。処理装置250は例えばノート型PC等の情報処理装置により実現される。そしてこの処理装置250とHMD200はケーブル252により接続されている。例えば処理装置250は、HMD200に表示される画像(ゲーム画像等)の生成処理を行い、生成された画像のデータがケーブル252を介してHMD200に送られ、HMD200に表示される。この処理装置250は、このような画像の生成処理以外にも、本実施形態の各処理(情報取得処理、仮想空間設定処理、移動体処理、仮想カメラ制御処理、ゲーム処理、報知処理、表示処理又は音処理等)を行うことが可能になっている。なお、本実施形態の各処理を、施設に設置されたPC等の処理装置(不図示)により実現したり、当該処理装置と、ユーザUSが装着する処理装置250の分散処理により実現してもよい。   Further, the user US wears the processing device 250 on, for example, the back. For example, the user US wears a jacket, and the processing device 250 is attached to the back side of the jacket. The processing device 250 is realized by an information processing device such as a notebook PC. The processing device 250 and the HMD 200 are connected by a cable 252. For example, the processing device 250 performs processing for generating an image (game image or the like) displayed on the HMD 200, and the generated image data is sent to the HMD 200 via the cable 252 and displayed on the HMD 200. In addition to such an image generation process, the processing device 250 performs each process of the present embodiment (information acquisition process, virtual space setting process, moving body process, virtual camera control process, game process, notification process, display process). Alternatively, sound processing or the like can be performed. Note that each processing of the present embodiment may be realized by a processing device (not shown) such as a PC installed in a facility, or may be realized by distributed processing of the processing device and the processing device 250 worn by the user US. Good.
図2(B)に示すように、ユーザUSの周辺には、ベースステーション280、284が設置されている。ベースステーション280には発光素子281、282が設けられ、ベースステーション284には発光素子285、286が設けられている。発光素子281、282、285、286は、例えばレーザー(赤外線レーザー等)を出射するLEDにより実現される。ベースステーション280、284は、これら発光素子281、282、285、286を用いて、例えばレーザーを放射状に出射する。そして図2(A)のHMD200に設けられた受光素子201〜203等が、ベースステーション280、284からのレーザーを受光することで、HMD200のトラッキングが実現され、ユーザUSの頭の位置や向く方向(視点位置、視線方向)を検出できるようになる。またガン型コントローラ290に設けられる受光素子204、205が、ベースステーション280、284からのレーザーを受光することで、ガン型コントローラ290の位置及び方向の少なくとも一方を検出できるようになる。   As shown in FIG. 2B, base stations 280 and 284 are installed around the user US. The base station 280 is provided with light emitting elements 281 and 282, and the base station 284 is provided with light emitting elements 285 and 286. The light emitting elements 281, 282, 285, and 286 are realized by LEDs that emit laser (infrared laser or the like), for example. The base stations 280 and 284 use these light emitting elements 281, 282, 285, and 286 to emit, for example, a laser beam radially. The light receiving elements 201 to 203 and the like provided in the HMD 200 in FIG. 2A receive the lasers from the base stations 280 and 284, thereby realizing the tracking of the HMD 200 and the position and direction of the head of the user US. (Viewpoint position, line-of-sight direction) can be detected. The light receiving elements 204 and 205 provided in the gun-type controller 290 receive lasers from the base stations 280 and 284, so that at least one of the position and direction of the gun-type controller 290 can be detected.
図3(A)にHMD200の他の例を示す。図3(A)では、HMD200に対して複数の発光素子231〜236が設けられている。これらの発光素子231〜236は例えばLEDなどにより実現される。発光素子231〜234は、HMD200の前面側に設けられ、発光素子235や不図示の発光素子236は、背面側に設けられる。これらの発光素子231〜236は、例えば可視光の帯域の光を出射(発光)する。具体的には発光素子231〜236は、互いに異なる色の光を出射する。またユーザUSが所持するガン型コントローラ290にも、発光素子237、238(LED)が設けられている。なおガン型コントローラ290には少なくとも1つの発光素子が設けられていればよい。   FIG. 3A shows another example of the HMD 200. In FIG. 3A, a plurality of light emitting elements 231 to 236 are provided for the HMD 200. These light emitting elements 231 to 236 are realized by, for example, LEDs. The light emitting elements 231 to 234 are provided on the front side of the HMD 200, and the light emitting element 235 and the light emitting element 236 (not shown) are provided on the back side. These light emitting elements 231 to 236 emit (emit) light in a visible light band, for example. Specifically, the light emitting elements 231 to 236 emit light of different colors. The gun-type controller 290 possessed by the user US is also provided with light emitting elements 237 and 238 (LEDs). The gun controller 290 only needs to be provided with at least one light emitting element.
そして図3(B)に示す撮像部150を、ユーザUSの周囲の少なくとも1つの場所(例えば前方側、或いは前方側及び後方側など)に設置し、この撮像部150により、HMD200の発光素子231〜236の光を撮像する。即ち、撮像部150の撮像画像には、これらの発光素子231〜236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、ユーザUSの頭部(HMD)のトラッキングを実現する。即ちユーザUSの頭部の3次元位置や向く方向(視点位置、視線方向)を検出する。   The imaging unit 150 shown in FIG. 3B is installed in at least one place around the user US (for example, the front side, the front side, the rear side, or the like). ˜236 images of light. That is, the spot light of these light emitting elements 231 to 236 is reflected in the captured image of the imaging unit 150. And the tracking of the user's US head (HMD) is implement | achieved by performing the image process of this captured image. That is, the three-dimensional position of the head of the user US and the facing direction (viewpoint position, line of sight direction) are detected.
例えば図3(B)に示すように撮像部150には第1、第2のカメラ151、152が設けられており、これらの第1、第2のカメラ151、152の第1、第2の撮像画像を用いることで、ユーザUSの頭部の奥行き方向での位置等が検出可能になる。またHMD200に設けられたモーションセンサのモーション検出情報に基づいて、ユーザUSの頭部の回転角度(視線)も検出可能になっている。従って、このようなHMD200を用いることで、ユーザUSが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想空間(仮想3次元空間)での画像(ユーザの視点に対応する仮想カメラから見える画像)を、HMD200の表示部220に表示することが可能になる。   For example, as illustrated in FIG. 3B, the imaging unit 150 includes first and second cameras 151 and 152, and the first and second cameras 151 and 152 of the first and second cameras 151 and 152 are provided. By using the captured image, the position of the head of the user US in the depth direction can be detected. Further, based on the motion detection information of the motion sensor provided in the HMD 200, the rotation angle (line of sight) of the head of the user US can also be detected. Therefore, by using such an HMD 200, when the user US faces in any direction of all 360 degrees around the image, the image (the user's virtual space in the virtual space (virtual three-dimensional space)) Image viewed from a virtual camera corresponding to the viewpoint) can be displayed on the display unit 220 of the HMD 200.
また撮像部150により、ガン型コントローラ290の発光素子237、238の光を撮像する。即ち、撮像部150の撮像画像には、発光素子237、238のスポット光が映り、この撮像画像の画像処理を行うことで、HMD200の場合と同様に、ガン型コントローラ290の位置及び方向の少なくとも一方を検出できる。   Further, the imaging unit 150 images light from the light emitting elements 237 and 238 of the gun-type controller 290. That is, spot images of the light emitting elements 237 and 238 appear in the captured image of the imaging unit 150, and by performing image processing on the captured image, at least the position and direction of the gun-type controller 290 are the same as in the case of the HMD 200. One can be detected.
なお、発光素子231〜238として、可視光ではなく赤外線のLEDを用いてもよい。また、例えばデプスカメラ等を用いるなどの他の手法で、ユーザの頭部の位置や動き等を検出するようにしてもよい。   Note that instead of visible light, infrared LEDs may be used as the light emitting elements 231 to 238. Further, the position or movement of the user's head may be detected by another method such as using a depth camera.
また、ユーザの視点位置、視線方向(ユーザの位置、方向)を検出するトラッキング処理の手法は、図2(A)〜図3(B)で説明した手法には限定されない。例えばHMD200に設けられたモーションセンサ等を用いて、HMD200の単体でトラッキング処理を実現してもよい。即ち、図2(B)のベースステーション280、284、図3(B)の撮像部150などの外部装置を設けることなく、トラッキング処理を実現する。或いは、公知のアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの種々の視点トラッキング手法により、ユーザの視点位置、視線方向などの視点情報等を検出してもよい。   Further, the tracking processing method for detecting the user viewpoint position and the line-of-sight direction (user position and direction) is not limited to the method described with reference to FIGS. For example, the tracking process may be realized by a single unit of the HMD 200 using a motion sensor or the like provided in the HMD 200. That is, tracking processing is realized without providing external devices such as the base stations 280 and 284 in FIG. 2B and the imaging unit 150 in FIG. Or you may detect viewpoint information, such as a user's viewpoint position and a gaze direction, by various viewpoint tracking methods, such as well-known eye tracking, face tracking, or head tracking.
またガン型コントローラ290の位置、方向の検出を、ガン型コントローラ290に設けられたモーションセンサを用いて実現してもよい。   The detection of the position and direction of the gun-type controller 290 may be realized by using a motion sensor provided in the gun-type controller 290.
3.本実施形態の手法
次に本実施形態の手法について詳細に説明する。なお、以下では本実施形態の手法を、対戦ゲームに適用した場合を主に例にとり説明する。但し、本実施形態はこれに限定されず、種々のゲーム(RPG、アクションゲーム、競争ゲーム、スポーツゲーム、ホラー体験ゲーム、電車や飛行機等の乗り物のシミュレーションゲーム、パズルゲーム、コミュニケーションゲーム、或いは音楽ゲーム等)に適用でき、ゲーム以外にも適用可能である。また以下では、第2の移動体が、ユーザに対応するアバター移動体(ユーザ移動体、ユーザキャラクタ)であり、第1の移動体が、アバター移動体の外殻とな外殻移動体(外殻装備、義体)である場合を例にとり説明するが、本実施形態はこれに限定されるものではない。
3. Next, the method of this embodiment will be described in detail. In the following description, the method of the present embodiment will be described mainly using an example where the method is applied to a battle game. However, the present embodiment is not limited to this, and various games (RPG, action game, competition game, sports game, horror experience game, simulation game of vehicles such as trains and airplanes, puzzle games, communication games, or music games) Etc.) and can be applied to other than games. In the following, the second moving body is an avatar moving body (user moving body, user character) corresponding to the user, and the first moving body is the outer shell of the avatar moving body (outside shell moving body (outside The case will be described as an example, but the present embodiment is not limited to this.
3.1 外殻移動体
図4は、本実施形態のシミュレーションシステムで用いられるフィールドの説明図である。このシミュレーションシステムでは、現実世界の施設等にフィールドFL(プレイフィールド、プレイエリア、プレイ空間)が用意され、ユーザUS1〜US4はこのフィールドFLにおいて移動する。フィールドFLには、壁等により実現される仕切りWLが設けられている。
3.1 Outer shell moving body FIG. 4 is an explanatory diagram of fields used in the simulation system of the present embodiment. In this simulation system, a field FL (play field, play area, play space) is prepared in a real world facility or the like, and the users US1 to US4 move in the field FL. The field FL is provided with a partition WL realized by a wall or the like.
ユーザUS1〜US4は、HMD1〜HMD4を装着すると共にガン型コントローラGN1〜GN4(広義にはコントローラ)を所持している。またユーザUS1〜US4は、図2(A)で説明したような処理装置250(不図示)を例えば背中に装着している。これらのユーザUS1〜US4は、例えばチーム対戦ゲームのためにチーム(広義にはグループ)を組んでいる。HMD1〜HMD4には仮想空間での映像が映し出されており、ユーザUS1〜US4は、この映像を見ながら対戦ゲーム等のゲームをプレイする。例えばHMD1〜HMD4が非透過型のHMDである場合には、ユーザUS1〜US4の視界がHMD1〜HMD4により覆われるため、現実世界の様子を見ることが困難になる。このため、例えばユーザUS1の背後に位置するユーザUS2がユーザUS1にぶつかってしまうなどの問題が生じる。   The users US1 to US4 wear HMD1 to HMD4 and possess gun type controllers GN1 to GN4 (controllers in a broad sense). In addition, the users US1 to US4 wear the processing device 250 (not shown) described in FIG. These users US1 to US4 form a team (group in a broad sense) for a team battle game, for example. A video in the virtual space is displayed on the HMD1 to HMD4, and the users US1 to US4 play a game such as a battle game while watching the video. For example, when the HMD1 to HMD4 are non-transmissive HMDs, the field of view of the users US1 to US4 is covered with the HMD1 to HMD4, so that it is difficult to see the state of the real world. For this reason, for example, the problem that the user US2 located behind the user US1 hits the user US1 occurs.
ゲームプレイの開始前に、ユーザは、自身の分身であるアバター移動体(広義には第2の移動体)の義体(外殻装備)となる外殻移動体(広義には第1の移動体)を選択する。例えば図5(A)は、実空間(現実世界)のユーザUS1、US2を示しており、ユーザUS1、US2は、HMD1、HMD2を装着すると共にガン型コントローラGN1、GN2を所持している。これに対して仮想空間においては、ユーザUS1、US2に対応するアバター移動体MA1、MA2と、外殻移動体MS1、MS2が登場する。   Before the game play starts, the user moves the outer shell moving body (first movement in a broad sense) as a prosthetic body (outer shell equipment) of an avatar moving body (a second moving body in a broad sense) that is a substitute for the user. Body). For example, FIG. 5A shows users US1 and US2 in real space (real world), and the users US1 and US2 wear the HMD1 and HMD2 and possess gun type controllers GN1 and GN2. In contrast, in the virtual space, avatar moving bodies MA1 and MA2 corresponding to users US1 and US2 and outer shell moving bodies MS1 and MS2 appear.
例えば外殻移動体MS1、MS2は、ガン型コントローラGN1、GN2に対応する銃GS1、GS2(銃オブジェクト)を所持している。外殻移動体MS1、MS2は、例えば脳の神経ネットにデバイスを直接接続する電脳化技術や手足にロボット技術を適用する義体化技術により実現されるというゲーム設定になっている。   For example, the outer shell moving bodies MS1 and MS2 possess guns GS1 and GS2 (gun objects) corresponding to the gun-type controllers GN1 and GN2. The outer shell mobile bodies MS1 and MS2 have a game setting that is realized by, for example, a computerized technology that directly connects a device to a nerve network of the brain or a artificial technology that applies robot technology to a limb.
外殻移動体MS1、MS2(第1の移動体)は、例えばアバター移動体MA1、MA2(第2の移動体)に対して重ねて配置(表示)される。但し本実施形態はこれに限定されない。例えば、通常時は、外殻移動体MS1、MS2(第1の移動体)だけが仮想空間内を移動し、所与の条件が成立した場合(例えば障害物と衝突した場合又は外殻移動体が破壊された場合等)に、アバター移動体MA1、MA2(第2の移動体)が表示されてもよい。例えば、それまでは非表示又は一部だけが表示されていたアバター移動体MA1、MA2が出現して、表示されてもよい。そして表示されたアバター移動体MA1、MA2は、位置情報、方向情報又は姿勢情報等のユーザ情報に基づいて仮想空間内を移動する。例えばユーザUS1、US2に追従するように移動したり、ユーザUS1、US2の動作に対応するように動作する。即ち、ユーザUS1、US2の分身(ゴースト)であるアバター移動体MA1、MA2は、非表示の仮想的なオブジェクトであってもよいし、画面上に表示されるオブジェクトであってもよい。例えばアバター移動体MA1、MA2は、外殻移動体MS1、MS2が非装備になった時に、表示オブジェクトとして出現するものであってもよい。即ち、アバター移動体MA1、MA2は、外殻移動体MS1、MS2が非装備になるなどの所与の条件が成立した場合に、仮想空間に出現して表示されるものであってもよい。   The outer shell moving bodies MS1 and MS2 (first moving bodies) are arranged (displayed) so as to overlap the avatar moving bodies MA1 and MA2 (second moving bodies), for example. However, this embodiment is not limited to this. For example, normally, only the outer shell moving bodies MS1 and MS2 (first moving bodies) move in the virtual space, and a given condition is satisfied (for example, when they collide with an obstacle or outer shell moving bodies) The avatar moving bodies MA1 and MA2 (second moving bodies) may be displayed in the case where is destroyed. For example, the avatar moving bodies MA1 and MA2 that have been hidden or displayed only partially until then may appear and be displayed. The displayed avatar moving bodies MA1 and MA2 move in the virtual space based on user information such as position information, direction information, or posture information. For example, it moves so as to follow the users US1 and US2, or operates so as to correspond to the operations of the users US1 and US2. That is, the avatar moving bodies MA1 and MA2 that are the ghosts of the users US1 and US2 may be non-displayed virtual objects or objects displayed on the screen. For example, the avatar moving bodies MA1 and MA2 may appear as display objects when the outer shell moving bodies MS1 and MS2 are not equipped. That is, the avatar moving bodies MA1 and MA2 may appear and be displayed in the virtual space when a given condition is established such that the outer shell moving bodies MS1 and MS2 are not equipped.
後述の図16で説明するように、ユーザは、用意された複数種類の外殻移動体の中から、所望の外殻移動体を選択し、ユーザの分身(ゴースト)であるアバター移動体を、外殻移動体の内部に移動させる。このように外殻移動体(義体)の選択が行われた後、敵と対戦する対戦ゲームが開始する。この場合に、敵からの攻撃によるヒット判定、攻撃のヒットによるヒットポイントの減少処理、ヒットポイントがゼロになった場合の破壊処理は、ゴーストであるアバター移動体ではなく、外殻移動体に対して行われる。例えば敵からの攻撃が外殻移動体にヒットしたと判定されると、外殻移動体のヒットポイントが減少し、ヒットポイントがゼロになると外殻移動体が破壊(消滅)される。この場合に後述の図14で説明するように、ユーザは、破壊された外殻移動体を新しい外殻移動体に交換して、再装備することができる。   As will be described later with reference to FIG. 16, the user selects a desired outer shell moving body from among a plurality of prepared outer shell moving bodies, and selects an avatar moving body that is a user's alternation (ghost), Move to the inside of the outer shell moving body. After the outer shell moving body (prosthetic body) is thus selected, a battle game in which the enemy battles is started. In this case, the hit judgment by the attack from the enemy, the hit point reduction process by the attack hit, and the destruction process when the hit point becomes zero are not for the avatar moving body that is a ghost but for the outer shell moving body. Done. For example, when it is determined that an attack from the enemy hits the outer shell moving body, the hit points of the outer shell moving body are reduced, and when the hit point becomes zero, the outer shell moving body is destroyed (disappears). In this case, as will be described later with reference to FIG. 14, the user can replace the destroyed outer shell moving body with a new outer shell moving body and re-equip the equipment.
図6(A)では、実空間においてユーザUSがA1に示すように移動している。ユーザUSは、視界を覆うようにHMD200を装着し、手にはガン型コントローラを所持している。そして図4に示すような実空間のフィールドFLを移動する。すると、実空間において移動するユーザUSの位置情報が取得され、取得された位置情報に基づいて、図6(B)のA2、A3に示すように、外殻移動体MS(アバター移動体MA)が仮想空間において移動する。また実空間でのユーザUSの方向情報が取得され、仮想空間の外殻移動体MS(アバター移動体MA)もその方向情報に対応する方向を向くようになる。また実空間でのユーザUSの姿勢情報が取得され、仮想空間の外殻移動体MS(アバター移動体MA)もその姿勢情報に対応する姿勢を取るようになる。例えば実空間においてユーザUSが、手や足を動かせば、仮想空間での外殻移動体MS(アバター移動体MA)もそれに応じて手や足を動かすようになる。   In FIG. 6A, the user US is moving as indicated by A1 in the real space. The user US wears the HMD 200 so as to cover the field of view, and has a gun-type controller in his hand. Then, the field FL in the real space as shown in FIG. 4 is moved. Then, the position information of the user US moving in the real space is acquired, and based on the acquired position information, the outer shell moving body MS (avatar moving body MA) as indicated by A2 and A3 in FIG. 6B. Move in the virtual space. In addition, the direction information of the user US in the real space is acquired, and the outer shell moving body MS (avatar moving body MA) in the virtual space also faces the direction corresponding to the direction information. Also, the posture information of the user US in the real space is acquired, and the outer shell moving body MS (avatar moving body MA) in the virtual space also takes a posture corresponding to the posture information. For example, when the user US moves his / her hand or foot in the real space, the outer shell moving body MS (avatar moving body MA) in the virtual space also moves his / her hand or foot accordingly.
そして図6(B)に示すように本実施形態では、例えば外殻移動体MSはアバター移動体MAに対して重ねて配置される。例えば外殻移動体MSに内包されるようにアバター移動体MAが配置される。例えば外殻移動体MS(第1の移動体)は、アバター移動体MA(第2の移動体)のサイズ又は形状に対応するサイズ又は形状を有する移動体となっている。例えば外殻移動体MSとアバター移動体MAは略同一のサイズ又は形状になっている。但し外殻移動体MSは、アバター移動体MAを覆うものであるため、その分だけアバター移動体MAよりもサイズが大きくてもよい。また外殻移動体MSとアバター移動体MAは、例えば人型という意味では同じ形状であるが、外殻移動体MSは種々の装備を有しており、その点においてアバター移動体MAの形状と異なるようになっていてもよい。   As shown in FIG. 6B, in the present embodiment, for example, the outer shell moving body MS is arranged so as to overlap the avatar moving body MA. For example, the avatar moving body MA is arranged so as to be included in the outer shell moving body MS. For example, the outer shell mobile body MS (first mobile body) is a mobile body having a size or shape corresponding to the size or shape of the avatar mobile body MA (second mobile body). For example, the outer shell mobile body MS and the avatar mobile body MA have substantially the same size or shape. However, since the outer shell mobile body MS covers the avatar mobile body MA, the outer mobile body MS may be larger in size than the avatar mobile body MA. The outer shell mobile body MS and the avatar mobile body MA have the same shape, for example, in the sense of a human form, but the outer shell mobile body MS has various equipment, and in that respect, the shape of the avatar mobile body MA It may be different.
外殻移動体MSが重ねて配置されて装備された状態において、アバター移動体MAは例えば外から見えない状態になっており、いわゆるゴーストとして外殻移動体MSの中に入っている状態になっている。例えばアバター移動体MAは、位置情報、方向情報、姿勢情報などのデータは存在するが、画像としては表示されない仮想的なオブジェクトになっている。   In a state where the outer shell mobile body MS is arranged and equipped in an overlapping manner, the avatar mobile body MA is in a state where it cannot be seen from the outside, for example, and is in a state of being in the outer shell mobile body MS as a so-called ghost. ing. For example, the avatar moving body MA is a virtual object that has data such as position information, direction information, and posture information but is not displayed as an image.
またアバター移動体MAは、外殻移動体MSが重ねて配置されている状態において、画像として表示されるオブジェクトであってもよい。例えば外殻移動体MSがアバター移動体MAの全てを覆うのではなく、外殻移動体MSの一部(開口等)において、中に居るアバター移動体MAが視覚的に見えるような表示態様であってもよい。例えばアバター移動体MAは、外殻移動体MSの動作処理(モーション処理)に使用される動作データ(モーションデータ)に基づき動作することができ、ゴーストの移動体である。例えば後述のように外殻移動体MSに他のオブジェクト(攻撃)がヒットすることなどにより、アバター移動体MAと外殻移動体MSの配置関係にズレが生じたことを条件に、アバター移動体MAを表示物として表示するようにしてもよい。   In addition, the avatar moving body MA may be an object displayed as an image in a state where the outer shell moving body MS is overlaid. For example, the outer shell moving body MS does not cover all of the avatar moving body MA, but in a display mode such that the avatar moving body MA in the outer shell moving body MS is visually visible in a part (opening or the like) of the outer shell moving body MS. There may be. For example, the avatar moving body MA can operate based on operation data (motion data) used for operation processing (motion processing) of the outer shell moving body MS, and is a ghost moving body. For example, as described later, the avatar moving body is provided on the condition that the positional relationship between the avatar moving body MA and the outer shell moving body MS is shifted due to another object (attack) hitting the outer shell moving body MS. You may make it display MA as a display thing.
このように本実施形態では、通常時は、外殻移動体MS(第1の移動体)が仮想空間内を移動し、ユーザは、この外殻移動体MSを用いてゲームをプレイする。そして所与の条件が成立すると、ユーザに対応するアバター移動体MA(第2の移動体)が表示される。例えば配置関係にズレが生じるような状況になった場合に、アバター移動体MAが表示される。例えばアバター移動体MAが生成されて表示される。そして、表示されたアバター移動体MAは、取得されたユーザ情報に基づいて、仮想空間内を移動する。   As described above, in the present embodiment, normally, the outer shell moving body MS (first moving body) moves in the virtual space, and the user plays a game using the outer shell moving body MS. When a given condition is satisfied, an avatar moving body MA (second moving body) corresponding to the user is displayed. For example, the avatar moving body MA is displayed in a situation where the positional relationship is shifted. For example, the avatar moving body MA is generated and displayed. The displayed avatar moving body MA moves in the virtual space based on the acquired user information.
具体的には、所与の条件が成立する前は、アバター移動体MAは、表示されなかったり、或いはその一部が表示される。例えば外殻移動体MSに覆われることでアバター移動体MAが非表示になったり、外殻移動体MSの一部において、中に居るアバター移動体MAが見える状態になっている。そして所与の条件が成立すると、アバター移動体MAが表示される。そして、このように所与の条件が成立してアバター移動体MAを表示する場合には、外殻移動体MSの位置に対応する位置にアバター移動体MAが表示される。例えば後述するように、外殻移動体MSが障害物等に衝突したり、外殻移動体MSが破壊されると、外殻移動体MSが衝突した位置や破壊された位置に、アバター移動体MAが表示される。そして、このようにアバター移動体MAが表示された後、アバター移動体MAは、取得されたユーザ情報に基づいて仮想空間内を移動する。   Specifically, before a given condition is established, the avatar moving body MA is not displayed or a part thereof is displayed. For example, the avatar moving body MA is hidden by being covered with the outer shell moving body MS, or the avatar moving body MA in the inside is visible in a part of the outer shell moving body MS. When a given condition is satisfied, the avatar moving body MA is displayed. When the given condition is thus established and the avatar moving body MA is displayed, the avatar moving body MA is displayed at a position corresponding to the position of the outer shell moving body MS. For example, as will be described later, when the outer shell moving body MS collides with an obstacle or the outer shell moving body MS is destroyed, the avatar moving body is placed at the position where the outer shell moving body MS collides or is destroyed. MA is displayed. And after the avatar moving body MA is displayed in this way, the avatar moving body MA moves in the virtual space based on the acquired user information.
図7は本実施形態により生成されるゲーム画像の例である。このゲーム画像は各ユーザが装着するHMDに表示される。例えば図7は、図5(A)のユーザUS1のHMD1に表示されるゲーム画像の例であり、ユーザUS1の外殻移動体MS1の手や所持する銃GS1(銃オブジェクト)が表示されている。また味方チームのユーザUS2、US3に対応する外殻移動体MS2、MS3や、敵チームのユーザに対応する外殻移動体MB1、MB2、MB3が表示されている。味方チームの外殻移動体MS1、MS2、MS3は、所持する銃GS1、GS2、GS3により敵側に対して攻撃を行い、敵チームの外殻移動体MB1、MB2、MB3は、所持する銃GB1、GB2、GB3により攻撃を行う。   FIG. 7 shows an example of a game image generated by this embodiment. This game image is displayed on the HMD worn by each user. For example, FIG. 7 is an example of a game image displayed on the HMD1 of the user US1 in FIG. 5A, and the hand of the outer shell mobile body MS1 of the user US1 and the gun GS1 (gun object) possessed by the user US1 are displayed. . Also, outer shell mobile bodies MS2 and MS3 corresponding to the users US2 and US3 of the teammates and outer shell mobile bodies MB1, MB2 and MB3 corresponding to the users of the enemy team are displayed. The outer shell mobile bodies MS1, MS2, and MS3 of the teammates attack the enemy side with the possessed guns GS1, GS2, and GS3, and the outer shell mobile bodies MB1, MB2, and MB3 of the enemy team possess the gun GB1 , GB2 and GB3 are used to attack.
以上のように本実施形態では、図6(A)のようにHMDを装着するユーザUSの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報が取得される。そして図6(B)に示すように、ユーザに対応するアバター移動体MA(第2の移動体)と、アバター移動体MAに対して重ねて配置される外殻移動体MS(第1の移動体)を、取得されたユーザ情報に基づいて、仮想空間において移動させたり動作させる処理が行われる。そしてユーザUSが装着するHMDには、図7に示すような表示画像が生成されて表示される。   As described above, in the present embodiment, user information including at least one of position information, direction information, and posture information of the user US wearing the HMD is acquired as illustrated in FIG. Then, as shown in FIG. 6B, the avatar moving body MA (second moving body) corresponding to the user and the outer shell moving body MS (first movement) arranged so as to overlap the avatar moving body MA. The body is moved or operated in the virtual space based on the acquired user information. A display image as shown in FIG. 7 is generated and displayed on the HMD worn by the user US.
このように本実施形態では、仮想空間において、ユーザの視点位置に存在するように移動制御されるアバター移動体と、アバター移動体に重ねて配置される外殻移動体が、ユーザの動きに応じて移動制御される。即ち、通常ならばユーザに対応するユーザ移動体は1つしか用意されないが、本実施形態では、ユーザ移動体として、ユーザの分身(ゴースト)に対応するアバター移動体と、アバター移動体の外殻(義体)となる外殻移動体が用意される。このようにすれば、例えばアバター移動体と外殻移動体とを、個別に制御したり表示処理することが可能になる。例えば、他のオブジェクトからの影響を外殻移動体だけに作用させて、アバター移動体には作用させないような処理が可能になる。これにより、実空間の状況と仮想空間の状況の相違に起因して不自然な事態や不適切な事態が発生してしまうのを抑制できるようになる。   As described above, in the present embodiment, the avatar moving body whose movement is controlled so as to exist at the user's viewpoint position in the virtual space, and the outer shell moving body arranged to overlap the avatar moving body correspond to the user's movement. Movement control. That is, normally, only one user moving body corresponding to the user is prepared, but in this embodiment, as the user moving body, the avatar moving body corresponding to the user's alternation (ghost) and the outer shell of the avatar moving body are provided. An outer shell moving body to be (prosthetic body) is prepared. In this way, for example, the avatar moving body and the outer shell moving body can be individually controlled and displayed. For example, it is possible to perform a process in which the influence from other objects is applied only to the outer shell moving body and is not applied to the avatar moving body. Thereby, it becomes possible to suppress the occurrence of an unnatural situation or an inappropriate situation due to the difference between the situation in the real space and the situation in the virtual space.
例えば本実施形態では、ヒット判定処理等のヒット演算処理を、アバター移動体の代わりに、外殻移動体と他のオブジェクトとの間で行うようにする。そして外殻移動体に他のオブジェクトがヒットしたと判定した場合に、ヒット判定処理の結果に基づく処理を、外殻移動体に対して行う。   For example, in this embodiment, hit calculation processing such as hit determination processing is performed between the outer shell moving body and another object instead of the avatar moving body. When it is determined that another object has hit the outer shell moving body, processing based on the result of the hit determination process is performed on the outer shell moving body.
例えば図8(A)では、敵からの攻撃である弾SHが飛来している。この場合にヒット判定処理等のヒット演算処理は、外殻移動体MSと弾SH(広義には他のオブジェクト)との間で行う。例えばアバター移動体MAと弾SHとの間ではヒット判定処理を行わずに、外殻移動体MSと弾SHの間で行う。例えば外殻移動体MSに対して設定されたヒットボリュームと、弾SHとの交差判定処理によりヒット判定処理を実現する。この場合に弾SHに対してもヒットボリュームを設定して、外殻移動体MSとヒットボリュームの交差判定処理を行ってもよいし、弾SHについては軌道だけを求めて、外殻移動体MSのヒットボリュームと弾SHの軌道との交差判定処理を行ってもよい。   For example, in FIG. 8A, a bullet SH that is an attack from an enemy is flying. In this case, hit calculation processing such as hit determination processing is performed between the outer shell mobile body MS and the bullet SH (other objects in a broad sense). For example, the hit determination process is not performed between the avatar moving body MA and the bullet SH, but is performed between the outer shell moving body MS and the bullet SH. For example, the hit determination process is realized by the intersection determination process between the hit volume set for the outer shell mobile body MS and the bullet SH. In this case, the hit volume may be set for the bullet SH and the crossing determination process between the outer shell mobile body MS and the hit volume may be performed, or for the bullet SH, only the trajectory is obtained, and the outer shell mobile body MS is obtained. Crossing determination processing between the hit volume and the trajectory of the bullet SH may be performed.
そして外殻移動体MSに弾SHがヒットしたと判定した場合には、外殻移動体MSのヒットポイント(広義には耐久力を表すパラメータ)を減少させる処理をヒット演算処理として行う。即ち、外殻移動体MSに弾SH(他のオブジェクト)がヒットしたと判定した場合に、ヒット判定処理の結果に基づく処理であるヒットポイントを減少させる処理を、外殻移動体MSに対して行い、アバター移動体MAに対しては行わないようにする。そしてヒットポイントがゼロになったと判定された場合(所与の条件が成立した場合)には、外殻移動体MSが破壊されたと判断し、例えば図8(B)のようにアバター移動体MAを露出(出現)させる。例えばアバター移動体MAの足元に外殻移動体MSが残骸として表示されるような演出処理を行う。残骸である外殻移動体MSは所与の時間が経過すると消滅する。   If it is determined that the shell SH has hit the outer shell mobile body MS, a process for reducing the hit points (parameters representing durability in a broad sense) of the outer shell mobile body MS is performed as a hit calculation process. That is, when it is determined that the bullet SH (another object) has hit the outer shell mobile body MS, a process for reducing hit points, which is a process based on the result of the hit determination process, is performed on the outer shell mobile body MS. Yes, but not for the avatar mobile MA. When it is determined that the hit point has become zero (when a given condition is satisfied), it is determined that the outer shell mobile body MS has been destroyed. For example, as shown in FIG. Is exposed (appears). For example, an effect process is performed in which the outer shell moving body MS is displayed as a wreckage at the foot of the avatar moving body MA. The outer shell mobile body MS, which is a wreckage, disappears after a given time.
このようにアバター移動体MAは、図8(A)の通常状態では、外殻移動体MSに内包されて非表示状態になっているが、図8(B)のように外殻移動体MSが破壊されると、外部に露出して表示状態になる。即ち、所与の条件が成立するまでは、外殻移動体MSだけが表示され、アバター移動体MAは非表示になる。そして所与の条件が成立すると、アバター移動体MAが表示され、外殻移動体MSと同様に、ユーザの移動、動作に追従して、アバター移動体MAが移動、動作する。また図8(B)に示すように、アバター移動体MAは、外殻移動体MSの位置に対応する位置に表示される。なお、アバター移動体MAを表示する場合に、アバター移動体MAを不透明オブジェクトとして表示するようにしてもよいし、ゴーストのように半透明オブジェクトとして表示するようにしてもよい。   As described above, the avatar moving body MA is included in the outer shell moving body MS and is not displayed in the normal state of FIG. 8A, but the outer shell moving body MS is illustrated in FIG. 8B. When is destroyed, it is exposed to the outside and displayed. That is, until the given condition is satisfied, only the outer shell moving body MS is displayed and the avatar moving body MA is not displayed. When a given condition is satisfied, the avatar moving body MA is displayed, and the avatar moving body MA moves and operates following the movement and operation of the user in the same manner as the outer shell moving body MS. Further, as shown in FIG. 8B, the avatar moving body MA is displayed at a position corresponding to the position of the outer shell moving body MS. When the avatar moving body MA is displayed, the avatar moving body MA may be displayed as an opaque object, or may be displayed as a semi-transparent object such as a ghost.
また図9(A)では、実空間においてユーザUSがB1に示すように移動しているが、ユーザUSの前方側には障害物は存在していない。一方、図9(B)では、仮想空間において、ユーザUSに対応する外殻移動体MS、アバター移動体MAがB2、B3に示すように移動しており、外殻移動体MS、アバター移動体MAの前方には障害物OBS(障害物オブジェクト)が存在している。   In FIG. 9A, the user US moves in the real space as indicated by B1, but there is no obstacle in front of the user US. On the other hand, in FIG. 9B, in the virtual space, the outer shell moving body MS and the avatar moving body MA corresponding to the user US are moving as indicated by B2 and B3, and the outer shell moving body MS and the avatar moving body are moved. There is an obstacle OBS (obstacle object) in front of the MA.
この場合に図10(A)、図10(B)の比較例の手法では、図10(A)のように実空間のユーザUSが移動した場合に、図10(B)に示すように外殻移動体MS、アバター移動体MAが障害物OBSを通過してしまう事態が生じている。即ち、実空間においてユーザUSの前方側には、仮想空間の障害物OBSに対応する障害物は存在しないため、ユーザUSは障害物に遮られることなく、自由に前方に移動できる。このため、実空間には実在しない障害物OBSが仮想空間に存在する場合に、図10(B)のように外殻移動体MS、アバター移動体MAが当該障害物OBSをすり抜けてしまうという不自然な事態が生じてしまう。このような事態が生じると、仮想空間において、ゲームの設定上、ユーザに見せたくないような部分についても、ユーザが見ることができてしまう不適切な事態が生じてしまう。例えば仮想空間に設定された壁をすり抜けて、壁の向こうが見えてしまうようになり、例えば本来は見えないはずの壁の向こう側においても背景等のオブジェクトを配置しなければならなくなる。このため、仮想空間の設定のためのデータ量が膨大になってしまう問題が発生する。   In this case, in the method of the comparative example shown in FIGS. 10A and 10B, when the real space user US moves as shown in FIG. 10A, the external space as shown in FIG. There is a situation in which the shell mobile body MS and the avatar mobile body MA pass through the obstacle OBS. That is, since there is no obstacle corresponding to the obstacle OBS in the virtual space on the front side of the user US in the real space, the user US can freely move forward without being blocked by the obstacle. For this reason, when an obstacle OBS that does not exist in the real space exists in the virtual space, the outer shell mobile body MS and the avatar mobile body MA pass through the obstacle OBS as shown in FIG. 10B. A natural situation will occur. When such a situation occurs, an inappropriate situation occurs in which the user can see a portion of the virtual space that the user does not want to show due to game settings. For example, a wall set in the virtual space passes through and the other side of the wall can be seen. For example, an object such as a background must be arranged on the other side of the wall that should not be seen. This causes a problem that the amount of data for setting the virtual space becomes enormous.
このような問題を解決するために本実施形態では、例えば図11(A)に示すように実空間のユーザUSが移動した場合にも、図11(B)に示すように、障害物OBS(広義には他のオブジェクト)とのヒット判定処理は、外殻移動体MSに対して行い、アバター移動体MAに対しては行わないようにする。このようにすれば、アバター移動体MAは、障害物OBSとのヒット判定処理が行われないことで、障害物OBSをすり抜けてしまうが、外殻移動体MSは、障害物OBSとのヒット判定処理が行われることで、障害物OBSをすり抜けることができないようになる。即ち、外殻移動体MSに障害物OBSがヒットしたと判定されると、外殻移動体MSについてはその移動が停止する。即ち、外殻移動体MSに障害物OBS(他のオブジェクト)がヒットしたと判定した場合に、ヒット判定処理の結果に基づく処理である移動の停止処理を、外殻移動体MSに対して行い、アバター移動体MAに対しては行わないようにする。そして図11(A)のように実空間のユーザUSが、仮想空間の障害物OBSに対応する位置を越えて前方に移動した場合に、このユーザUSの移動に対して、図11(B)に示すよう、外殻移動体MSは追従せずに、ユーザUSに対応するアバター移動体MAだけが追従して移動する。   In order to solve such a problem, in the present embodiment, for example, even when a real space user US moves as shown in FIG. 11A, as shown in FIG. The hit determination process with other objects in a broad sense is performed for the outer shell mobile body MS and not for the avatar mobile body MA. In this way, the avatar moving body MA passes through the obstacle OBS because the hit determination process with the obstacle OBS is not performed, but the outer shell mobile body MS determines the hit with the obstacle OBS. By performing the processing, it becomes impossible to pass through the obstacle OBS. That is, when it is determined that the obstacle OBS has hit the outer shell mobile body MS, the movement of the outer shell mobile body MS stops. That is, when it is determined that an obstacle OBS (another object) has hit the outer shell mobile body MS, a movement stop process, which is a process based on the result of the hit determination process, is performed on the outer shell mobile body MS. This is not performed for the avatar moving body MA. When the user US in the real space moves forward beyond the position corresponding to the obstacle OBS in the virtual space as shown in FIG. As shown, the outer shell moving body MS does not follow, but only the avatar moving body MA corresponding to the user US follows and moves.
図11(B)のように外殻移動体MSが障害物OBSの手前側に取り残されて、アバター移動体MAだけが障害物OBSを通過してしまう事態が生じると、自身の視点の周りに外殻移動体MSが存在しないことに気づいたユーザUSは、障害物OBSの手前側に対応する位置に戻るようになる。これによりゲームプレイを適正に再開できるようになる。   When the outer shell mobile body MS is left behind the obstacle OBS as shown in FIG. 11B and only the avatar mobile body MA passes through the obstacle OBS, The user US who notices that the outer shell mobile body MS does not exist returns to a position corresponding to the front side of the obstacle OBS. This makes it possible to properly resume game play.
このように本実施形態では、外殻移動体MSが障害物OBSに衝突するなどして、所与の条件が成立すると、図11(B)に示すようにアバター移動体MAが表示される。そして図11(A)、図11(B)に示すように、外殻移動体MSから離脱したアバター移動体MAは、ユーザUSの位置情報、方向情報又は姿勢情報等のユーザ情報に基づいて、仮想空間内を移動する。例えば外殻移動体MSは障害物OBSに衝突することで、取り残されて停止しているが、アバター移動体MAは、ユーザUSの移動、動作に追従するように、仮想空間内を自由に移動する。またこのアバター移動体MAは、外殻移動体MSの位置に対応する位置に表示されて出現する。例えば図9(B)のように外殻移動体MSが障害物OBSに衝突して、外殻移動体MSからアバター移動体MAが離脱(幽体離脱)する場合に、その衝突位置や離脱位置にアバター移動体MAが表示される。そして、その後は、ユーザ情報に基づいて、図11(B)に示すように仮想空間内を移動する。   As described above, in this embodiment, when a given condition is satisfied, for example, when the outer shell mobile body MS collides with the obstacle OBS, the avatar mobile body MA is displayed as shown in FIG. And as shown to FIG. 11 (A) and FIG. 11 (B), the avatar mobile body MA which left | separated from the outer shell mobile body MS is based on user information, such as the positional information of a user US, direction information, or attitude | position information. Move in virtual space. For example, the outer shell mobile body MS is left behind and stopped by colliding with the obstacle OBS, but the avatar mobile body MA moves freely in the virtual space so as to follow the movement and movement of the user US. To do. The avatar moving body MA appears in a position corresponding to the position of the outer shell moving body MS. For example, as shown in FIG. 9B, when the outer shell mobile body MS collides with the obstacle OBS, and the avatar mobile body MA leaves from the outer shell mobile body MS (detachment of the ghost body), the collision position and the separation position. The avatar moving body MA is displayed. And after that, based on user information, it moves in the virtual space as shown in FIG.
また本実施形態では図11(B)に示すように外殻移動体MSとアバター移動体MAの配置関係が変化した場合(配置関係にズレが生じた場合。所与の条件が成立した場合)に、配置関係の変化(ズレ)をユーザUSに報知する処理を行う。   In the present embodiment, as shown in FIG. 11B, when the arrangement relationship between the outer shell moving body MS and the avatar moving body MA changes (when a deviation occurs in the arrangement relationship. When a given condition is satisfied). In addition, processing for notifying the user US of a change (displacement) in the arrangement relationship is performed.
例えば図11(A)では、ユーザUSのHMDに対して警告画面を表示する処理が、配置関係の変化(所与の条件の成立)をユーザUSに伝える報知処理として行われている。またユーザUSのヘッドホンにより「戻って!」というような音声を出力する処理が、報知処理として行われている。或いは報知処理として、HMDに設けられた振動デバイスを振動させる処理を行ってもよい。或いは、実空間のフィールドに設けられた、光、振動、空気砲又は音等による体感装置を用いて、配置関係の変化をユーザUSに伝える報知処理を実現してもよい。   For example, in FIG. 11A, a process of displaying a warning screen for the HMD of the user US is performed as a notification process for notifying the user US of a change in arrangement relationship (satisfaction of a given condition). Further, a process of outputting a sound such as “Return!” By the headphones of the user US is performed as a notification process. Or you may perform the process which vibrates the vibration device provided in HMD as alerting | reporting process. Or you may implement | achieve the alerting | reporting process which tells the user US the change of arrangement | positioning relationship using the sensation apparatus by light, a vibration, an air cannon, or a sound provided in the field of real space.
このような報知処理を行うことで、図11(A)のユーザUSは、障害物OBSの手前側に対応する位置に戻るようになる。そして本実施形態では、アバター移動体MAと外殻移動体MSの配置関係が元の配置関係に戻ったことを条件に、ゲームの再開処理を行う。   By performing such notification processing, the user US in FIG. 11A returns to a position corresponding to the near side of the obstacle OBS. In this embodiment, the game restart process is performed on the condition that the arrangement relationship between the avatar moving body MA and the outer shell moving body MS has returned to the original arrangement relationship.
例えば図11(A)、図11(B)のように、アバター移動体MAと外殻移動体MSの配置関係にズレが生じた場合(所与の条件が成立した場合)には、ゲーム進行処理又は対戦処理などのゲーム処理を、一旦、停止する。そしてユーザUSが、自身の視点の周りに外殻移動体MSが存在しないことに気づいたり、HMDの画像やヘッドホンの音による警告の報知処理が行われることで、仮想空間での障害物OBSの手前側に対応する実空間の元の位置に引き返したとする。このように元の位置に引き返すと、アバター移動体MAに対して外殻移動体MSが重なった状態である元の配置関係に戻ることになる。そして、停止していたゲーム処理の再開処理が行われる。例えば停止していたゲーム進行処理が再開する。或いは、図11(B)のような状態では、後述するように、通常モードの対戦処理が停止し、アバター移動体MAが無敵状態になったり、ユーザが敵に対して攻撃できなくなる。この場合に、ユーザUSが元の位置に引き返し、アバター移動体MAと外殻移動体MSが元の配置関係に戻ると、停止していた通常モードの対戦処理が再開する。例えばアバター移動体MAの無敵状態が解除され、敵に対しても攻撃できるようになる。これにより、その後のゲーム処理を適正に実行できるようになる。   For example, as shown in FIGS. 11 (A) and 11 (B), when a deviation occurs in the arrangement relationship between the avatar moving body MA and the outer shell moving body MS (when a given condition is satisfied), the game progresses. The game process such as the process or the battle process is temporarily stopped. Then, when the user US notices that the outer shell mobile body MS does not exist around his / her viewpoint, or a warning notification process is performed by an HMD image or a headphone sound, the obstacle OBS in the virtual space is detected. It is assumed that the user has returned to the original position in the real space corresponding to the near side. Thus, returning to the original position returns to the original arrangement relationship in which the outer shell mobile body MS overlaps the avatar mobile body MA. Then, the stopped game process is restarted. For example, the stopped game progress process is resumed. Alternatively, in the state as shown in FIG. 11B, as will be described later, the battle process in the normal mode stops, the avatar moving body MA becomes invincible, and the user cannot attack the enemy. In this case, when the user US turns back to the original position and the avatar moving body MA and the outer shell moving body MS return to the original arrangement relationship, the stopped battle process in the normal mode is resumed. For example, the invincible state of the avatar moving body MA is canceled, and the enemy can be attacked. Thereby, subsequent game processing can be appropriately executed.
3.2 表示態様の変化処理
本実施形態では、アバター移動体と外殻移動体の配置関係の変化、外殻移動体の状態の変化、或いはユーザのゲームパラメータの変化に応じて、アバター移動体(第2の移動体)の表示態様を変化させる処理を行う。
3.2 Display Mode Change Processing In this embodiment, the avatar moving body is changed in accordance with a change in the arrangement relationship between the avatar moving body and the outer shell moving body, a change in the state of the outer shell moving body, or a change in the game parameter of the user. A process of changing the display mode of the (second moving body) is performed.
例えば図12(A)、図12(B)では、図11(A)に示すようにユーザUSが移動することで、外殻移動体MSに対してだけ障害物OBSとのヒット判定処理が行われて、アバター移動体MAは障害物OBSをすり抜けた状態になっている。即ち、アバター移動体MAと外殻移動体MSの配置関係にズレが生じている。そして図12(A)では、アバター移動体MAと外殻移動体MSの配置関係のズレは小さいが、図12(B)では、ズレが大きくなっている。このようにアバター移動体MAと外殻移動体MSの配置関係に変化があった場合(所与の条件が成立した場合)に、その変化に応じてアバター移動体MAの表示態様を変化させる。   For example, in FIGS. 12 (A) and 12 (B), as the user US moves as shown in FIG. 11 (A), hit determination processing with the obstacle OBS is performed only on the outer shell moving body MS. Thus, the avatar moving body MA is in a state of passing through the obstacle OBS. That is, there is a deviation in the arrangement relationship between the avatar moving body MA and the outer shell moving body MS. In FIG. 12A, the displacement of the arrangement relationship between the avatar moving body MA and the outer shell moving body MS is small, but in FIG. 12B, the displacement is large. Thus, when there is a change in the arrangement relationship between the avatar moving body MA and the outer shell moving body MS (when a given condition is satisfied), the display mode of the avatar moving body MA is changed according to the change.
例えば図12(A)のように配置関係のズレが小さい場合には、アバター移動体MAを非表示状態にしたり、透明に近い半透明状態にする。一方、図12(B)のように配置関係のズレが大きくなると、図12(A)で非表示状態であったアバター移動体MAを、図12(B)では表示状態にする。或いは図12(A)で半透明状態であったアバター移動体MAを、図12(B)では、より不透明な状態にするというような表示態様の変化処理を行う。   For example, when the displacement of the arrangement relationship is small as shown in FIG. 12A, the avatar moving body MA is set in a non-display state or in a semi-transparent state close to transparency. On the other hand, when the displacement of the arrangement relationship becomes large as shown in FIG. 12B, the avatar moving body MA that is in the non-display state in FIG. 12A is changed to the display state in FIG. Alternatively, the avatar moving body MA that was in the translucent state in FIG. 12A is changed to a more opaque state in FIG.
このようにすれば、アバター移動体MAの表示態様が変化することで、ユーザUSは、アバター移動体MAと外殻移動体MSの配置関係にズレが生じことや、そのズレが大きくなったことを視覚的に認識できるようになる。そしてユーザUSが、障害物OBSの手前側の元の位置に戻ることで、適正にゲームを再開することが可能になる。   If the display mode of the avatar moving body MA is changed in this way, the user US has caused a shift in the arrangement relationship between the avatar moving body MA and the outer shell moving body MS, or the shift has increased. Can be visually recognized. Then, the user US can properly resume the game by returning to the original position on the near side of the obstacle OBS.
また図13(A)、図13(B)では、図8(A)のように弾SHが外殻移動体MSにヒットすることで、外殻移動体MSのヒットポイントがゼロになって、外殻移動体MSが破壊状態になっている。この場合に図13(A)、図13(B)に示すようにアバター移動体MAの表示態様を変化させる。例えば図13(A)で非表示状態であったアバター移動体MAを、図13(B)では表示状態にする。或いは図13(A)で半透明状態であったアバター移動体MAを、図13(B)では、より不透明な状態にするというような表示態様の変化処理を行う。   13A and 13B, when the bullet SH hits the outer shell mobile body MS as shown in FIG. 8A, the hit point of the outer shell mobile body MS becomes zero, The outer shell mobile body MS is in a destroyed state. In this case, as shown in FIGS. 13A and 13B, the display mode of the avatar moving body MA is changed. For example, the avatar moving body MA that was in the non-display state in FIG. 13A is changed to the display state in FIG. Alternatively, the avatar moving body MA that was in a translucent state in FIG. 13A is changed to a more opaque state in FIG.
例えば図13(A)のように外殻移動体MSが完全に破壊される前の状態においては、アバター移動体MAを非表示状態にしたり、透明に近い半透明状態にする。一方、図13(B)のように外殻移動体MSが完全に破壊されてアバター移動体MAの前に崩れ落ちた状態では、図13(A)で非表示状態であったアバター移動体MAを、図13(B)では表示状態にする。或いは図13(A)で半透明状態であったアバター移動体MAを、図13(B)では、より不透明な状態にする。   For example, as shown in FIG. 13A, in a state before the outer shell mobile body MS is completely destroyed, the avatar mobile body MA is set in a non-display state or in a translucent state close to transparency. On the other hand, in the state where the outer shell mobile body MS is completely destroyed and collapsed in front of the avatar mobile body MA as shown in FIG. 13 (B), the avatar mobile body MA that is not displayed in FIG. In FIG. 13B, the display state is set. Alternatively, the avatar moving body MA that was in the translucent state in FIG. 13A is made more opaque in FIG. 13B.
例えば図13(A)、図13(B)の表示態様の変化を、経過時間に応じて行ってもよい。例えば非表示状態又は半透明状態であったアバター移動体MAを、例えばヒットポイント等のゲームパラメータがゼロになってからの経過時間に応じて、不透明度が高くなるように表示態様を変化させる。   For example, the display mode of FIGS. 13A and 13B may be changed according to the elapsed time. For example, the display mode of the avatar moving body MA that has been in the non-display state or the semi-transparent state is changed so that the opacity is increased according to the elapsed time after the game parameter such as the hit point becomes zero.
また図13(A)、図13(B)では外殻移動体MSの状態の変化(ヒットポイントの変化、非破壊状態から破壊状態への変化等)に応じて、アバター移動体MAの表示態様を変化させているが、ユーザのゲームパラメータの変化に応じて、アバター移動体MAの表示態様を変化させてもよい。例えばヒットポイント等の耐久力を表すゲームパラメータを、外殻移動体MSのゲームパラメータとして扱うのではなく、ユーザのゲームパラメータとして扱う。そしてユーザのヒットポイント等のゲームパラメータの変化に応じて、アバター移動体MAの表示態様を変化させる。例えば外殻移動体MSが消失して、アバター移動体MAが露出した場合に、ユーザのヒットポイント等のゲームパラメータの変化に応じて、アバター移動体MAの表示態様を変化させてもよい。またヒットポイント以外のユーザのゲームパラメータ(ユーザのステータスパラメータ、得点等のゲームポイント又は課金ポイント等)の変化に応じて、アバター移動体MAの表示態様を変化させてもよい。   13A and 13B, the display mode of the avatar moving body MA is changed according to the change in the state of the outer shell moving body MS (change in hit points, change from the non-destructive state to the destructive state, etc.). However, the display mode of the avatar moving body MA may be changed according to the change of the game parameter of the user. For example, a game parameter representing endurance such as a hit point is not handled as a game parameter of the outer shell mobile body MS but as a game parameter of the user. Then, the display mode of the avatar moving body MA is changed in accordance with changes in game parameters such as user hit points. For example, when the outer shell mobile body MS disappears and the avatar mobile body MA is exposed, the display mode of the avatar mobile body MA may be changed according to a change in game parameters such as the hit points of the user. In addition, the display mode of the avatar moving body MA may be changed in accordance with changes in the user's game parameters other than hit points (user status parameters, game points such as scores or billing points).
また本実施形態では、仮想空間の所与の場所において、第1の移動体の交換処理を行えるようにしている。例えば図14では仮想空間のフィールドVFLにおいて、ユーザUS1は、自身のアバター移動体の外殻移動体が図8(B)のように破壊されている。この場合にフィールドVFLには、外殻移動体の換装場(交換場所)が設定されており、ユーザUS1のアバター移動体が、外殻移動体が破壊された場所から換装場に移動する。そして換装場に到着すると、例えば後述の図16に示すような選択画面が表示され、ユーザUS1は、破壊された外殻移動体の代わりとなる外殻移動体を装備できるようになる。外殻移動体を換装場において交換するためには、例えばユーザUS1のゲームポイント又はゲーム内通貨の消費が必要になる。   In the present embodiment, the replacement process of the first moving body can be performed at a given location in the virtual space. For example, in FIG. 14, in the field VFL in the virtual space, the user US1 has the outer shell moving body of his / her avatar moving body destroyed as shown in FIG. In this case, a change place (exchange place) for the outer shell moving body is set in the field VFL, and the avatar moving body of the user US1 moves from the place where the outer shell moving body is destroyed to the change place. Then, when arriving at the replacement hall, for example, a selection screen as shown in FIG. 16 to be described later is displayed, and the user US1 can equip the outer shell moving body instead of the destroyed outer shell moving body. In order to exchange the outer shell moving body in the conversion hall, for example, the game points of the user US1 or the in-game currency must be consumed.
例えば図14において、ユーザUS1の外殻移動体が破壊された場所で外殻移動体が交換されてしまうと、ゲームが興ざめとなってしまう事態が生じる。このため、フィールドFL(ゲームステージ)の周縁部等の基地(本部、拠点)に、換装場を設ける。そして外殻移動体が破壊された状態のアバター移動体が、換装場に移動することで、破壊された外殻移動体の代わりとなる外殻移動体を装備できるようにする。こうすることで、ユーザは、外殻移動体を再び装備して、ゲームを再開できるようになる。   For example, in FIG. 14, if the outer shell moving body is replaced at the place where the outer shell moving body of the user US1 is destroyed, a situation occurs in which the game becomes a mess. For this reason, a replacement hall is provided at a base (headquarters, base) such as a peripheral portion of the field FL (game stage). Then, the avatar moving body in a state in which the outer shell moving body is destroyed moves to the replacement area so that the outer shell moving body can be equipped as a substitute for the destroyed outer shell moving body. By doing so, the user can equip the outer shell moving body again and resume the game.
また図14において、外殻移動体が破壊されてアバター移動体だけの状態となったユーザUS1が、フィールドVFLを移動する際に、他のユーザUS2に接近して衝突してしまうおそれがある。例えばアバター移動体が、透明状態又は半透明状態などの視認性が低い状態に設定されていると、他のユーザUS2は、ユーザUS1のアバター移動体の存在に気づかず、実空間においてユーザUS1、US2の衝突が発生するおそれがある。   Further, in FIG. 14, when the outer shell moving body is destroyed and only the avatar moving body is reached, the user US1 may collide with another user US2 when moving in the field VFL. For example, when the avatar moving body is set in a state of low visibility such as a transparent state or a semi-transparent state, the other user US2 is not aware of the presence of the avatar moving body of the user US1, and the user US1, There is a risk of US2 collision.
そこで本実施形態では、実空間においてユーザと他の物体とが衝突の接近関係になったと判定された場合に、アバター移動体(第2の移動体)の視認性を高める処理を行う。例えば図15(A)では、実空間のユーザUS1とユーザUS2(広義には他の物体)の衝突判定処理が行われている。この衝突判定処理では、例えばユーザUS1、US2間の距離が所与の距離以下になった場合には、ユーザUS1、US2が衝突の接近関係になったと判定(衝突のおそれがあると判定)する。或いは、ユーザUS1、US2の一方のユーザを基準とした距離範囲内に、他方のユーザが入った場合に、ユーザUS1、US2が衝突の接近関係になったと判定してもよい。   Therefore, in this embodiment, when it is determined that the user and another object are in a close proximity relationship in real space, a process for improving the visibility of the avatar moving body (second moving body) is performed. For example, in FIG. 15A, a collision determination process between a user US1 and a user US2 (other objects in a broad sense) in real space is performed. In this collision determination process, for example, when the distance between the users US1 and US2 is equal to or less than a given distance, it is determined that the users US1 and US2 are in a collision approach relationship (determined that there is a possibility of a collision). . Alternatively, when the other user enters the distance range based on one of the users US1 and US2, it may be determined that the users US1 and US2 are in a collision approaching relationship.
そしてユーザUS1、US2が衝突の接近関係になったと判定された場合には、図15(B)、図15(C)に示すように、ユーザUS1のアバター移動体MA1の視認性を高める処理を行う。ここで視認性を高める処理としては、種々の態様が考えられる。   When it is determined that the users US1 and US2 are in a collision approaching relationship, as shown in FIGS. 15B and 15C, a process for increasing the visibility of the avatar moving body MA1 of the user US1 is performed. Do. Here, various modes are conceivable as the processing for improving the visibility.
例えば図15(B)においてアバター移動体MA1が非表示状態である場合には、図15(C)の視認性を高める処理として、アバター移動体MA1を非表示状態(透明状態)から表示状態(不透明状態)に変化させる処理、或いは非表示状態から半透明状態に変化させる処理を行う。   For example, when the avatar moving body MA1 is in a non-displaying state in FIG. 15B, the avatar moving body MA1 is changed from the non-displaying state (transparent state) to the display state (as shown in FIG. 15C). The process of changing to an opaque state or the process of changing from a non-display state to a translucent state is performed.
また図15(B)においてアバター移動体MA1が半透明状態である場合には、図15(B)の視認性を高める処理として、アバター移動体MA1の半透明状態をより不透明な状態にする処理を行う。例えばアバター移動体MA1、背景の画像の画素値(RGB値、輝度値)を、各々、IA、IBとし、半透明処理におけるアバター移動体MA1のα値をαA、背景のα値をαB(例えばαB=1−αA)とする。このとき、合成後の画素値は、IP=αA×IA+αB×IB=αA×IA+(1−αA)×IBと表すことができる。この場合に、アバター移動体MA1の半透明状態をより不透明な状態にする処理は、例えばαAを大きくする処理により実現できる。   Also, in FIG. 15B, when the avatar moving body MA1 is in a semi-transparent state, a process for making the translucent state of the avatar moving body MA1 more opaque as a process for improving the visibility in FIG. I do. For example, the pixel values (RGB value, luminance value) of the avatar moving body MA1 and the background image are IA and IB, respectively, the α value of the avatar moving body MA1 in the translucent process is αA, and the α value of the background is αB (for example, αB = 1−αA). At this time, the combined pixel value can be expressed as IP = αA × IA + αB × IB = αA × IA + (1−αA) × IB. In this case, the process of making the translucent state of the avatar moving body MA1 more opaque can be realized by, for example, a process of increasing αA.
このようにユーザUS1、US2が衝突の接近関係になった場合に、アバター移動体MAの視認性を高める処理を行えば、ユーザUS2のHMD2に対して、視認性が増加したアバター移動体MA1の画像が映るようになる。従って、ユーザUS2は、アバター移動体MA1を視覚的に十分に認識できるようになり、仮想空間でのアバター移動体MA1との衝突を避けることで、実世界でのユーザUS1との衝突を回避できるようになる。   In this way, when the users US1 and US2 are in a collision approach relationship, if the process of increasing the visibility of the avatar moving body MA is performed, the visibility of the avatar moving body MA1 with increased visibility is compared with the HMD2 of the user US2. The image is reflected. Therefore, the user US2 can visually recognize the avatar moving body MA1 sufficiently, and can avoid a collision with the user US1 in the real world by avoiding a collision with the avatar moving body MA1 in the virtual space. It becomes like this.
なおユーザUS2の外殻移動体MS2も破壊された場合には、ユーザUS2のアバター移動体MA2についても視認性を高める処理を行えばよい。また、ユーザUS1、US2が衝突の接近関係になった場合に、衝突の報知処理を行ってもよい。例えば図11(A)と同様に、画像、音、又は体感装置を用いて、衝突の接近関係になったことをユーザUS2(US1)に報知する。例えばHMD2に表示される画像やヘッドホンから出力される音により、衝突の報知処理を行う。或いは振動や音響や空気砲などの体感装置を用いて、衝突の報知処理を行うようにしてもよい。   When the outer shell mobile body MS2 of the user US2 is also destroyed, the visibility of the avatar mobile body MA2 of the user US2 may be increased. In addition, when the users US1 and US2 are in a collision approaching relationship, a collision notification process may be performed. For example, as in FIG. 11A, the user US2 (US1) is notified of the fact that the collision is in the close relationship using an image, sound, or a sensation apparatus. For example, a collision notification process is performed using an image displayed on the HMD 2 or sound output from the headphones. Or you may make it perform the alerting | reporting process of collision using bodily sensation apparatuses, such as a vibration, a sound, and an air gun.
また本実施形態では、複数種類の移動体の中からユーザにより選択された移動体を、外殻移動体(第1の移動体)として設定するようにしている。   In the present embodiment, a moving body selected by the user from a plurality of types of moving bodies is set as the outer shell moving body (first moving body).
例えばゲームの開始時等において、図16に示すような外殻移動体の選択画面を表示する。図16では、外殻移動体MSA、MSB、MSC等が、ユーザが選択可能な外殻移動体として表示されている。これらの外殻移動体MSA、MSB、MSCは、例えば攻撃力、守備力、耐久力、移動力等のゲームパラメータが互いに異なる移動体となっている。また外殻移動体MSA、MSB、MSCは、様態(容姿、デザイン)やサイズなども互いに異なっている。こうすることでユーザは、ゲーム開始時等において、ユーザの好みの外殻移動体を選択して装備できるようになる。また図14の換装場においても図16に示すような選択画面を表示して、交換先となる外殻移動体をユーザに選択させてもよい。   For example, at the start of the game, an outer shell moving body selection screen as shown in FIG. 16 is displayed. In FIG. 16, the outer shell moving bodies MSA, MSB, MSC, etc. are displayed as outer shell moving bodies that can be selected by the user. These outer shell mobile bodies MSA, MSB, and MSC are mobile bodies having different game parameters such as attack power, defense power, durability, and mobile power. The outer shell mobile bodies MSA, MSB, and MSC are different from each other in appearance (appearance, design) and size. By doing so, the user can select and equip the user's favorite outer shell moving body at the start of the game or the like. In addition, the selection screen as shown in FIG. 16 may be displayed also in the changing station in FIG. 14 to allow the user to select the outer shell moving body to be replaced.
なお、ユーザのプレイレベル、プレイ時間、プレイ回数、或いはユーザが支払ったコスト(対価)などに応じて、ユーザが選択可能な外殻移動体を異ならせてもよい。例えばユーザのプレイレベルが高いほど、或いはプレイ時間が長いほど、或いはプレイ回数が多いほど、或いは支払ったコストが高いほど、より性能が高かったり、よりデザイン性が高かったり、或いは、よりレアな外殻移動体を、ユーザが選択できるようにする。このようにすれば、ユーザは、自身が所望する外殻移動体を選択可能にすることが動機づけとなって、ゲームをプレイするようになり、ゲームの面白味やゲームに対するユーザの熱中度を高めることが可能になる。   It should be noted that the outer shell moving body that can be selected by the user may be varied according to the user's play level, play time, number of plays, or the cost (consideration) paid by the user. For example, the higher the user's play level, the longer the play time, the greater the number of plays, or the higher the cost paid, the better the performance, the better the design, or the more rare The user can select the shell moving body. In this way, the user is motivated to be able to select the desired outer shell moving body, so that the user can play the game, increasing the fun of the game and the user's enthusiasm for the game. It becomes possible.
また本実施形態では、アバター移動体に外殻移動体が重ねて配置されている状態である装備状態(所与の条件が成立していない状態)と、アバター移動体に外殻移動体が重ねて配置されていない状態である非装備状態(所与の条件が成立した状態)とで、アバター移動体の対戦処理用のパラメータを異ならせている。   Moreover, in this embodiment, the outer shell moving body is superimposed on the avatar moving body and the equipment state (state where a given condition is not satisfied) in which the outer shell moving body is placed on the avatar moving body. The parameters for the battle processing of the avatar moving body are different from the non-equipment state (a state where a given condition is satisfied), which is a state where the avatar is not arranged.
例えば図17(A)では、敵からの攻撃により外殻移動体MSが破壊されることで、外殻移動体MSが非装備状態になっている。この場合にはアバター移動体MAは、攻撃不能状態に設定され、無敵状態に設定される。例えば、外殻移動体MSが装備状態である場合に所与の値となる攻撃力のパラメータ(対戦処理用パラメータ)が、非装備状態ではゼロに設定され、攻撃不能状態に設定される。また外殻移動体MSが装備状態である場合に所与の値となる守備力のパラメータ(対戦処理用パラメータ)が、非装備状態では無限大に設定され、無敵状態に設定される。   For example, in FIG. 17A, the outer shell mobile body MS is in an unequipped state because the outer shell mobile body MS is destroyed by an attack from the enemy. In this case, the avatar moving body MA is set in an attack impossible state and in an invincible state. For example, when the outer shell mobile body MS is in the equipped state, the attack power parameter (matching processing parameter) that is a given value is set to zero in the non-equipped state and set to the incapable attack state. In addition, when the outer shell mobile body MS is in the equipped state, the defensive power parameter (matching processing parameter) that is a given value is set to infinity in the non-equipped state and set to the invincible state.
また図17(B)では、外殻移動体MSに対してだけ障害物OBSとのヒット判定処理が行われることで、外殻移動体MSが非装備状態になっている。即ちアバター移動体MAと外殻移動体MSの配置関係にズレが生じている。この場合にも、上述と同様にアバター移動体MAは、攻撃不能状態に設定され、無敵状態に設定される。即ち、外殻移動体MSが非装備状態である場合と装備状態である場合とで、例えば攻撃力、守備力等のパラメータである対戦処理用のパラメータを異ならせている。   Further, in FIG. 17B, the outer shell mobile body MS is in an unequipped state by performing a hit determination process with the obstacle OBS only on the outer shell mobile body MS. That is, there is a deviation in the arrangement relationship between the avatar moving body MA and the outer shell moving body MS. Also in this case, the avatar moving body MA is set to the attack impossible state and the invincible state similarly to the above. That is, the battle processing parameters such as the attack power and the defense power are different depending on whether the outer shell mobile body MS is in the non-equipped state or in the equipped state.
図17(A)、図17(B)のように、外殻移動体が非装備状態である場合に、アバター移動体を攻撃不能状態、無敵状態に設定することで、ユーザのゲームプレイは実質的に停止される。そして例えば図14に示すように、外殻移動体が非装備であるアバター移動体のままで、換装所に移動して、新たな外殻移動体に交換することで、攻撃不能状態、無敵状態が解除される。そしてユーザは、通常のゲームプレイを再開できるようになる。   As shown in FIGS. 17A and 17B, when the outer shell moving body is in the non-equipped state, the user's game play is substantially reduced by setting the avatar moving body in the non-attackable state and the invincible state. Is stopped. And, for example, as shown in FIG. 14, the avatar moving body that is not equipped with the outer shell moving body is moved to the replacement place and replaced with a new outer shell moving body. Is released. The user can resume normal game play.
なお外殻移動体が非装備状態である場合に、アバター移動体を攻撃可能状態に設定してもよい。例えばアバター移動体が武器等を持って攻撃できるようにする。この場合にアバター移動体の攻撃力のパラメータを、装備状態に比べて低い攻撃力になるように設定してもよい。また外殻移動体が非装備状態である場合に、アバター移動体を無敵状態にはせずに、敵からの攻撃のヒットが有効になるように設定してもよい。そして、例えばアバター移動体の防御力のパラメータを、装備状態に比べて低い防御力になるように設定してもよい。例えば敵からの攻撃に対して非常に脆い性能になるように、アバター移動体の防御力を設定する。このように外殻移動体の装備状態と非装備状態とで、対戦処理用のパラメータを異ならせることで、ゲームプレイの多様性や戦略的な面白味を向上できるようになる。   Note that when the outer shell moving body is in the non-equipped state, the avatar moving body may be set in an attackable state. For example, the avatar moving body can be attacked with weapons. In this case, you may set the parameter of the attack power of an avatar mobile body so that it may become low attack power compared with an equipped state. Further, when the outer shell moving body is in the non-equipped state, the avatar moving body may not be set in an invincible state, and the attack hit from the enemy may be set to be effective. Then, for example, the defense power parameter of the avatar moving body may be set so as to have a lower defense power than the equipment state. For example, the defense power of the avatar moving body is set so that the performance is very fragile against the attack from the enemy. In this way, the game play diversity and strategic fun can be improved by making the battle processing parameters different between the equipped state and the non-equipped state of the outer shell moving body.
4.詳細な処理
次に本実施形態の詳細な処理例について図18、図19のフローチャートを用いて説明する。
4). Detailed Processing Next, a detailed processing example of this embodiment will be described with reference to the flowcharts of FIGS.
図18では、まずユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する(ステップS1)。例えばHMDの位置情報、方向情報を取得することで、ユーザの位置情報、方向情報等を取得できる。そして、ユーザに対応するアバター移動体及び外殻移動体の移動処理を行う(ステップS2)。例えば、取得された実空間でのユーザの位置情報や方向情報に基づいて、アバター移動体及び外殻移動体を仮想空間で移動させる処理を行う。またユーザの姿勢情報が取得される場合には、取得された姿勢情報に基づいて、アバター移動体及び外殻移動体を動作させるモーション処理を行う。   In FIG. 18, first, user information including at least one of user position information, direction information, and posture information is acquired (step S1). For example, by acquiring the HMD position information and direction information, the user position information and direction information can be acquired. And the movement process of the avatar moving body and outer shell moving body corresponding to a user is performed (step S2). For example, a process of moving the avatar moving body and the outer shell moving body in the virtual space is performed based on the acquired position information and direction information of the user in the real space. Further, when user posture information is acquired, motion processing for operating the avatar moving body and the outer shell moving body is performed based on the acquired posture information.
次に、敵の攻撃(弾等の被ヒット物)がヒットしたか否かを判定する(ステップS3)。そして攻撃がヒットした場合には、外殻移動体のヒットポイントを減らす等のヒット演算処理を行う(ステップS4)。即ち、図8(A)、図8(B)、図11(A)、図11(B)で説明したように、他のオブジェクト(弾、障害物等)とのヒット判定処理や、ヒット判定処理の結果に基づくヒットポイントの演算等の処理は、アバター移動体の代わり、外殻移動体を用いて行われる。   Next, it is determined whether or not an enemy attack (hit such as a bullet) has been hit (step S3). When the attack is hit, hit calculation processing such as reducing the hit points of the outer shell moving body is performed (step S4). That is, as described in FIG. 8A, FIG. 8B, FIG. 11A, and FIG. 11B, hit determination processing with other objects (bullet, obstacle, etc.), hit determination Processing such as calculation of hit points based on the processing result is performed using an outer shell moving body instead of an avatar moving body.
次に、障害物との衝突又は外殻移動体の破壊等により、アバター移動体と外殻移動体の配置関係にズレが生じる状態になったか否かを判断する(ステップS5)。例えば図8(B)や図11(B)に示すような状態になったか否かを判断する。そして、アバター移動体と外殻移動体の配置関係にズレが生じた場合には、配置関係にズレ(変化)が生じたことをユーザに伝えるための報知処理を行う(ステップS6)。例えば図11(A)に示すように、HMDに表示される画像やヘッドホンからの音等を用いて、配置関係にズレ(変化)が生じたことの報知処理を行う。またアバター移動体の表示態様を変化させる処理やアバター移動体の対戦用パラメータを変更する処理を行う(ステップS7、S8)。例えば図12(A)〜図13(B)に示すように、アバター移動体の視認性を高める表示態様の変化処理を行ったり、図17(A)、図17(B)に示すように、アバター移動体を攻撃不能状態や無敵状態にするというような対戦用パラメータの変更処理を行う。   Next, it is determined whether or not the positional relationship between the avatar moving body and the outer shell moving body has shifted due to a collision with an obstacle or destruction of the outer shell moving body (step S5). For example, it is determined whether or not the state shown in FIG. 8B or FIG. When a deviation occurs in the arrangement relationship between the avatar moving body and the outer shell moving body, a notification process is performed to notify the user that a deviation (change) has occurred in the arrangement relationship (step S6). For example, as shown in FIG. 11 (A), a notification process for the occurrence of a shift (change) in the arrangement relationship is performed using an image displayed on the HMD, sound from headphones, or the like. Moreover, the process which changes the display mode of an avatar mobile body, and the process which changes the parameter for battle of an avatar mobile body are performed (step S7, S8). For example, as shown in FIG. 12 (A) to FIG. 13 (B), the display mode changing process for improving the visibility of the avatar moving body is performed, or as shown in FIG. 17 (A) and FIG. 17 (B), The battle parameter changing process is performed such that the avatar moving body is in an inability to attack state or invincible.
図19は衝突の接近関係になった場合の本実施形態の処理例を示すフローチャートである。まず、実空間においてユーザと他の物体(他のユーザ、障害物)が衝突の接近関係になったか否かを判断する(ステップS11)。例えば図15(A)に示すような接近関係になったか否かを判断する。そして衝突の接近関係になった場合には、衝突の警告処理等の衝突判定時用の処理を実行する(ステップS12)。例えば、他の物体が接近したことで衝突のおそれがあることをユーザに知らせる処理等を行う。具体的には、外殻移動体が破壊状態か否かを判断し(ステップS13)、破壊状態である場合には、アバター移動体の視認性を高める処理を行う(ステップS14)。例えば図15(B)、図15(C)で説明したように、アバター移動体を、非表示状態から表示状態又は半透明状態に変化させたり、或いはアバター移動体の不透明度を高める処理などを行う。   FIG. 19 is a flowchart showing a processing example of the present embodiment when a collision approach relationship is established. First, it is determined whether or not the user and another object (other user, obstacle) are in a collision approach relationship in the real space (step S11). For example, it is determined whether or not an approaching relationship as shown in FIG. If a collision approach relationship is established, a collision determination process such as a collision warning process is executed (step S12). For example, a process of notifying the user that there is a risk of collision due to the approach of another object is performed. Specifically, it is determined whether or not the outer shell moving body is in a broken state (step S13). If the outer shell moving body is in a broken state, processing for increasing the visibility of the avatar moving body is performed (step S14). For example, as described with reference to FIGS. 15B and 15C, the avatar moving body is changed from the non-display state to the display state or the translucent state, or processing for increasing the opacity of the avatar moving body is performed. Do.
なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(第1の移動体、第2の移動体、弾・障害物、耐久力を表すパラメータ等)と共に記載された用語(外殻移動体、アバター移動体、他のオブジェクト、ヒットポイント等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またユーザ情報の取得処理、仮想空間の設定処理、第1、第2の移動体の設定処理、第1、第2の移動体の移動処理、ゲーム処理、ヒット演算処理、表示態様を変化させる処理、視認性を高める処理、報知処理、表示処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、又は多数のユーザが参加する大型アトラクションシステム等の種々のシミュレーションシステムに適用できる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, in the specification or drawings, terms (external parameters) that are described at least once together with different terms having a broader meaning or the same meaning (first moving body, second moving body, bullet / obstacle, durability parameter, etc.) Shell moving object, avatar moving object, other object, hit point, etc.) can be replaced by the different terms anywhere in the specification or drawings. User information acquisition processing, virtual space setting processing, first and second moving body setting processing, first and second moving body movement processing, game processing, hit calculation processing, and processing for changing the display mode Further, the process for improving the visibility, the notification process, the display process, and the like are not limited to those described in the present embodiment, and techniques, processes, and configurations equivalent to these are also included in the scope of the present invention. The present invention can be applied to various games. Further, the present invention can be applied to various simulation systems such as a business game device, a home game device, or a large attraction system in which a large number of users participate.
US、US1〜US4、ユーザ、GN、GN1〜GN4 ガン型コントローラ、
MA、MA1、MA2 アバター移動体、MS、MS1〜MS3 外殻移動体、
MB1〜MB3 外殻移動体(敵)、GS1〜GS3 GB1〜GB3 銃、
SH 弾、OBS 障害物、FL、VFL フィールド、
HMD、HMD1〜HMD4 頭部装着型表示装置、
100 処理部、102 入力処理部、110 演算処理部、111 情報取得部、
112 仮想空間設定部、113 移動体処理部、114 仮想カメラ制御部、
115 ゲーム処理部、116 ヒット演算処理部、117 報知処理部、
120 表示処理部、130 音処理部、140 出力処理部、
150 撮像部、151、152 カメラ、160 操作部、
170 記憶部、172 オブジェクト情報記憶部、178 描画バッファ、
180 情報記憶媒体、192 音出力部、194 I/F部、
195 携帯型情報記憶媒体、196 通信部、
200 HMD(頭部装着型表示装置)、201〜205 受光素子、
210 センサ部、220 表示部、231〜238 発光素子、240 処理部、
250 処理装置、252 ケーブル、260 ヘッドバンド、270 ヘッドホン、
280、284 ベースステーション、
281、282、285、286 発光素子、290 ガン型コントローラ
US, US1-US4, User, GN, GN1-GN4 Gun type controller,
MA, MA1, MA2 avatar moving body, MS, MS1-MS3 outer shell moving body,
MB1-MB3 outer shell moving body (enemy), GS1-GS3 GB1-GB3 gun,
SH bullet, OBS obstacle, FL, VFL field,
HMD, HMD1 to HMD4 head-mounted display device,
100 processing units, 102 input processing units, 110 arithmetic processing units, 111 information acquisition units,
112 virtual space setting unit, 113 moving body processing unit, 114 virtual camera control unit,
115 game processing unit, 116 hit calculation processing unit, 117 notification processing unit,
120 display processing unit, 130 sound processing unit, 140 output processing unit,
150 imaging unit, 151, 152 camera, 160 operation unit,
170 storage unit, 172 object information storage unit, 178 drawing buffer,
180 Information storage medium, 192 sound output unit, 194 I / F unit,
195 portable information storage medium, 196 communication unit,
200 HMD (head-mounted display device), 201-205 light receiving element,
210 sensor unit, 220 display unit, 231 to 238 light emitting element, 240 processing unit,
250 processing equipment, 252 cables, 260 headbands, 270 headphones,
280, 284 base station,
281, 282, 285, 286 Light emitting element, 290 Gun type controller

Claims (17)

  1. 視界を覆うように頭部装着型表示装置を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、
    仮想空間の設定処理を行う仮想空間設定部と、
    前記仮想空間でのゲームの処理を行うゲーム処理部と、
    取得された前記ユーザ情報に基づいて、第1の移動体を、前記仮想空間において移動させる処理を行う移動体処理部と、
    前記ユーザが装着する前記頭部装着型表示装置の表示画像を生成する表示処理部と、
    を含み、
    前記表示処理部は、
    所与の条件が成立した場合に、前記ユーザに対応する第2の移動体を表示し、
    前記移動体処理部は、
    取得された前記ユーザ情報に基づいて、前記第2の移動体を、前記仮想空間において移動させる処理を行うことを特徴とするシミュレーションシステム。
    An information acquisition unit that acquires user information including at least one of position information, direction information, and posture information of a user who wears the head-mounted display device so as to cover the field of view;
    A virtual space setting unit for performing virtual space setting processing;
    A game processing unit for processing a game in the virtual space;
    Based on the acquired user information, a moving body processing unit that performs processing for moving the first moving body in the virtual space;
    A display processing unit that generates a display image of the head-mounted display device worn by the user;
    Including
    The display processing unit
    When a given condition is satisfied, a second mobile object corresponding to the user is displayed,
    The mobile processing unit is
    A simulation system characterized in that, based on the acquired user information, a process of moving the second moving body in the virtual space is performed.
  2. 請求項1において、
    前記移動体処理部は、
    前記ユーザに対応する前記第2の移動体と、前記第2の移動体に対して重ねて配置される前記第1の移動体とを、取得された前記ユーザ情報に基づいて、前記仮想空間において移動させる処理を行うことを特徴とするシミュレーションシステム。
    In claim 1,
    The mobile processing unit is
    Based on the acquired user information, the second moving body corresponding to the user and the first moving body arranged so as to overlap the second moving body in the virtual space. A simulation system characterized by performing a process of moving.
  3. 請求項1又は2において、
    前記ゲーム処理部は、
    前記ユーザに対応する前記第2の移動体の代わりに前記第1の移動体と他のオブジェクトとのヒット演算処理を行うことを特徴とするシミュレーションシステム。
    In claim 1 or 2,
    The game processing unit
    A simulation system that performs hit calculation processing of the first moving body and another object instead of the second moving body corresponding to the user.
  4. 請求項3において、
    前記ゲーム処理部は、
    前記第1の移動体に前記他のオブジェクトがヒットしたと判定した場合に、前記ヒット判定処理の結果に基づく処理を、前記第1の移動体に対して行うことを特徴とするシミュレーションシステム。
    In claim 3,
    The game processing unit
    A simulation system, wherein when it is determined that the other object has hit the first moving body, processing based on a result of the hit determination process is performed on the first moving body.
  5. 請求項1乃至4のいずれかにおいて、
    前記第1の移動体と前記第2の移動体の配置関係が変化した場合に、前記配置関係の変化を前記ユーザに報知する処理を行う報知処理部を含むことを特徴とするシミュレーションシステム。
    In any one of Claims 1 thru | or 4,
    The simulation system characterized by including the alerting | reporting process part which performs the process which alert | reports the change of the said positional relationship to the said user, when the positional relationship of a said 1st moving body and a said 2nd moving body changes.
  6. 請求項5において、
    前記ゲーム処理部は、
    前記第1の移動体と前記第2の移動体の配置関係が元の配置関係に戻った場合に、ゲームの再開処理を行うことを特徴とするシミュレーションシステム。
    In claim 5,
    The game processing unit
    A simulation system, wherein a game resumption process is performed when the arrangement relationship between the first moving object and the second moving object returns to the original arrangement relationship.
  7. 請求項1乃至6のいずれかにおいて、
    前記表示処理部は、
    前記第1の移動体と前記第2の移動体の配置関係の変化、前記第1の移動体の状態の変化及び前記ユーザのゲームパラメータの変化の少なくとも1つに応じて、前記第2の移動体の表示態様を変化させる処理を行うことを特徴とするシミュレーションシステム。
    In any one of Claims 1 thru | or 6.
    The display processing unit
    The second movement according to at least one of a change in an arrangement relationship between the first moving body and the second moving body, a change in the state of the first moving body, and a change in the game parameter of the user. A simulation system for performing a process of changing a display mode of a body.
  8. 請求項1乃至7のいずれかにおいて、
    前記表示処理部は、
    実空間において前記ユーザと他の物体とが衝突の接近関係になったと判定された場合に、前記第2の移動体の視認性を高める処理を行うことを特徴とするシミュレーションシステム。
    In any one of Claims 1 thru | or 7,
    The display processing unit
    A simulation system characterized by performing a process of increasing the visibility of the second moving body when it is determined that the user and another object are in a close proximity relationship in real space.
  9. 請求項8において、
    前記表示処理部は、
    前記第2の移動体の前記視認性を高める処理として、前記第2の移動体を非表示状態から表示状態に変化させる処理、前記第2の移動体を非表示状態から半透明状態に変化させる処理、又は前記第2の移動体の半透明状態をより不透明な状態にする処理を行うことを特徴とするシミュレーションシステム。
    In claim 8,
    The display processing unit
    As a process of improving the visibility of the second moving body, a process of changing the second moving body from a non-display state to a display state, and a change of the second mobile body from a non-display state to a semi-transparent state. The simulation system characterized by performing a process or the process which makes the translucent state of the said 2nd moving body a more opaque state.
  10. 請求項1乃至9のいずれかにおいて、
    前記移動体処理部は、
    前記仮想空間の所与の場所において、前記第1の移動体の交換処理を行うことを特徴とするシミュレーションシステム。
    In any one of Claims 1 thru | or 9,
    The mobile processing unit is
    A simulation system, wherein the first moving body is exchanged at a given location in the virtual space.
  11. 請求項1乃至10のいずれかにおいて、
    前記移動体処理部は、
    複数種類の移動体の中から前記ユーザにより選択された移動体を、前記第1の移動体として設定することを特徴とするシミュレーションシステム。
    In any one of Claims 1 thru | or 10.
    The mobile processing unit is
    A simulation system, wherein a moving body selected by the user from a plurality of types of moving bodies is set as the first moving body.
  12. 請求項1乃至11のいずれかにおいて、
    前記ゲーム処理部は、
    前記第2の移動体に前記第1の移動体が重ねて配置されている状態と、前記第2の移動体に前記第1の移動体が重ねて配置されていない状態とで、前記第2の移動体の対戦処理用のパラメータを異ならせることを特徴とするシミュレーションシステム。
    In any one of Claims 1 thru | or 11,
    The game processing unit
    In the state where the first moving body is arranged so as to overlap the second moving body, and in the state where the first moving body is not arranged so as to overlap the second moving body, the second The simulation system characterized by varying the parameters for the battle processing of the moving body.
  13. 請求項1乃至12のいずれかにおいて、
    前記表示処理部は、
    前記所与の条件が成立する前は、前記第2の移動体を非表示にする又は前記第2の移動体の一部を表示し、前記所与の条件が成立した場合に、前記第2の移動体を表示することを特徴とするシミュレーションシステム。
    In any one of Claims 1 to 12,
    The display processing unit
    Before the given condition is satisfied, when the second moving body is hidden or a part of the second moving body is displayed and the given condition is satisfied, the second moving body is displayed. A simulation system characterized by displaying a moving object.
  14. 請求項1乃至13のいずれかにおいて、
    前記表示処理部は、
    前記所与の条件が成立して前記第2の移動体を表示する場合には、前記第1の移動体の位置に対応する位置に前記第2の移動体を表示し、
    前記移動体処理部は、
    前記第2の移動体が表示された後、取得された前記ユーザ情報に基づいて、前記第2の移動体を、前記仮想空間において移動させる処理を行うことを特徴とするシミュレーションシステム。
    In any one of Claims 1 thru | or 13.
    The display processing unit
    When the given condition is satisfied and the second moving body is displayed, the second moving body is displayed at a position corresponding to the position of the first moving body,
    The mobile processing unit is
    A simulation system characterized in that after the second moving body is displayed, a process of moving the second moving body in the virtual space is performed based on the acquired user information.
  15. 請求項1乃至14のいずれかにおいて、
    前記第1の移動体は、前記第2の移動体の外殻となる移動体であることを特徴とするシミュレーションシステム。
    In any one of Claims 1 thru | or 14.
    The simulation system, wherein the first moving body is a moving body that is an outer shell of the second moving body.
  16. 請求項1乃至15のいずれかにおいて、
    前記第1の移動体は、前記第2の移動体のサイズ又は形状に対応するサイズ又は形状を有する移動体であることを特徴とするシミュレーションシステム。
    In any one of Claims 1 thru | or 15,
    The simulation system, wherein the first moving body is a moving body having a size or shape corresponding to a size or shape of the second moving body.
  17. 視界を覆うように頭部装着型表示装置を装着するユーザの位置情報、方向情報及び姿勢情報の少なくとも1つを含むユーザ情報を取得する情報取得部と、
    仮想空間の設定処理を行う仮想空間設定部と、
    前記仮想空間でのゲームの処理を行うゲーム処理部と、
    取得された前記ユーザ情報に基づいて、第1の移動体を、前記仮想空間において移動させる処理を行う移動体処理部と、
    前記ユーザが装着する前記頭部装着型表示装置の表示画像を生成する表示処理部として、
    コンピュータを機能させ、
    前記表示処理部は、
    所与の条件が成立した場合に、前記ユーザに対応する第2の移動体を表示し、
    前記移動体処理部は、
    取得された前記ユーザ情報に基づいて、前記第2の移動体を、前記仮想空間において移動させる処理を行うことを特徴とするプログラム。
    An information acquisition unit that acquires user information including at least one of position information, direction information, and posture information of a user who wears the head-mounted display device so as to cover the field of view;
    A virtual space setting unit for performing virtual space setting processing;
    A game processing unit for processing a game in the virtual space;
    Based on the acquired user information, a moving body processing unit that performs processing for moving the first moving body in the virtual space;
    As a display processing unit that generates a display image of the head-mounted display device worn by the user,
    Make the computer work,
    The display processing unit
    When a given condition is satisfied, a second mobile object corresponding to the user is displayed,
    The mobile processing unit is
    The program which performs the process which moves the said 2nd moving body in the said virtual space based on the acquired said user information.
JP2017071915A 2017-03-31 2017-03-31 Simulation system and program Pending JP2018171309A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017071915A JP2018171309A (en) 2017-03-31 2017-03-31 Simulation system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017071915A JP2018171309A (en) 2017-03-31 2017-03-31 Simulation system and program

Publications (1)

Publication Number Publication Date
JP2018171309A true JP2018171309A (en) 2018-11-08

Family

ID=64106751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017071915A Pending JP2018171309A (en) 2017-03-31 2017-03-31 Simulation system and program

Country Status (1)

Country Link
JP (1) JP2018171309A (en)

Similar Documents

Publication Publication Date Title
JP5161256B2 (en) Program, information storage medium, and image generation apparatus
WO2018092774A1 (en) Simulation system, processing method, and information storage medium
JP6438207B2 (en) Image generation system and program
JP6373920B2 (en) Simulation system and program
WO2018124280A1 (en) Simulation system, image processing method, and information storage medium
JP6298130B2 (en) Simulation system and program
WO2018012395A1 (en) Simulation system, processing method, and information storage medium
US20190217202A1 (en) Simulation system, process method, and information storage medium
JP2004298305A (en) Image formation information, information storage medium and image formation device
JP2011212123A (en) Program, information storage medium and terminal
JP2019175323A (en) Simulation system and program
JP2019176934A (en) Simulation system
JP2018171309A (en) Simulation system and program
JP2019139424A (en) Simulation system and program
JP2018171320A (en) Simulation system and program
JP2018171319A (en) Simulation system and program
JP2019152899A (en) Simulation system and program
JP2019118493A (en) Simulation system and program
JP2018026034A (en) Simulation system
JP6918189B2 (en) Simulation system and program
JP2011215945A (en) Program, information storage medium, and image generation device
JP2019139425A (en) Simulation system and program
JP2019213764A (en) Simulation system
JP6660321B2 (en) Simulation system and program
JP6794390B2 (en) Simulation system and program